Hume es el nuevo robot que viene con IA y podrá evaluar el estado anímico de los usuarios; ¿cómo funciona la herramienta?
3 minutos de lectura'

La inteligencia artificial sirve para llevar adelante todo tipo de actividades, ya sea indagar en ChatGPT sobre distintos temas, como pedirle a Copilot de Microsoft que diseñe imágenes de personajes animados en la vida real. Sin embargo, estas no son las únicas plataformas con IA. Uno de los últimos lanzamientos con esta herramienta tecnológica es Interfaz de Voz Empática (EVI), de la compañía Hume IA.
EVI, de Hume IA, es la primera voz “emocionalmente inteligente en el mundo”. En verdad, se trata de un bot conversacional que puede registrar el estado anímico de los usuarios. Su objetivo principal no es únicamente dar respuestas, sino también examinar las emociones de las personas que le hablan para dar una respuesta personalizada y aplicada. “Basados en más de 10 años de investigación, nuestros modelos capturan instantáneamente los matices de las expresiones en audio, video e imágenes. Risas teñidas de incomodidad, suspiros de alivio, miradas nostálgicas y más”, explican desde la página oficial de la firma.

Hume puede registrar más de 24 expresiones emocionales diferentes y se adapta a los seres humanos. Las emociones se miden a través de la Interfaz de Programación de Aplicaciones (API)
La herramienta hace transcripciones de las consultas realizadas y responde. Luego, enumera las emociones registradas y el nivel de cada una de ellas. En este sentido, registra si el usuario está triste, preocupado, emocionado, angustiado, entusiasmado o dubitativo. Asimismo, no solo detecta las emociones, sino que tiene “empatía” con la persona.
Según el sitio oficial, la interfaz de voz empática (EVI) de Hume es la primera IA con inteligencia emocional debido a que sabe el significado de cada palabra y usa señales vocales del usuario para guiar el propio lenguaje y habla. Los usuarios podrán conversar con él como si fuera un humano.
De acuerdo a la información oficial, los desarrolladores pueden utilizar EVI como interfaz para cualquier aplicación y la herramienta está disponible al público general a partir de abril de 2024 a través de este link.
Cómo trabaja las emociones EVI, de Hume AI
EVI, de Hume IA trabaja las emociones a través de las siguientes herramientas:
- Ininterrumpibilidad: deja de hablar cuando lo interrumpen y comienza a escuchar, como un humano.
- Responde a la expresión: entiende los altibajos naturales en el tono y los que se utilizan para transmitir significado más allá de las palabras.
- TTS expresivo: genera el tono de voz adecuado para contestar con un habla natural y expresiva.
- Alineado con su aplicación: aprende de las reacciones de los usuarios para perfeccionarse a sí mismos, optimizando para lograr felicidad y satisfacción.
- Discurso tóxico: Hume IA identifica el discurso tóxico de los jugadores en línea con una tasa de error de un 36%.
- Alineado con el bienestar: la IA está capacitada en reacciones humanas para mejorar expresiones positivas como la felicidad y satisfacción.
Además, Evi aprende de las reacciones de los usuarios.
Otras noticias de Inteligencia artificial
El avance de la IA. Galperin advirtió que la app de Mercado Libre podría volverse “irrelevante” y dio un consejo a los jóvenes
El avance de la IA. IBM sufre la caída más profunda en 25 años tras el lanzamiento de una herramienta de Anthropic
"Aprender de manera acompañada". La Ciudad implementa Gemini en las escuelas estatales de Nivel Primario
1Cómo convertir cualquier palabra en sticker en WhatsApp en pocos segundos
2Cuáles son los tres signos con “menos suerte” en marzo de 2026, según la inteligencia artificial
3MWC 2026: cinco cosas que separan al Galaxy S26 Ultra de sus competidores (y sus antecesores)
- 4
El Pentágono usó la IA de Anthropic para atacar a Irán, a pesar de ser vetada por Donald Trump horas antes







