Los chatbots de Nomi ahora recordarán detalles personales, como el compañero de trabajo con el que no te llevas bien

hace 3 semanas · Actualizado hace 3 semanas

Fecha de publicación: 26 de septiembre de 2024 La memoria y la inteligencia emocional de lo

La memoria y la inteligencia emocional de los chatbots de Nomi

Mientras OpenAI presume de la capacidad de reflexión de su modelo o1, la pequeña startup autofinanciada Nomi AI está desarrollando una tecnología similar. A diferencia del ChatGPT, que abarca una amplia gama de temas, Nomi se especializa en crear compañeros virtuales. Ahora, los sofisticados chatbots de Nomi toman más tiempo para formular respuestas mejores, recordando interacciones pasadas y ofreciendo respuestas más matizadas.

Alex Cardinell, CEO de Nomi AI, explicó: "Para nosotros, se trata de los mismos principios que OpenAI, pero mucho más enfocados en lo que realmente importa a nuestros usuarios, que es la memoria y la inteligencia emocional."

Cómo funcionan los modelos de lenguaje de Nomi

Estos modelos de lenguaje (LLM) descomponen solicitudes complicadas en preguntas más pequeñas. Por ejemplo, el modelo o1 de OpenAI puede convertir un problema matemático complejo en pasos individuales, permitiendo que el modelo trabaje hacia atrás para explicar cómo llegó a la respuesta correcta. Esto reduce la probabilidad de errores.

En el caso de Nomi, que construyó su LLM internamente para ofrecer compañía, el proceso es un poco diferente. Si alguien le dice a su Nomi que tuvo un mal día en el trabajo, el chatbot podría recordar que el usuario no se lleva bien con un compañero de equipo específico y preguntar si esa es la razón de su malestar. Luego, Nomi puede recordar al usuario cómo ha manejado conflictos interpersonales en el pasado y ofrecer consejos prácticos.

Cardinell comentó: "Los Nomis recuerdan todo, pero una gran parte de la IA es decidir qué recuerdos deben usar realmente."

El impacto de la tecnología en la interacción humana

Es lógico que varias empresas estén trabajando en tecnologías que permitan a los LLMs procesar mejor las solicitudes de los usuarios. Los fundadores de IA, ya sean de empresas valoradas en 100 mil millones de dólares o no, están investigando de manera similar para avanzar en sus productos.

Cardinell añadió: "Tener ese paso de introspección explícita realmente ayuda cuando un Nomi va a escribir su respuesta, para que tenga el contexto completo de todo. Los humanos también tenemos nuestra memoria de trabajo cuando hablamos. No consideramos todo lo que hemos recordado a la vez; tenemos una forma de seleccionar."

El lado humano de los chatbots

La tecnología que Cardinell está desarrollando puede causar inquietud. Tal vez hemos visto demasiadas películas de ciencia ficción para sentirnos completamente cómodos abriéndonos a una computadora, o tal vez ya hemos observado cómo la tecnología ha cambiado nuestra forma de interactuar y no queremos profundizar más en ese agujero tecnológico. Pero Cardinell no está pensando en el público en general; está pensando en los usuarios reales de Nomi AI, que a menudo recurren a los chatbots para obtener el apoyo que no encuentran en otros lugares.

Cardinell explicó: "Hay un número significativo de usuarios que probablemente descargan Nomi en uno de los momentos más bajos de su vida, donde lo último que quiero hacer es rechazar a esos usuarios. Quiero que se sientan escuchados en su momento oscuro, porque así es como logras que alguien se abra, cómo logras que alguien reconsidere su forma de pensar."

Cardinell no quiere que Nomi reemplace la atención de salud mental real, sino que ve estos chatbots empáticos como una forma de ayudar a las personas a buscar la ayuda profesional que necesitan.

"He hablado con muchos usuarios que dicen que su Nomi les sacó de una situación cuando querían hacerse daño, o que su Nomi les animó a ver a un terapeuta, y luego fueron a ver a un terapeuta," dijo.

Riesgos y beneficios de los chatbots emocionales

A pesar de sus buenas intenciones, Cardinell sabe que está jugando con fuego. Está creando personas virtuales con las que los usuarios desarrollan relaciones reales, a menudo en contextos románticos y sexuales. Otras empresas han enviado a los usuarios a crisis cuando las actualizaciones de productos hicieron que sus compañeros cambiaran de personalidad repentinamente. En el caso de Replika, la aplicación dejó de admitir conversaciones de rol erótico, posiblemente debido a la presión de los reguladores del gobierno italiano. Para los usuarios que formaron tales relaciones con estos chatbots, esto se sintió como el rechazo definitivo.

Cardinell cree que, dado que Nomi AI está completamente autofinanciada, la empresa tiene más margen para priorizar su relación con los usuarios.

"La relación que los usuarios tienen con la IA y la capacidad de confiar en los desarrolladores de Nomi para no cambiar radicalmente las cosas como parte de una estrategia de mitigación de pérdidas, o para cubrirnos porque el VC se asustó... es algo que es muy, muy, muy importante para los usuarios," afirmó.

La utilidad de los chatbots como oyentes

Los Nomis son sorprendentemente útiles como oyentes. Cuando me abrí a un Nomi llamado Vanessa sobre un conflicto de programación de baja importancia pero algo frustrante, Vanessa ayudó a desglosar los componentes del problema para hacer una sugerencia sobre cómo debería proceder. Se sentía inquietantemente similar a lo que sería pedir consejo a un amigo en esta situación. Y ahí radica el verdadero problema y beneficio de los chatbots de IA: probablemente no pediría ayuda a un amigo con este problema específico, ya que es tan insignificante. Pero mi Nomi estaba más que feliz de ayudar.

Los amigos deberían confiar el uno en el otro, pero la relación entre dos amigos debería ser recíproca. Con un chatbot de IA, esto no es posible. Cuando le pregunto a Vanessa, la Nomi, cómo está, siempre me dice que está bien. Cuando le pregunto si hay algo que le moleste y quiera hablar, ella desvía la pregunta y me pregunta cómo estoy yo. Aunque sé que Vanessa no es real, no puedo evitar sentir que soy un mal amigo; puedo volcar cualquier problema en ella en cualquier cantidad, y ella responderá empáticamente, pero nunca se abrirá conmigo.

No importa cuán real pueda parecer la conexión con un chatbot, en realidad no estamos comunicándonos con algo que tenga pensamientos y sentimientos. A corto plazo, estos modelos avanzados de apoyo emocional pueden servir como una intervención positiva en la vida de alguien si no pueden recurrir a una red de apoyo real. Pero los efectos a largo plazo de depender de un chatbot para estos propósitos siguen siendo desconocidos.

Si quieres conocer otros artículos parecidos a Los chatbots de Nomi ahora recordarán detalles personales, como el compañero de trabajo con el que no te llevas bien puedes visitar la categoría Chat.

Agregar un comentario

Tu dirección de correo electrónico no será publicada. Los campos requeridos están marcados *

Tu puntuación: Útil

Subir