OpenAI: ¿Puede su nuevo modelo o1 realmente corregir el sesgo?

hace 2 meses · Actualizado hace 2 meses

En medio de una semana llena de titulares sobre salidas importantes en OpenAI, los comentarios de Anna Makanju, vicep

En medio de una semana llena de titulares sobre salidas importantes en OpenAI, los comentarios de Anna Makanju, vicepresidenta de asuntos globales de la compañía, han captado la atención de muchos por sus afirmaciones sobre la corrección de sesgos en la inteligencia artificial (IA). Durante su intervención en un panel en el evento Cumbre del Futuro de la ONU, Makanju elogió el potencial de los modelos basados en "razonamiento" de OpenAI, como el modelo o1, para reducir significativamente el sesgo en la IA.

¿Virtuosismo o exageración?

Según Makanju, el modelo o1 puede autoevaluar sus respuestas, identificar sesgos y adherirse más estrictamente a las normas que le impiden dar respuestas dañinas. "Estos modelos tardan más y son capaces de evaluar sus propias respuestas, analizar cómo abordan los problemas y corregir cualquier fallo en su razonamiento," explicó Makanju. Además, afirmó que el o1 realiza este proceso "prácticamente a la perfección."

¿Qué dice la evidencia?

Las pruebas internas de OpenAI muestran que el o1 es, en promedio, menos propenso a generar respuestas tóxicas, sesgadas o discriminatorias en comparación con otros modelos "sin razonamiento". Sin embargo, describir su rendimiento como "prácticamente perfecto" podría ser exagerado.

En una prueba de sesgo de OpenAI que incluyó preguntas delicadas relacionadas con raza, género y edad, el modelo o1 mostró un rendimiento mixto. Aunque era menos probable que discriminara implícitamente en función de la raza, la edad y el género, mostró una mayor tendencia a la discriminación explícita por edad y raza en comparación con el modelo insignia de OpenAI, GPT-4o.

El rendimiento de variantes más económicas

Aún más preocupante es el rendimiento de la versión más económica y eficiente del modelo, el o1-mini. Las pruebas revelaron que o1-mini tenía más probabilidades de discriminar explícitamente por género, raza y edad, y también era más propenso a la discriminación implícita por edad.

Desafíos adicionales de los modelos de razonamiento

Además de los problemas de sesgo, los modelos de razonamiento como o1 presentan otras limitaciones significativas. OpenAI admite que el o1 ofrece beneficios insignificantes en algunas tareas, es lento (tomando más de 10 segundos para responder algunas preguntas) y costoso, con un precio entre tres y cuatro veces mayor que el de GPT-4o.

Un camino hacia la IA imparcial

Si bien Makanju está convencida de que los modelos de razonamiento son la clave para una IA imparcial, es evidente que estos modelos necesitan mejoras más allá del ámbito del sesgo para ser una opción viable. Si no se abordan estos problemas, solo los clientes con grandes recursos financieros estarán dispuestos a soportar sus diversas limitaciones de latencia y rendimiento.

En definitiva, aunque los avances de OpenAI en la corrección de sesgos son prometedores, aún queda un largo camino por recorrer. La comunidad tecnológica seguirá de cerca estos desarrollos mientras evalúa si realmente estamos en el umbral de una IA más justa y equitativa.

Si quieres conocer otros artículos parecidos a OpenAI: ¿Puede su nuevo modelo o1 realmente corregir el sesgo? puedes visitar la categoría Noticias.

Agregar un comentario

Tu dirección de correo electrónico no será publicada. Los campos requeridos están marcados *

Tu puntuación: Útil

Subir