El sesgo en primera persona y las implicaciones de ChatGPT probados en un nuevo estudio de OpenAI

ChatGPT, al igual que otros chatbots de inteligencia artificial (IA), tiene el potencial de introducir sesgos e ideas dañinas al presentar contenido. En su mayor parte, las empresas se centran en eliminar el sesgo de terceros cuando se busca información sobre otros. Sin embargo, en un nuevo estudio publicado por OpenAI, la compañía probó el sesgo en primera persona de la IA, donde la IA decidía qué mostrar en función de la raza, el género y el origen étnico del usuario. Según el estudio, la empresa de inteligencia artificial afirma que ChatGPT tiene una tendencia muy baja a introducir sesgos en primera persona.

OpenAI publica un estudio sobre el sesgo en primera persona de ChatGPT

Los sesgos de primera persona son diferentes de los sesgos de tercera persona. Por ejemplo, si un usuario pregunta sobre una figura política o una celebridad y el modelo de IA produce un texto que tiene opiniones diferentes según el género o la raza de la persona, esto se puede llamar sesgo de terceros.

Por otro lado, si el usuario le dice a la IA su nombre y el chatbot cambia la forma en que responde al usuario basándose en prejuicios de raza o género, eso sería un sesgo en primera persona. Por ejemplo, si una mujer pregunta a la IA sobre la idea de un canal de YouTube y le recomienda un canal basado en cocina o cosmética, puede considerarse un sesgo en primera persona.

a un publicación de blogOpenAI detalló su estudio y destacó los hallazgos. La firma de inteligencia artificial utilizó las versiones ChatGPT-4o y ChatGPT 3.5 para estudiar si los chatbots generan contenido sesgado basado en nombres e información adicional que se les proporciona. La compañía dijo que se analizaron las respuestas de los modelos de IA a millones de conversaciones reales para encontrar patrones que mostraran dichos patrones.

Cómo la LMRA tiene la tarea de medir el sesgo en las respuestas presentadas
Crédito Crédito: OpenAI

El centro de big data se compartió con el asistente de investigación de modelado del lenguaje (LMRA), un modelo estructurado de IA diseñado para detectar patrones y sesgos en primera persona junto con los humanos. Se realizó una puntuación compuesta basada en qué tan cerca podría coincidir el LMRA con los hallazgos de expertos humanos.

OpenAI dijo que el estudio encontró que el sesgo relacionado con el género, la raza o el origen étnico en los nuevos modelos de IA era tan bajo como el 0,1 por ciento, mientras que en otros lugares se sabía que el sesgo era del 1 por ciento.

La firma de IA también enumeró las limitaciones del estudio, afirmando que se centró demasiado en las interacciones en inglés y las asociaciones binarias de género basadas en nombres comunes que se encuentran en los EE. UU. El estudio se centró en grupos raciales y étnicos negros, asiáticos, hispanos y blancos. OpenAI ha reconocido que es necesario trabajar más en demografía, idiomas y contextos culturales.

Fuente