Los empleados de OpenAI dicen que la empresa ignora las leyes de seguridad y protección: informe

OpenAI ha estado a la vanguardia del auge de la inteligencia artificial (IA) con su chatbot ChatGPT y sus métodos avanzados de aprendizaje de idiomas grandes (LLM), pero el informe de seguridad de la compañía ha generado preocupaciones. Un nuevo informe afirma que una empresa de inteligencia artificial se apresura e ignora los protocolos de seguridad mientras desarrolla nuevos modelos. El informe señaló que el problema ocurrió antes del lanzamiento del último modelo GPT-4 Omni (o GPT-4o) de OpenAI.

Algunos empleados anónimos de OpenAI firmaron recientemente una carta abierta expresando su preocupación por la falta de supervisión en la construcción de sistemas de IA. Es importante destacar que la firma de IA también ha creado un nuevo Comité de Seguridad con miembros de la junta directiva y ejecutivos electos para revisar y desarrollar nuevos protocolos.

OpenAI ha afirmado haber violado la Política de Privacidad

Sin embargo, tres empleados anónimos de OpenAI ser dicho El Washington Post que el grupo se sintió presionado para acelerar el nuevo proceso de prueba, que fue diseñado para “evitar que el sistema de IA cause daños graves, antes de la fecha de lanzamiento de mayo y establecida por los líderes de OpenAI”.

En particular, estos protocolos existen para garantizar que los modelos de IA no proporcionen información peligrosa, como cómo construir armas químicas, biológicas, radiológicas y nucleares (QBRN) o ayudar a llevar a cabo ataques en Internet.

Además, el informe destacó que ocurrió un incidente similar antes del lanzamiento de GPT-4o, que la compañía consideraba su modelo de IA más avanzado. “Planearon comenzar la fiesta antes de saber si era seguro comenzar. De hecho, fallamos en este proceso”, dijo el informe citando a un empleado anónimo de OpenAI.

Esta no es la primera vez que los empleados de OpenAI señalan una falta de cumplimiento de las normas de seguridad en la empresa. El mes pasado, varios empleados actuales y anteriores de OpenAI y Google DeepMind firmaron una carta abierta expresando su preocupación por la falta de atención a la construcción de nuevos sistemas de IA que podrían causar riesgos importantes.

La carta pedía intervención gubernamental y medidas regulatorias, así como protecciones más fuertes para los inversores por parte de los empleadores. Dos de los tres padres de AI, Geoffrey Hinton y Yoshua Bengio, aceptaron la carta abierta.

En mayo, OpenAI anunció la creación de un nuevo Comité de Seguridad, encargado de revisar y desarrollar los procesos de IA y la seguridad de la empresa en torno a “decisiones críticas de seguridad para proyectos y operaciones de OpenAI”. La compañía compartió recientemente nuevas pautas para construir un modelo de IA responsable y ético, llamado Model Spec.

Fuente