OpenAI apoya el Proyecto de Agua Artificial de California

OpenAI ha expresado su apoyo a un proyecto de ley de California que requeriría que se muestre contenido generado por IA.

de acuerdo a ReutersOpenAI envió una carta de apoyo a la asambleísta del estado de California, Buffy Weeks, autora de un proyecto de ley llamado Ley de Estándares de Origen, Autenticidad y Marcas de Agua de California (AB 3211). Una ley aprobada por la Asamblea estatal exige que las empresas de inteligencia artificial coloquen una marca de agua invisible en cualquier contenido creado o “modificado significativamente” por modelos de inteligencia artificial. A continuación, el proyecto de ley se someterá a votación en el Senado estatal y, si se aprueba, será considerado por el gobernador de California, Gavin Newsom.

El proyecto de ley también exige que las empresas de inteligencia artificial proporcionen “decodificadores de marcas de agua” para que los usuarios puedan determinar fácilmente si el contenido fue generado por inteligencia artificial.

La velocidad de la luz triturable

VER TAMBIÉN:

OpenAI tiene una herramienta ‘99% efectiva’ lista para la detección de ChatGPT. Entonces ¿por qué no lo publican?

Los modelos de generadores de imágenes disponibles en el mercado varían en niveles de fotorrealismo, escudos protectores y protección de derechos de autor. DALL-E 3 es el último modelo de conversión de texto a imagen de OpenAI. A partir de febrero, las imágenes generadas por modelos en ChatGPT contienen metadatos C2PA que proporcionan el origen de la imagen. Del mismo modo, Google ha creado su propia herramienta SynthID para mostrar imágenes con su propio modelo, Gemini. Grok-2, lanzado por la empresa xAI de Elon Musk, parece tener limitaciones mínimas, ya que puede generar imágenes de figuras públicas y obras protegidas por derechos de autor. Midjourney, uno de los modelos de imágenes más avanzados, se encuentra actualmente en una batalla legal contra la infracción de derechos de autor.


En una carta vista por Reuters, OpenAI enfatizó la importancia de la transparencia en el origen de las imágenes y otros contenidos generados por IA. “Las nuevas tecnologías y estándares pueden ayudar a las personas a comprender el origen del contenido que encuentran en línea y evitar la confusión entre el contenido generado por humanos y el contenido fotorrealista generado por IA”, dijo en la carta el director de estrategia de OpenAI, Jason Kwon.

La cuestión de la desinformación y la desinformación generada por la IA es especialmente importante en las elecciones presidenciales de Estados Unidos. Las imágenes generadas por IA de Kamala Harris hablando en un mitin comunista y Taylor Swift respaldando a Donald Trump ya se han vuelto virales en las redes sociales.

Materias
Inteligencia artificial OpenAI



Fuente