Se informa que la herramienta de transcripción de OpenAI agrega contenido alucinado a los informes de consultas médicas

OpenAI lanzó una herramienta de inteligencia artificial (IA) llamada Whisper en 2022, que puede escribir voz en texto. Sin embargo, el informe dice que la herramienta de inteligencia artificial es propensa a recibir comentarios negativos y agrega texto imaginario a los artículos. Esto es preocupante ya que se dice que el dispositivo se utiliza en varias industrias de alto riesgo, como la medicina y el acceso. Se informa que existe cierta preocupación por el uso del dispositivo en las conversaciones entre médico y paciente, donde una visión incorrecta puede agregar información potencialmente dañina y poner en riesgo la vida del paciente.

Según se informa, OpenAI Whisper es propenso a recibir comentarios negativos

Prensa asociada informe que el sistema Whisper de reconocimiento automático de voz (ASR) de OpenAI es altamente capaz de producir texto capturado. Citando entrevistas con varios ingenieros de software, desarrolladores e investigadores académicos, la publicación dijo que el tema incluía referencias a raza, violencia, terapia y medicina.

La ira, en el lenguaje de la IA, es un factor importante que hace que los sistemas de IA generen respuestas incorrectas o engañosas. En el caso de Whisper, se dice que la IA genera texto del que nadie ha hablado nunca.

Un ejemplo confirmado por el texto, la afirmación del hablante: “Éste, muchacho, necesitaría un paraguas, no estoy seguro si llevará un paraguas”. cambió a “Él tomó una gran parte de la cruz, un poco, un poco… En un caso, Whisper supuestamente agregó información racial sin mencionarla.

Aunque la visualización no es un problema nuevo en el campo de la IA, el problema de esta herramienta tiene un impacto más fuerte que cuando la tecnología abierta es utilizada por varias herramientas utilizadas en industrias de alto riesgo. Nabla, con sede en París, por ejemplo, ha desarrollado una aplicación basada en Whisper que, según se informa, utilizan más de 30.000 médicos y 40 sistemas de salud.

La herramienta de Nabla se ha utilizado para documentar más de siete millones de visitas médicas. Para mantener la seguridad de los datos, la empresa también elimina el registro original en sus servidores. Esto significa que si se produce algún texto en estos siete millones de copias, será imposible verificarlo y corregirlo.

Otra área donde se utiliza la tecnología es la creación de herramientas de accesibilidad para personas sordas y con problemas de audición, donde nuevamente, garantizar la corrección de la herramienta es muy difícil. Se dice que la mayor parte de la visión borrosa es causada por ruidos de fondo, pausas repentinas y otros sonidos ambientales.

El contexto también es relevante. Citando al investigador, la publicación afirma que ocho de cada 10 copias escuchadas tenían comentarios negativos. El desarrollador le dijo a la publicación que se produjo una vista incorrecta en “cada una de las 26.000 publicaciones que hizo en Whisper”.

Especialmente, durante el comenzar de Whisper, OpenAI dijo que Whisper proporciona capacidades a nivel humano para acentos, ruido de fondo y lenguaje técnico. Un portavoz de la compañía dijo a la publicación que la firma de inteligencia artificial continúa estudiando formas de reducir la visión y ha prometido incorporar la idea en futuras actualizaciones de modelos.

Fuente