Este estado permite a AI decidir sobre sus propias solicitudes de desempleo

Nevada se convertirá en el primer estado en probar un sistema generado por inteligencia artificial diseñado para tomar decisiones sobre solicitudes de desempleo, comercializado como una forma de acelerar las apelaciones y eliminar la gran acumulación de casos atrasados ​​en el país. Este es un experimento arriesgado y primerizo en la integración de la IA en la toma de decisiones de alto nivel.

Google está detrás de la tecnología de la aplicación, que ejecuta una transcripción de las audiencias de solicitudes de desempleo a través de los servidores de inteligencia artificial de Google y analiza los datos para proporcionar decisiones sobre reclamaciones y recomendaciones de beneficios a “jueces humanos”. Gizmodo informó. La Junta Examinadora de Nevada aprobó el contrato en nombre de su Departamento de Empleo, Capacitación y Rehabilitación (DETR) en julio, a pesar de aún más ampliamente legal y política contra la integración de la IA en la burocracia.

VER TAMBIÉN:

Facebook ha marcado y eliminado información sobre incendios forestales como “spam”.

Christopher Sewell, director de DETR, dijo Gizmodo que la gente todavía está seriamente comprometida en la toma de decisiones sobre el desempleo. “No hay IA [written decisions] que salen sin tratar con la gente y sin considerar a la gente. Podemos tomar decisiones más rápido, lo que realmente ayuda al reclamante”, dijo Sewell.

La velocidad de la luz triturable

Pero los grupos legales y los científicos de Nevada argumentan que el tiempo ahorrado por el gen de la IA quedará anulado por el tiempo dedicado a una revisión humana exhaustiva de la decisión de la demanda. Muchos también expresaron su preocupación sobre la posibilidad de que se filtre información personal y privada (incluida información fiscal y números de seguridad social) a través del estudio Vertex AI de Google, incluso con medidas de seguridad implementadas. Algunos se muestran escépticos sobre el tipo de IA en sí, conocida como inteligencia artificial (RAG), que se sabe que da respuestas incompletas o engañosas a las instrucciones.


En todo el país, se han implementado o probado silenciosamente herramientas basadas en IA en varias agencias de servicios sociales, y el gen de la IA se está integrando aún más en el ecosistema administrativo. En febrero, los Centros de Servicios de Medicare y Medicaid (CMS) federales prohibieron el uso de la IA (incluida la IA o los algoritmos generativos) para tomar decisiones a la hora de determinar la atención o la cobertura del paciente. Sigue una demanda de dos pacientes que alegaron que su proveedor de seguros utilizó un modelo de IA “fraudulento” y “dañino” (conocido como nH Predict) que anuló las recomendaciones de los médicos.

Axon, un fabricante de tecnología y armas policiales, dio a conocer su primer proyecto, un modelo generativo de lenguaje (LLM) a gran escala que ayuda a las agencias policiales a escribir informes “mejores y más rápidos”, a principios de este año. Aún en período experimental, la tecnología ya tiene Dieron la alarmalo que genera preocupaciones sobre la capacidad de la IA para analizar los matices de las intensas interacciones policiales y, potencialmente, una falta de transparencia en la actuación policial.



Fuente