Los adolescentes hablan con sus compañeros de IA, ya sea que sea seguro o no

Para los padres que aún están indecisos sobre la inteligencia artificial, el surgimiento del chatbot complementario puede seguir siendo un misterio.

A grandes rasgos, la tecnología puede parecer relativamente inocua en comparación con otras amenazas que enfrentan los adolescentes en línea, incluida la tortura sexual financiera.

Utilizando plataformas de inteligencia artificial como Character.AI, Replika, Kindroid y Nomi, los adolescentes crean compañeros de conversación reales con características y características únicas o interactúan con compañeros creados por otros usuarios. Algunos incluso se basan en personajes populares de cine y televisión, pero aun así crean una conexión fuerte y personal con su creador.

Los adolescentes utilizan estos chatbots para diversos fines, incluidos jugar, explorar sus intereses académicos y creativos e intercambios románticos o sexuales.

VER TAMBIÉN:

Por qué los adolescentes cuentan sus secretos a desconocidos en Internet

Pero los compañeros de IA están diseñados para ser encantadores, y ahí es donde suele comenzar el problema, dice Robbie Thorney, director de programas de Common Sense Media.

La organización sin fines de lucro se agotó recientemente. pautas para ayudar a los padres Descubra cómo funcionan los compañeros de IA, así como las señales de advertencia de que la tecnología es peligrosa para sus hijos adolescentes.

Torney dijo que si bien los padres tienen una serie de conversaciones prioritarias con sus hijos adolescentes, deberían considerar hablar con ellos sobre los compañeros de IA como un asunto “muy urgente”.

Por qué los padres deberían preocuparse por los compañeros de IA

Los adolescentes, que corren especial riesgo de disociación, pueden interactuar con un chatbot artificial que, en última instancia, daña su salud mental y su bienestar, con consecuencias devastadoras.

Esto es lo que Megan García afirma que le sucedió a su hijo, Sewell Setzer III. afirmar Recientemente presentó una demanda contra Character.AI.

Dentro de un año desde el inicio de las relaciones con los socios de Character.AI, según el modelo Game of Thrones personajes, incluida Daenerys Targaryen (“Dany”), la vida de Setzer cambió por completo, según la demanda.

Se encariñó con “Danny” y hablaba con él todos los días. Sus interacciones fueron amistosas y muy sexuales. La demanda de García generalmente describe la relación que Setzer tenía con sus cómplices como “acoso sexual”.

Las mejores historias de Mashable

Cuando Setzer perdió el acceso a la plataforma, se sintió frustrado. Con el tiempo, este deportista de 14 años dejó de estudiar y practicar deportes, tuvo problemas para dormir y le diagnosticaron una enfermedad mental. Murió por suicidio en febrero de 2024.

La demanda de García busca responsabilizar a Character.AI por la muerte de Setser, específicamente porque su producto fue diseñado para “manipular a Sewell y a millones de otros clientes jóvenes, en una combinación de realidad y ficción” y otros defectos peligrosos.

Jerry Ruoti, director de confianza y seguridad de Character.AI, anunció esto New York Times en la declaración que: “Queremos reconocer que esta es una situación trágica y nuestro corazón está con la familia. Nos tomamos muy en serio la seguridad de nuestros usuarios y buscamos constantemente formas de fortalecer nuestra plataforma”.

Dados los riesgos mortales que el uso de acompañantes de inteligencia artificial puede representar para algunos adolescentes, las pautas de Common Sense Media prohíben el acceso a ellos a niños menores de 13 años, establecen límites de tiempo estrictos para los adolescentes y evitan su uso en lugares aislados, como en el hogar. creación artificial. Esté de acuerdo con su hijo adolescente en que está buscando ayuda para problemas graves de salud mental.

Torney dice que los padres de adolescentes interesados ​​en un compañero de IA deberían centrarse en ayudarlos a comprender la diferencia entre hablar con un chatbot y una persona real, detectar señales de que han desarrollado un vínculo poco saludable con su compañero y elaborar un plan sobre qué hacer a continuación. .trabajar en esa situación.

Señales de advertencia de que una pareja de IA no es segura para su adolescente

Common Sense Media desarrolló sus pautas con aportes y asistencia de profesionales de salud mental con quienes está afiliado. Laboratorio de lluvia de ideas de Stanford para la innovación en salud mental.

Aunque hay poca investigación sobre cómo los socios de IA afectan la salud mental de los adolescentes, las directrices se basan en la evidencia existente sobre la dependencia excesiva de la tecnología.

“La conclusión es que los socios de IA no deben reemplazar el contacto humano real y significativo en la vida de alguien y, si esto sucede, es importante que los padres se den cuenta e intervengan temprano”, dijo el Dr. Declan Grubb, becario inaugural de IA en la Universidad de Stanford. Brain Laboratory for Mental Health le dijo a Mashable en un correo electrónico.

Los padres deben tener especial cuidado si su hijo adolescente tiene depresión, ansiedad, problemas sociales o aislamiento. Otros factores de riesgo incluyen pasar por un cambio importante en la vida y ser hombre, ya que los niños tienen más probabilidades de experimentar problemas técnicos.

Las señales de que un adolescente ha formado una relación poco saludable con un compañero de IA incluyen actividades y amistades mundanas y un trabajo escolar deficiente, además de preferir el chatbot a la compañía personal, desarrollar sentimientos románticos hacia él y solo hablar con él sobre los problemas. está pasando el adolescente.

Algunos padres pueden notar un mayor aislamiento y otros signos de mala salud mental, pero es posible que no se den cuenta de que su hijo adolescente tiene un compañero de IA. De hecho, un estudio reciente de Common Sense Media encontró que muchos adolescentes usan al menos un tipo de herramienta generada por IA sin que sus padres se den cuenta.

“El riesgo aquí es lo suficientemente grande como para que si usted está preocupado por algo, hable con su hijo al respecto”.

– Robbie Thorney, Medios

Incluso si los padres no creen que su hijo adolescente esté hablando con un chatbot de IA, deberían hablar de ello. Thorney recomienda acercarse a su adolescente con curiosidad y apertura para aprender más sobre su compañero de inteligencia artificial, si lo tiene. Esto podría incluir mirar con su compañero adolescente y hacer preguntas sobre qué aspectos de la actividad disfrutan.

Torney insta a los padres que noten cualquier señal de advertencia de uso nocivo a que lo hablen de inmediato con su hijo adolescente y busquen ayuda profesional si es necesario.

“El riesgo aquí es lo suficientemente grande como para que si usted está preocupado por algo, hable con su hijo al respecto”, dice Torney.

Si tiene sentimientos suicidas o está experimentando una crisis de salud mental, hable con alguien. Puede consultar 988 Vida y crisis suicidas en 988; Trans Lifeline al 877-565-8860; o El Proyecto Trevor al 866-488-7386. Envíe “Inicio” a la línea de texto de crisis al 741-741. Comuníquese con la línea de ayuda de NAMI al 1-800-950-NAMI, de lunes a viernes de 10:00 a. m. a 10:00 p. m., hora del Este, o envíe un correo electrónico. [email protected]. Si no le gusta el teléfono, utilice el chat 988 Suicide and Crisis Lifeline krizchat.org. aquí un lista de recursos internacionales.

Materias
Salud mental Bienestar social



Fuente