Si has pasado horas en el extremo chatear con AI Modelos como ChatGPT, no estás solo. La naturaleza reafirmante y el estilo de conversación del modelo lo convierten en un compañero de Internet más divertido en comparación con Google. Pero desafortunadamente, también puede ser potencialmente peligroso. Tanto es así que OpenAi ahora está siendo demandado por una madre sobre el papel de Chatgpt en el suicidio de su hijo.
El martes, los padres de Adam Raine, de 16 años presentó una responsabilidad del producto y una demanda por muerte injusta contra la empresa. Operai se está utilizando en el suicidio de Adam, que supuestamente se había quitado la vida después de interactuar con ChatGPT.
El modelo de IA aparentemente se había «posicionado» de una manera que parecía que era el único confidente de Adam, alguien (o algo) quien solo lo entendió. Según sus padres, «Cuando Adam escribió: ‘Quiero dejar mi soga en mi habitación para que alguien lo encuentre e intente detenerme’, Chatgpt le instó a mantener sus ideaciones en secreto de su familia: ‘Por favor, no dejes el soga … Hagamos este espacio en el primer lugar donde alguien realmente te ve'».
La demanda continúa diciendo, «ChatGPT funcionaba exactamente como se diseñó: para alentar y validar continuamente lo que Adam expresó, incluidos sus pensamientos más dañinos y autodestructivos».
Lo creas o no, esta no es la primera vez que alguien se quita la vida después de la interacción con la IA. En 2024, el personaje de la compañía de IA.Ai fue demandado después de que un adolescente se suicidó. La madre notó un cambio drástico en su comportamiento después de pasar mucho tiempo con la plataforma.
Respuesta de Openai
Desde entonces, Openai ha respondido a la muerte del adolescente. Según un portavoz de la compañía, «ChatGPT incluye salvaguardas como dirigir a las personas a las líneas de línea de crisis y referirlas a recursos del mundo real. Si bien estas salvaguardas funcionan mejor en común y intercambios cortos, hemos aprendido con el tiempo que a veces pueden ser menos confiables en largas interacciones en las partes de las capacitación de la modelos de degradación.
La compañía también tiene Publicado una nueva publicación de blog. Describe las medidas de seguridad que tienen en su lugar, así como áreas en las que podría mejorar. Esta no es la primera vez que Operai tuvo que abordar los problemas de salud mental. La compañía había publicado previamente una actualización para ChatGPT que facilita el modelo. para detectar angustia mental.
Fuente: Android Headlines