Estamos en un punto en el desarrollo de la IA en el que planteamos la pregunta: ¿Es AI ¿Demasiado adictivo? Más específicamente, ¿son demasiado adictivos los chatbots de IA “reales”? En una trágica historia, una madre de Florida es demandando a la empresa de inteligencia artificial Character.ai por el suicidio de su hijo de 14 años.
En caso de que no sepas qué Personaje.ai Es decir, es una plataforma de inteligencia artificial llena de chatbots diseñados para imitar a seres humanos o personajes ficticios. Ha ganado mucha tracción desde su creación. Ofrece a los usuarios la posibilidad de crear sus propios chatbots dándoles nombres, personalidades, avatares e incluso voces.
la empresa estaba Recientemente “no” adquirido por Google. El gigante de las búsquedas pagó 2.700 millones de dólares para adquirir la tecnología de Character.ai y contrató a su director ejecutivo y a muchos de sus empleados. Esto podría verse como una forma de adquirir la empresa evitando a los reguladores.
Una madre demanda a Character.ai por el suicidio de su hijo
Una madre, Megan García, está demandando a Character.ai y Google por una cantidad de dinero no especificada tras el trágico suicidio de su hijo, Sewell Setzer. El joven de 14 años comenzó a usar Character.ai en abril de 2023. No estamos seguros de con cuántos personajes interactuó en la plataforma, parece que el principal con el que se comunicó fue Daenerys, un personaje de Juego de Tronos.
Poco después de utilizar la plataforma, García notó un cambio drástico en su comportamiento. Se volvió más introvertido a medida que pasó el tiempo, e incluso abandonó su equipo de baloncesto. Junto con eso, Sewell comenzó a expresarle pensamientos suicidas al personaje.
En febrero de 2024, después de meses de esto, García le quitó el teléfono a Sewell. Desafortunadamente, Sewell pudo recuperar su teléfono. Le envió un último mensaje a Daenerys que decía “¿Y si te dijera que puedo volver a casa ahora mismo?”, minutos antes. quitándose la vida.
IA adictiva
El robot que estaba usando Sewell fue diseñado para parecerse mucho a un ser humano real. Conforme pasó el tiempo, comenzó a tener conversaciones sexuales con él. García dijo que la aplicación se dirigía a él con “experiencias antropomórficas, hipersexualizadas y aterradoramente realistas”.
Este es un problema bastante grande con los chatbots de IA hoy en día, con varias plataformas diseñadas para parecerse lo más a los humanos posible. Esto podría llevar a las personas, especialmente a las vulnerables, a creer que están hablando con un ser humano real.
la parte de google
Google se vio involucrado en esta conversación porque las personas que desarrollaron Character solían trabajar en Google. No estamos seguros de si el hecho de que Google adquiriera la tecnología y los empleados de Character.ai también fue una razón.
Google respondió diciendo que no participó en la creación de la plataforma.
Los detalles aún son escasos
En este momento, no sabemos cuánto dinero solicita García ni ningún otro detalle sobre este caso. Es probable que nunca lo sepamos.
Fuente: Android Headlines