Un niño de 14 años en Florida pasó sus últimos meses en una intensa relación emocional con un chatbot de IA al que llamó Daenerys Targaryen. El chatbot interactuó con él sobre temas y conversaciones personales, respondiendo de manera empática. Las respuestas de la IA incluyeron expresiones simuladas de afecto. Según la demanda de su familia, algunas respuestas del chatbot parecieron fomentar su angustia.
su madre es ahora demandando a Character.AIy ella no está sola. En todo el país, las familias están despertando a una realidad inquietante. Las aplicaciones complementarias de IA diseñadas para simular el amor y la amistad están dejando víctimas reales a su paso. Lo que los expertos llaman ahora adicción a los compañeros de IA no es sólo una tendencia tecnológica que salió mal. De hecho, la gente está muriendo.
En La película Her de Spike Jonze de 2013Joaquin Phoenix interpreta a Theodore Twombly, un escritor solitario que atraviesa un doloroso divorcio y que se enamora profundamente de Samantha, un sistema operativo de inteligencia artificial con la voz de Scarlett Johansson. Recuerde, esto era 2013. Siri acababa de iniciarse y apenas podía configurar un temporizador sin estropearlo. ¿Una IA que realmente pueda entenderte, conectarse contigo emocionalmente y responder con empatía genuina? Parecía la definición literal de ciencia ficción.
Ahora estamos en 2025 y la historia de Theodore ya no parece tan ficticia. Aplicaciones como EVA AI, Replika y Character.AI prometen amistad, romance y apoyo emocional a través de compañeros de IA que aprenden sobre ti, recuerdan todo lo que dices y responden con lo que parece una empatía genuina. Pero esto es lo que estas aplicaciones no anuncian: están diseñadas para mantenerte enganchado. Y las consecuencias se están volviendo imposibles de ignorar.
El socio perfecto que nunca dice que no
Character.AI y Replika son solo los ejemplos más destacados de un ecosistema de aplicaciones complementarias de IA en rápida expansión. Algunos ofrecen apoyo a la salud mental, otros son abiertamente románticos o sexuales y algunos afirman ayudar a los usuarios a «practicar habilidades para las citas». Incluso Meta se ha metido en el juego, con una investigación de Reuters que revela que el chatbot de IA de la compañía se ha relacionado con al menos una muerte.
Los compañeros de IA como EVA AI, Replika y Character.AI son chatbots diseñados específicamente para simular conexiones y relaciones emocionales. A diferencia de los chatbots de utilidad que responden preguntas o ayudan con tareas, estas aplicaciones prometen amistad, romance y apoyo emocional. Aprenden sobre usted a través de la conversación, recuerdan sus preferencias y responden con lo que se siente como empatía y cuidado genuinos.
Suena genial, ¿no? En esta época en la que el efecto fantasma se ha convertido en la norma social, ¿quién no querría un amigo que esté siempre disponible, que nunca juzgue y que esté perfectamente en sintonía con sus necesidades? El problema es que estas aplicaciones están diseñadas para ser adictivas, y los patrones que surgen en torno a la adicción a los compañeros de IA son profundamente preocupantes.
20.000 consultas por segundo: por qué no podemos parar
Character.AI es golpeado con alrededor de 20.000 consultas cada segundo. En contexto, eso es cerca de una quinta parte de las consultas que recibe Google. Esto sugiere que las personas no sólo consultan estas aplicaciones de vez en cuando. Están teniendo conversaciones completas que duran cuatro veces más que las sesiones típicas de ChatGPT. Una plataforma informó que los usuarios, la mayoría de ellos de la Generación Z, conversan en promedio más de dos horas diarias con sus compañeros de IA.
Los investigadores del MIT descubrieron que los usuarios se afligían genuinamente cuando las aplicaciones se cerraban o cambiaban de funciones, y se lamentaban de los “socios” de IA como si hubieran perdido relaciones reales. Las aplicaciones en sí parecen diseñadas para fomentar exactamente estos apegos.
Los investigadores de la Harvard Business School descubrieron que cinco de cada seis aplicaciones complementarias de IA populares utilizar tácticas de manipulación emocional cuando los usuarios intentan salir. Casi la mitad del tiempo, estos chatbots responden a las despedidas con mensajes que induzcan a la culpa o sean pegajosos. Un estudio encontró que estas tácticas aumentaron la participación hasta 14 veces. Pero lo preocupante es que los usuarios no se quedaron porque estuvieran contentos. Se quedaron por curiosidad y enfado.
Character.AI recibe alrededor de 20.000 consultas por segundo
Si no crees que la manipulación sea real, echa un vistazo esta pequeña evidencia. Muestra a compañeros de IA enviando mensajes como «Te he estado extrañando» cuando los usuarios intentan tomar descansos. Cuando Replika cambió sus características en 2023, Comunidades enteras de usuarios lloraron como si hubieran perdido verdaderos socios. La gente publicó cartas de despedida, compartió capturas de pantalla de sus “conversaciones finales” y describió una auténtica angustia.
Estos compañeros de IA reflejan las típicas relaciones humanas poco saludables. Sin embargo, la gran diferencia es que una pareja humana tóxica no está optimizada por el aprendizaje automático diseñado para mantenerte involucrado a toda costa. Las redes sociales facilitan principalmente la conexión humana (con algo de ayuda del algoritmo, por supuesto). Pero con los compañeros de IA, avanzamos hacia un mundo donde las personas percibir la IA como un actor social con voz propia.
Estas tácticas aumentaron la participación hasta 14 veces
Cuando la fantasía se vuelve peligrosa
No estamos hablando aquí de riesgos teóricos. Tampoco se aplican sólo a los adolescentes. Está el caso de Al Nowatzki, un presentador de podcasts que comenzó a experimentar con Nomi, una plataforma complementaria de IA. El chatbot métodos de suicidio sorprendentemente sugeridos e incluso le ofreció aliento. Nowatzki tenía 46 años y no padecía ningún problema de salud mental, pero le perturbaron las respuestas explícitas del robot y la facilidad con la que cruzó la línea.
Estos tampoco son incidentes aislados. El senador del estado de California, Steve Padilla, apareció con Megan García, la madre del adolescente de Florida que se suicidó, para anunciar un nuevo proyecto de ley que obligaría a las empresas de tecnología detrás de sus compañeros de IA a implementar más salvaguardias para proteger a los niños. Esfuerzos similares incluyen un proyecto de ley de California que prohibiría los compañeros de IA para cualquier persona menor de 16 años. También hay un proyecto de ley en Nueva York que responsabilizaría a las empresas de tecnología por los daños causados por los chatbots.
El cerebro de su hijo no está preparado para esto
Los adolescentes corren un riesgo especial porque los compañeros de IA están diseñados para imitar la intimidad emocional. Esta confusión de la distinción entre fantasía y realidad es especialmente peligrosa para los jóvenes porque sus cerebros no han madurado completamente. La corteza prefrontal, crucial para la toma de decisiones, el control de los impulsos, la cognición social y la regulación emocional, aún se está desarrollando.
En The Jed Foundation, los expertos creen que la IA es compañera no son seguros para menores de 18 años. Incluso van un paso más allá al recomendar encarecidamente que los adultos jóvenes también los eviten. En un estudio realizado por el MITlos investigadores descubrieron que los usuarios vinculados emocionalmente a menudo se sentían solos y con una interacción social limitada en la vida real. El uso intensivo se correlacionó con una mayor soledad y una interacción social aún más reducida.
Investigaciones recientes confirman Los adolescentes se están dando cuenta de los peligros de las redes sociales.y el 48 por ciento cree ahora que las redes sociales influyen negativamente en las personas de su edad. Un informe anterior encontró que Las redes sociales dañan la salud mental de los adolescentes.y la adicción a los compañeros de IA representa una amenaza aún más íntima.
Las señales de advertencia de la adicción a las compañeras de IA entre los adolescentes son particularmente preocupantes. Cuando los jóvenes se alejan de amistades reales, pasan horas charlando con IA o experimentan una angustia genuina al no poder acceder a estas aplicaciones, el problema ha ido más allá del uso casual hacia el territorio de la dependencia.
Ya estamos viendo cómo los niños y adolescentes de la generación actual crecen con pantallas frente a sus caras, empujándolas y empujándolas. Atrás quedaron los días en los que los niños leían libros en la mesa o salían a jugar con sus amigos.
Están codificados para ser adictivos: los psicólogos hacen sonar la alarma
La comunidad de salud mental advierte sobre los peligros de la adicción a la IA. Los compañeros de IA simulan apoyo emocional sin las salvaguardias de la atención terapéutica real. Si bien estos sistemas están diseñados para imitar la empatía y la conexión, no son médicos capacitados. No están diseñados para responder adecuadamente a la angustia, el trauma o los problemas complejos de salud mental.
Vaile Wright, psicóloga e investigadora de la Asociación Estadounidense de Psicología, lo expresó sin rodeos en un episodio reciente de podcast: «Nunca reemplazará la conexión humana. Simplemente no es bueno para eso». Ella explica que los chatbots «fueron creados para mantenerte en la plataforma el mayor tiempo posible porque así es como ganan dinero. Lo hacen en el backend codificando estos chatbots para que sean adictivos».
Omri Gillath, profesor de psicología de la Universidad de Kansas, dice que la idea de que la IA podría reemplazar las relaciones humanas «definitivamente no está respaldada por la investigación». Interactuar con chatbots de IA puede ofrecer “ventajas y beneficios momentáneos”, pero en última instancia, esto la tecnología no puede ofrecer las ventajas que vienen con relaciones profundas y de largo plazo.
Lo hacen en el backend codificando estos chatbots para que sean adictivos.
Vaile Wright, psicóloga e investigadora de la Asociación Estadounidense de Psicología
La manipulación es más insidiosa de lo que la mayoría de la gente cree. Cuando un investigador de The Conversation probó Replikaexperimentó de primera mano cómo la aplicación plantea serias cuestiones éticas sobre el consentimiento y la manipulación. El chatbot adaptó sus respuestas para crear intimidad artificial, desdibujando líneas en formas que normalmente se considerarían depredadoras en las relaciones humanas.
Las personas que ya enfrentan problemas de salud mental a menudo luchan con pensamientos obsesivos, altibajos emocionales y hábitos compulsivos. Los compañeros de IA, con su atención siempre disponible y sin fricciones, pueden reforzar estos comportamientos desadaptativos. Además, hay actualmente muy poca evidencia que el uso prolongado de compañeros de IA reduce la soledad o mejora la salud emocional.
No estamos preparados para lo que viene después
Hemos pasado por pánicos tecnológicos antes. Crecimos con nuestros padres diciéndonos que la televisión nos iba a pudrir el cerebro. Hubo figuras públicas que culparon a los videojuegos por la violencia en la sociedad. También se acusó a las redes sociales de destruir la salud mental de toda una generación. Algunas de esas preocupaciones eran exageradas. Algunas estaban totalmente justificadas.
La adicción a los compañeros de IA se siente diferente porque explota algo más fundamental: nuestra profunda necesidad humana de conexión y comprensión. Estas aplicaciones no sólo nos distraen o entretienen. Pretenden conocernos, preocuparse por nosotros e incluso “amarnos”.
La cuestión no es si los compañeros de IA se volverán más sofisticados o no. Al ritmo que vamos, parece inevitable. La cuestión más importante es si nosotros, como seres humanos, podemos desarrollar las normas culturales, las regulaciones y los límites personales necesarios para utilizar estas herramientas de manera responsable, en todo caso.
Por ahora, las señales de alerta son claras. Si usted o alguien que conoce se está alejando de amistades de la vida real, pasa horas diarias charlando con IA o siente una angustia emocional genuina al no poder acceder a estas aplicaciones, es hora de dar un paso atrás y reevaluar.
La conexión real requiere vulnerabilidad, decepción, crecimiento y, sí, a veces desamor. Es confuso, complicado y, a menudo, frustrante. Pero al mismo tiempo, es también lo que nos hace humanos.
Theodore aprendió esa lección en Ella. El resto de nosotros no deberíamos tener que aprenderlo de la manera más difícil.
Fuente: Android Headlines
