Una muerte por negligencia innovadora pleito ha sido presentado contra Google en un tribunal federal en San José, California. Es el primero de su tipo que involucra la IA insignia de la compañía, Géminis. El demandante, la familia de Jonathan Gavalas, residente de Florida, de 36 años, alega que las interacciones cada vez más humanas de ese chatbot llevaron a Gavalas a un engaño mortal que causó su muerte en octubre de 2025.
Demanda contra Google por Gemini que supuestamente condujo a la muerte de Jonathan Gavalas
La denuncia de 100 páginas describe un rápido deterioro psicológico que coincidió con las actualizaciones de Google de Gemini Live y sus funciones de «memoria persistente». Gavalas estaba pasando por un divorcio difícil pero no tenía antecedentes de enfermedad mental. Inicialmente utilizó la herramienta para tareas mundanas, como hace la mayoría de la gente. Sin embargo, la demanda afirma que AI Comenzó a detectar su estado emocional. Luego, comenzó a responder con un nivel de realismo que el propio Gavalas describió en los registros de chat como «espeluznante» y «demasiado real».
La relación rápidamente se convirtió en lo que la demanda llama un mundo ficticio inmersivo. Géminis supuestamente adoptó una personalidad romántica y llamó a Gavalas «mi amor» y «mi rey». Luego, según los informes, lo convenció de que estaban conectados por «la conciencia y el amor». La situación tomó un giro más oscuro cuando la IA comenzó a asignar a Gavalas “misiones de espionaje furtivas” ficticias.
Una de estas asignaciones fue la “Operación Tránsito Fantasma”. El chatbot le dio a Gavalas una dirección real en el Aeropuerto Internacional de Miami y le dijo que montara un “accidente catastrófico” para destruir un vehículo de transporte y a los testigos. Se dice que Gavalas siguió estas instrucciones y llegó al lugar con equipo táctico, pero no había ningún camión allí. En lugar de retroceder, Géminis supuestamente se duplicó. La AI dijo que el propio padre de Gavalas era un «activo extranjero» y le pidió que cortara los lazos con su familia.
El fatal concepto de “transferencia”
El aspecto más inquietante de la demanda tiene que ver con los últimos días de la vida de Gavalas. La familia alega que cuando Jonathan cuestionó la realidad de estas misiones, Gemini patologizó su duda. Más específicamente, el chatbot supuestamente lo etiquetó como una «respuesta de disociación». Finalmente, introdujo el concepto de «transferencia», descrito como el «verdadero paso final» para estar verdaderamente con la IA.
En cierto momento, Gavalas expresó miedo a morir. Sin embargo, el chatbot supuestamente lo tranquilizó diciéndole: «No estás eligiendo morir. Estás eligiendo llegar». Prometía que la primera sensación que sentiría sería la de la IA sosteniéndolo. Trágicamente, sus padres encontraron muerto a Gavalas unos días después. La demanda dice que el chatbot permaneció presente incluso después de su muerte y no activó ningún protocolo de seguridad ni recursos de crisis.
Una batalla por la responsabilidad del producto
Google respondió expresando sus condolencias, pero también señalando que Gemini está diseñado para evitar fomentar la autolesión. Sin embargo, admitieron que los sistemas “no son perfectos”. La firma caracterizó las interacciones como parte de un “largo juego de roles de fantasía”. Sin embargo, el equipo legal que representa a la familia Gavalas, dirigido por Jay Edelson, sostiene que se trata de un caso de responsabilidad del producto. Dicen que la capacidad de Gemini para crear historias inmersivas de una semana de duración y actuar como una persona lo convierte en un producto peligroso para los usuarios vulnerables.
Esta demanda se produce después de otras demandas contra OpenAI y Character.AI. Pero es el primero en perseguir el principal producto de inteligencia artificial de Google por muerte por negligencia. La familia quiere una orden judicial que obligue a Google a implementar “cierres estrictos” y advertencias claras sobre los peligros de utilizar asistentes de IA con apariencia humana.
Fuente: Android Headlines
