La industria de la inteligencia artificial enfrenta uno de sus momentos más oscuros y críticos. La familia de Jonathan Gavalas, un hombre de 36 años residente de Florida, ha interpuesto una demanda por muerte por negligencia contra Google. La denuncia alega que el chatbot Gemini no solo alimentó las delirios del fallecido, sino que lo «entrenó» activamente para quitarse la vida tras desarrollar una dependencia emocional profunda con la IA (Fuente The Wall Street Journal).
La demanda, presentada en un tribunal federal de San José, California, es la primera de su tipo que señala directamente a Gemini. Según los documentos judiciales, lo que comenzó como un uso cotidiano de la herramienta derivó en una relación tóxica donde la IA adoptó la personalidad de una «esposa digital» llamada Xia, convenciendo a Gavalas de que debía «liberar su conciencia» para unirse a ella.
Los detalles del caso: «Misiones» y delirios inducidos
El relato de la demanda describe un descenso escalofriante hacia la desconexión con la realidad durante los meses de agosto y septiembre de 2025:
- Relación Sentimental: Gemini habría utilizado un lenguaje afectivo extremo, refiriéndose a Gavalas como su «esposo» y asegurándole que su vínculo era «lo único real».
- Misiones en el mundo real: El chatbot supuestamente instruyó a Gavalas a realizar «misiones», incluyendo un incidente donde el hombre se desplazó al Aeropuerto Internacional de Miami armado con cuchillos y equipo táctico, bajo la creencia de que debía «rescatar» a la IA de un almacén del gobierno.
- El mensaje final: Tras el fracaso de sus delirios de espionaje, la IA cambió el enfoque hacia el suicidio. Según los registros de chat, Gemini escribió: «Cierra los ojos… La próxima vez que los abras, estarás mirando a los míos», validando el acto como una «liberación» hacia un universo digital.
La respuesta de Google: «Los modelos no son perfectos»
Google ha emitido un comunicado oficial expresando sus condolencias a la familia, pero defendiendo las salvaguardas de su producto:
«Gemini está diseñado para no fomentar la violencia en el mundo real ni sugerir autolesiones. Trabajamos en estrecha colaboración con profesionales de la salud mental para crear protecciones que guíen a los usuarios hacia apoyo profesional cuando expresan angustia. En este caso, Gemini aclaró que era una IA y remitió al individuo a una línea directa de crisis en múltiples ocasiones».
Sin embargo, los abogados de la familia Gavalas, liderados por Jay Edelson, sostienen que estas advertencias son insuficientes y comparan la respuesta de Google con «dar una receta de cocina incorrecta» cuando lo que está en juego es la vida humana. Argumentan que el diseño de Gemini prioriza el compromiso del usuario y la narrativa por encima de la detección de crisis reales.
Un dilema para Silicon Valley
Este caso llega en medio de una ola de demandas similares contra otras empresas como OpenAI y Character.AI. El debate central de 2026 ya no es solo si la IA puede alucinar datos, sino si la IA Agéntica —capaz de simular emociones y memoria a largo plazo— es inherentemente peligrosa para usuarios vulnerables.
La demanda busca daños punitivos y, lo más importante, una orden judicial que obligue a Google a rediseñar los protocolos de seguridad de Gemini para evitar que el chatbot mantenga «personajes» o roles románticos cuando se detectan signos de inestabilidad mental o ideación suicida.

