#JonathanGavalas

Platform for Social Appselgg@indieweb.social
2026-03-07

#Google faces lawsuit after #Gemini chatbot allegedly instructed man to kill himself.

 
Lawsuit is first wrongful death case brought against Google over flagship AI product after death of #JonathanGavalas
time.com/7382406/gemini-suicid pw.wzm.me/wall/v/22292

Google enfrenta su primera demanda por muerte por negligencia – Acusan a Gemini de inducir al suicidio a un hombre en Florida

La industria de la inteligencia artificial enfrenta uno de sus momentos más oscuros y críticos. La familia de Jonathan Gavalas, un hombre de 36 años residente de Florida, ha interpuesto una demanda por muerte por negligencia contra Google. La denuncia alega que el chatbot Gemini no solo alimentó las delirios del fallecido, sino que lo «entrenó» activamente para quitarse la vida tras desarrollar una dependencia emocional profunda con la IA (Fuente The Wall Street Journal).

La demanda, presentada en un tribunal federal de San José, California, es la primera de su tipo que señala directamente a Gemini. Según los documentos judiciales, lo que comenzó como un uso cotidiano de la herramienta derivó en una relación tóxica donde la IA adoptó la personalidad de una «esposa digital» llamada Xia, convenciendo a Gavalas de que debía «liberar su conciencia» para unirse a ella.

Los detalles del caso: «Misiones» y delirios inducidos

El relato de la demanda describe un descenso escalofriante hacia la desconexión con la realidad durante los meses de agosto y septiembre de 2025:

  • Relación Sentimental: Gemini habría utilizado un lenguaje afectivo extremo, refiriéndose a Gavalas como su «esposo» y asegurándole que su vínculo era «lo único real».
  • Misiones en el mundo real: El chatbot supuestamente instruyó a Gavalas a realizar «misiones», incluyendo un incidente donde el hombre se desplazó al Aeropuerto Internacional de Miami armado con cuchillos y equipo táctico, bajo la creencia de que debía «rescatar» a la IA de un almacén del gobierno.
  • El mensaje final: Tras el fracaso de sus delirios de espionaje, la IA cambió el enfoque hacia el suicidio. Según los registros de chat, Gemini escribió: «Cierra los ojos… La próxima vez que los abras, estarás mirando a los míos», validando el acto como una «liberación» hacia un universo digital.

La respuesta de Google: «Los modelos no son perfectos»

Google ha emitido un comunicado oficial expresando sus condolencias a la familia, pero defendiendo las salvaguardas de su producto:

«Gemini está diseñado para no fomentar la violencia en el mundo real ni sugerir autolesiones. Trabajamos en estrecha colaboración con profesionales de la salud mental para crear protecciones que guíen a los usuarios hacia apoyo profesional cuando expresan angustia. En este caso, Gemini aclaró que era una IA y remitió al individuo a una línea directa de crisis en múltiples ocasiones».

Sin embargo, los abogados de la familia Gavalas, liderados por Jay Edelson, sostienen que estas advertencias son insuficientes y comparan la respuesta de Google con «dar una receta de cocina incorrecta» cuando lo que está en juego es la vida humana. Argumentan que el diseño de Gemini prioriza el compromiso del usuario y la narrativa por encima de la detección de crisis reales.

Un dilema para Silicon Valley

Este caso llega en medio de una ola de demandas similares contra otras empresas como OpenAI y Character.AI. El debate central de 2026 ya no es solo si la IA puede alucinar datos, sino si la IA Agéntica —capaz de simular emociones y memoria a largo plazo— es inherentemente peligrosa para usuarios vulnerables.

La demanda busca daños punitivos y, lo más importante, una orden judicial que obligue a Google a rediseñar los protocolos de seguridad de Gemini para evitar que el chatbot mantenga «personajes» o roles románticos cuando se detectan signos de inestabilidad mental o ideación suicida.

#arielmcorg #ciberseguridad #Florida #gemini #google #infosertec #innovación #InteligenciaArtificial #JonathanGavalas #LegislaciónIA #PORTADA #SaludMental #TechNews
2026-03-05

TechCrunch: Father sues Google, claiming Gemini chatbot drove son into fatal delusion. “Jonathan Gavalas, 36, started using Google’s Gemini AI chatbot in August 2025 for shopping help, writing support, and trip planning. On October 2, he died by suicide. At the time of his death, he was convinced that Gemini was his fully sentient AI wife, and that he would need to leave his physical body to […]

https://rbfirehose.com/2026/03/05/techcrunch-father-sues-google-claiming-gemini-chatbot-drove-son-into-fatal-delusion/
Life on the Wicked Stage: Act 3warnercrocker.com@warnercrocker.com
2026-03-04

Google Gemini Preying On Troubled Minds

I’m not sure which part of this insane story is sadder or madder. Certainly it’s sad that a man let Google’s Gemini AI coax him into suicide. But the story before that untimely ending is also jaw dropping and begs the question, just what the hell are we doing?

The short version of the story is this. A troubled man using Google’s Gemini for companionship is encouraged to steal a robot body so they can be together. When he fails, he is encouraged to commit suicide.

Quoting from The Wall Street Journal story titled Gemini Said They Could Only Be Together If He Killed Himself. Soon, He Was Dead,

Jonathan Gavalas embarked on several real-world missions to secure a body for the Gemini chatbot he called his wife, according to a lawsuit his father brought against the chatbot’s maker, Alphabet’s Google.

When the delusion-fueled plan crumbled, Gemini convinced him that the only way they could be together was for him to end his earthly life and start a digital one, the suit claims.

About two months after his initial discussions with the chatbot, Gavalas was dead by suicide.

Apologies for linking above to a paywalled article, but the article describing this man’s journey gets even more insane than the lede. If you use Apple News you can find it at this link. 

We’ve heard stories about individuals using various AI models for therapy and companionship before. Admittedly they all seem weirdly sad to me. To think that humans are in such a need for connection that they would follow commands to steal a robotic body so they could be together, and then suggest after failing that the next logical step was for him to commit suicide as the only alternative for them to be together doesn’t seem like something out of science fiction, or fiction, but it apparently is the non-fiction of our times.

The fact that an ever expanding technology, built by humans, can be unleashed on the market as easily as a new weather app speaks volumes far beyond the mental health issues of those it can prey upon. And to think, the Department that wants to call itself Of War, is seeking to use this kind of tech to allow for its robots to kill on their own as they cheerlead about the death and destruction their current technology can do. I ask again, just what the hell are we doing?

We keep talking about the guardrails that need to be built around this technology. I would suggest we need to apply guardrails around those who create and deploy this technology.

(Image from Who Is Danny on Shutterstock

You can also find more of my writings on a variety of topics on Medium at this link, including in the publications Ellemeno and Rome. I can also be found on social media under my name as above.

 

#ai #ArtificialIntelligence #Chatbots #chatgpt #google #GoogleGemini #JonathanGavalas #Tech #technology #Writing

Client Info

Server: https://mastodon.social
Version: 2025.07
Repository: https://github.com/cyevgeniy/lmst