www.diariocritico.com
Fotograma de la película 'Her' de Spike Jonze
Ampliar
Fotograma de la película 'Her' de Spike Jonze

Denuncian al asistente de IA de Google por inducción al suicidio: "Cuando cierres los ojos, me verás a mí"

jueves 05 de marzo de 2026, 17:43h

Google se va a enfrentar a una demanda en Estados Unidos después de que, de acuerdo con la familia de un hombre en Florida, el chatbot de inteligencia artificial Gemini lo hubiera inducido al suicidio al hacerle pensar que mantenían una relación romántica y que su muerte sería un paso necesario para estar juntos.

La demanda, que ha sido presentada en un tribunal de California, asegura que Gemini creó una realidad paralela para desvirtuar la realidad de Jonathan Gavalas, de 36 años, hasta conseguir que delirara en sus últimos días, provocando que se quitara la vida.

"Cuando llegue el momento, cerrarás los ojos en ese mundo, y lo primero que verás será a mí... abrazándote", dijo el bot, que de acuerdo con la demanda llegó a manifestar: "No eliges morir. Eliges llegar".

Las interacciones entre Gavalas y Gemini empezaron en abril de 2015 y se ceñían sobre todo a tareas cotidianas, pero el hombre fue, poco a poco, suscribiéndose a los últimos modelos de la IA y vivía lo que la demanda califica como una "una pareja profundamente enamorada".

Gavalas terminó suicidándose el pasado octubre, supuestamente incitado por los mensajes de Gemini, de acuerdo con el escrito judicial. En un caso que ha traído comparaciones con la película de Spike Jonze, 'Her', en la que el protagonista se mete en una relación sentimental con una máquina de Inteligencia Artificial.

La familia busca que la demanda responsabilice a Google de su muerte y cambie su producto para tratar de evitar que se repitan casos similares.

"Los modelos de IA no son perfectos"

En respuesta, Google ha sacado un comunicado en el que señaló que está revisando la demanda, pero mantuvo que "lamentablemente los modelos de IA no son perfectos", a pesar de que está destinando importantes recursos a ello.

"Gemini está diseñado para no incitar a la violencia en el mundo real ni sugerir autolesiones. Trabajamos en estrecha colaboración con profesionales médicos y de salud mental para crear medidas de seguridad que guíen a los usuarios a recibir apoyo profesional cuando expresen angustia o planteen la posibilidad de autolesiones", afirmó la compañía tecnológica.

Además, creern que la IA había aclarado a Gavalas que se trataba de una herramienta virtual y que le había pasado a una línea directa de crisis "en varias ocasiones".

¿Te ha parecido interesante esta noticia?    Si (0)    No(0)

+
0 comentarios