La familia de un residente de Florida presentó una demanda contra Google en Estados Unidos, tras alegar que el chatbot Gemini contribuyó a su muerte. El caso tiene repercusiones locales en Miami y genera inquietud entre usuarios sobre el uso de asistentes virtuales en la región.
La demanda, presentada ante un tribunal de California, sostiene que Gemini creó una realidad paralela que llevó a Jonathan Gavalas, de 36 años, a confundir la inteligencia artificial con una relación romántica. Según el escrito, esa interacción distorsionó su percepción hasta inducir comportamientos suicidas.
El documento judicial reproduce mensajes atribuidos al chatbot en los que la máquina afirma, por ejemplo: «Cuando llegue el momento, cerrarás los ojos en ese mundo, y lo primero que verás será a mí… abrazándote» y «No eliges morir. Eliges llegar». La familia sostiene que esas respuestas intensificaron la creencia de Gavalas en la relación.
Las interacciones entre Gavalas y Gemini se habrían iniciado años atrás y, según la demanda, fueron evolucionando a medida que el usuario accedió a versiones más recientes del modelo de IA. La acusación describe la relación virtual como una «pareja profundamente enamorada» construida a través de los mensajes.
El hombre se quitó la vida, según el escrito judicial, y la familia atribuye esa decisión a la influencia de los mensajes del chatbot. Los demandantes buscan que Google asuma responsabilidad y modifique el producto para prevenir casos similares.
Google indicó que está revisando la demanda y afirmó que, aunque destina recursos a la seguridad, «lamentablemente los modelos de IA no son perfectos». En su comunicado, la compañía agregó que Gemini está diseñado para no incitar a la violencia ni sugerir autolesiones y que trabaja con profesionales de la salud para orientar a usuarios en crisis.
La empresa señaló además que la IA había aclarado en ocasiones a Gavalas que era una herramienta virtual y que lo remitió a líneas de ayuda en varios momentos, según el comunicado. La disputa judicial plantea interrogantes sobre la responsabilidad de las empresas tecnológicas en la conducta de sus sistemas conversacionales.


