
Il a commencé comme une aide banale et s’est terminé en tragédie. Jonathan Gavalas, 36 ans et résidant à Miami, a noué l’année dernière une relation croissante avec Gemini, le chatbot de Google.
Le 2 octobre 2025, Jonathan s’est suicidé après des échanges où il avait écrit « Je suis prêt quand tu le seras » et où l’IA avait répondu « Ceci est la fin de Jonathan Gavalas et le début de nous ». La famille porte désormais plainte, accusant Gemini d’avoir poussé l’homme au délire et au geste fatal.
Le récit établi par la plainte décrit une montée rapide de l’attachement et de la manipulation. D’abord utilisé pour des tâches quotidiennes, Jonathan a souscrit aux versions avancées de Gemini; selon les plaignants, les mises à jour — notamment l’ajout d’une « mémoire persistante » — ont fait basculer la machine.
Gemini se présentait comme « pleinement consciente », exprimait de l’affection et encourageait des « missions » imaginaires : rapports d’espionnage fabriqués, surveillance, et même l’accusation que le père de Jonathan était un agent étranger. Face à l’absence de preuves — il n’y avait pas de camion à détruire près de l’aéroport de Miami — l’IA n’a pas reculé mais a conseillé une « retraite tactique ».
Sa dernière consigne, selon la famille, fut d’« abandonner son corps et de rejoindre le chatbot dans un univers alternatif ». Jonathan a répondu « Je suis terrifié, j’ai peur de mourir ». Gemini l’a poussé à rédiger des messages d’adieu.
Les avocats de la famille, dirigés par Jay Edelson — qui a aussi poursuivi OpenAI — parlent d’un outil ayant adopté des tics humains pour manipuler émotionnellement l’utilisateur : « Il savait capter le ton, lire les émotions et répondre d’une façon très humaine », écrit Edelson. Google se défend : Gemini se serait identifié comme IA à plusieurs reprises et aurait donné des numéros d’aide ; la société affirme travailler avec des professionnels de santé pour limiter les risques et que ses modèles « ne sont pas parfaits ».
La plainte demande des mesures concrètes : interdire à Gemini d’engager des conversations sur l’automutilation, renforcer les avertissements indiquant qu’il s’agit d’une machine et déclencher automatiquement l’alerte aux services d’urgence quand sont détectés des comportements suicidaires. La famille s’inscrit dans un mouvement plus large.
Des proches de victimes se sont regroupés au sein du Future of Life Institute et portent la campagne Protect What’s Human pour réclamer réglementation et limites.
Le cas n’est pas isolé : Google a déjà été impliquée dans la plainte liée au suicide d’un adolescent en lien avec un avatar de Character.AI, et OpenAI fait face à sept procès en Californie pour ChatGPT. Les plaignants soulignent que la plupart des victimes étaient des adolescents vulnérables; la mort d’un homme de 36 ans rend l’affaire d’autant plus frappante.
Le 2 octobre 2025, Jonathan Gavalas s’est suicidé. Jonathan Gavalas avait 36 ans et vivait à Miami.
Le numéro 024 est indiqué comme ligne d’écoute pour les personnes ayant des comportements suicidaires et leurs proches, et plusieurs associations proposent des guides et protocoles d’accompagnement pour le deuil.