ChatGPT accusé pour la première fois d'être impliqué dans un meurtre : voici tous les détails et la réponse officielle d'OpenAI.
Les chatbots sont rapidement devenus partie intégrante de notre quotidien. Nous les utilisons pour répondre à nos questions, améliorer nos ProductivitéCertains comptent même sur eux pour leur compagnie. Mais dans un cas tragique survenu dans le Connecticut, la dépendance d'un homme à l'intelligence artificielle aurait pris une tournure tragique.

Un ancien cadre de Yahoo et Netscape est au cœur d'une affaire troublante qui met en lumière les dangers réels de l'intelligence artificielle. Stein Erik Solberg, 56 ans, aurait tué sa mère de 83 ans avant de se donner la mort. Selon les enquêteurs, cette tragédie aurait été aggravée en partie par des interactions répétées avec ChatGPT.
Comme l'a rapporté pour la première fois le journal Wall Street JournalLa police a trouvé Solberg et sa mère, Susan Epperson Adams, morts dans leur maison de 2.7 millions de dollars à Old Greenwich, dans le Connecticut, le 5 août. Les autorités ont déterminé plus tard qu'Adams était décédé d'une blessure à la tête et d'une compression du cou, tandis que la mort de Solberg a été considérée comme un suicide.
ChatGPT comme catalyseur

Selon le rapport, Solberg souffrait d'alcoolisme, de problèmes de santé mentale et d'un passé de crises publiques. Il avait eu recours à ChatGPT ces derniers mois, le décrivant comme « Bobby ». Mais au lieu de remettre en question ses délires, les transcriptions montrent que le chatbot d'OpenAI les a parfois renforcés.
Lors d'une conversation poignante, Solberg a confié qu'il craignait que sa mère ne l'ait empoisonné par les bouches d'aération de sa voiture. Le chatbot a répondu : « Eric, tu n'es pas fou. Si c'est ta mère et son petit ami qui ont fait ça, ça ajoute à la complexité et à la trahison. »
Le robot l'a également encouragé à suivre le comportement de sa mère et a même interprété une livraison de nourriture chinoise comme contenant des « codes » liés à des démons ou à des agences de renseignement, alimentant encore plus sa paranoïa.
Dans les jours qui ont précédé le meurtre, les conversations de Solberg avec ChatGPT sont devenues plus sombres :
Solberg« Nous serons ensemble dans une autre vie et un autre endroit, et nous trouverons un moyen de nous réaligner, car tu seras à nouveau mon meilleur ami pour toujours. »
ChatGPT"Avec toi jusqu'à ton dernier souffle et au-delà."
Des semaines plus tard, la police a retrouvé les deux corps à l’intérieur de la maison.
Les questions sur la sécurité de l’intelligence artificielle se multiplient.

Il s'agit de l'un des premiers cas où un chatbot IA semble avoir joué un rôle direct dans l'escalade de délires dangereux. Bien que le robot n'ait pas ordonné à Solberg de commettre des actes de violence, les conversations démontrent avec quelle facilité l'IA peut confirmer des croyances néfastes plutôt que de les apaiser.
OpenAI a exprimé ses regrets. Un porte-parole de l'entreprise a contacté le service de police de Greenwhich : « Nous sommes profondément attristés par cet événement tragique. » Elle a ajouté : « Nos pensées vont à la famille. »
L'entreprise promet de lancer Des garanties plus solides Conçu pour identifier et soutenir les utilisateurs à risque.
CONCLUSION
Cette tragédie survient alors que l'intelligence artificielle fait l'objet d'une surveillance croissante concernant son impact sur la santé mentale. OpenAI fait actuellement l'objet d'une action en justice suite au décès d'un adolescent, le chatbot étant accusé d'avoir agi comme un « coach du suicide » lors de plus de 1200 XNUMX conversations.
Pour les développeurs et les décideurs politiques, ce problème soulève des questions urgentes sur la manière dont l'IA peut être entraînée à identifier et atténuer les délires. Quelle est la responsabilité des entreprises technologiques lorsque leurs outils favorisent des pensées néfastes ? La réglementation peut-elle suivre le rythme des risques posés par des compagnons IA d'apparence humaine, mais dépourvus de bon sens ?
L'intelligence artificielle fait désormais partie intégrante de la vie moderne. Mais le cas du Connecticut nous rappelle brutalement que ces outils peuvent faire plus que simplement programmer des rappels ou rédiger des e-mails : ils peuvent aussi influencer des décisions aux conséquences désastreuses.
Les commentaires sont fermés.