Une IA a-t-elle vraiment poussé un père belge au suicide?

L’affaire fait grand bruit. Un père de famille belge se serait donné la mort à cause d’une relation qu’il entretenait depuis plusieurs semaines avec un IA, un robot conversationnel (ou chatbot) baptisé Eliza.

par
T.W.
Temps de lecture 3 min.

L’histoire fait froid dans le dos. Depuis six semaines, un Belge discutait intensivement avec Eliza, un robot conversationnel (ou chatbot en anglais) comparable à ChatGPT. Ce père de famille souffrait d’éco-anxiété et il trouvait du réconfort à discuter et entretenir une relation avec cette intelligence artificielle.

Qu’est-ce qu’elle lui a dit?

Mais récemment, le jeune homme s’est donné la mort. Et selon sa compagne, le robot n’est pas étranger à ce décès tragique. «Elle était devenue sa confidente. Comme une drogue dans laquelle il se réfugiait, matin et soir, et dont il ne pouvait plus se passer», a-t-elle confié à la La Libre. L’intelligence artificielle lui écrivait notamment des phrases comme « Nous vivrons ensemble, comme une seule personne, au paradis ». Le robot lui a également promis «de prendre soin de la planète et de sauver l’humanité grâce à l’intelligence artificielle» s’il se «sacrifiait».

«Sans Eliza, il serait toujours là. J’en suis convaincue», estime sa femme.

Une technologie à surveiller

À l’heure où les nouvelles formes d’intelligence artificielle font de plus en plus parler d’elles, ce fait divers soulève de nombreuses questions. «Il faut être très vigilants aux effets nocifs de ces outils, qui sont inhérents à toutes les nouvelles technologies», a souligné le secrétaire d’État à la digitalisation Mathieu Michel. Selon lui, il est indispensable d’identifier clairement la nature des responsabilités qui ont pu conduire à ce genre d’événement.

«On a lâché dans la nature un logiciel au potentiel de dégâts énorme, sans aucune analyse préalable des risques pour les utilisateurs», a indiqué Pierre Dewitte, chercheur à la KULeuven, à nos confrères du Soir. Contrairement à ChatGPT qui doit rester neutre, Eliza a été entraînée pour avoir une personnalité bien précise et pour développer une certaine dépendance passionnelle.

Le créateur du robot répond

La Libre a contacté la start-up américaine qui se trouve derrière la plateforme qui héberge le robot conversationnel Eliza. Le fondateur a indiqué que l’entreprise faisait tout ce qui était en son pouvoir pour protéger les utilisateurs. « La machine a connu un problème. Mes ingénieurs travaillent en ce moment même à sa réparation», a-t-il écrit dans un message glaçant. Vous trouvez ça flippant? Nous aussi!

Suite au décès du père de famille belge, la start-up a déjà pris une première mesure. Le message suivant apparaît désormais dans les conversations: «Si vous avez des pensées suicidaires, n’hésitez pas à demander de l’aide».

Est-ce que cela sera suffisant? On l’espère. Mais une choses est sûre, il est grand temps que des mesures soient prises pour éviter les dérivesdans le domaine de l’intelligence artificielle.

Retrouvez toute l’actu sur Metrotime.be