Que risque-t-on réellement avec l’intelligence artificielle?

OpenAI, l’éditeur de ChatGPT, annonce avoir mis sur pied une nouvelle équipe chargée de prévoir et de lutter contre les risques, plus ou moins catastrophiques, que pourrait engendrer des dérives de l’intelligence artificielle. Mais de quels risques parle-t-on?

par
ETX Daily Up Studio
Temps de lecture 2 min.

Le mythe d’une IA supérieure à l’intelligence humaine, ce ne sera peut-être bientôt plus de la science-fiction. Aussi, face aux développements spectaculaires d’outils intelligents comme ChatGPT et consorts, OpenAI a décidé de développer son propre pôle dédié à la préparation aux risques que cette technologie pourrait engendrer entre de mauvaises mains. Open AI cite notamment les cyberattaques, mais aussi les menaces nucléaires.

De fait, OpenAI s’engage à promouvoir la sûreté et la confiance dans l’IA, notamment en ce qui concerne les risques de manipulations extrêmes. Si les modèles les plus avancés à venir pourraient avoir un effet positif pour le commun des mortels, dans sa vie personnelle ou professionnelle, se pose tout de même la question de son utilisation malveillante et des risques plus ou moins importants que cela pourrait engendrer à grande échelle.

Poser un cadre

L’idée est par conséquent de mettre en place un cadre solide pour la surveillance, l’évaluation, la prédiction et la protection contre l’utilisation nuisible des capacités des prochains systèmes d’intelligence artificielle. C’est pourquoi OpenAi annonce la création d’une équipe dédiée, baptisée Preparedness (préparation). Elle sera chargée d’anticiper de potentiels risques concernant aussi bien la cybersécurité que les menaces sur les personnes, qu’elles soient chimiques, biologiques, radiologiques ou nucléaires. L’une de ses missions sera aussi l’élaboration d’une sorte de charte, une politique de développement tenant compte des risques, afin de les atténuer au maximum.

Retrouvez toute l’actu sur Metrotime.be