Les pères fondateurs de l’intelligence artificielle craignent que leur création ne devienne incontrôlable

Les pères fondateurs de l’intelligence artificielle craignent que leur création ne devienne incontrôlable
Les pères fondateurs de l’intelligence artificielle craignent que leur création ne devienne incontrôlable

Un groupe de spécialistes, dont deux des pères fondateurs de l’intelligence artificielle, se sont réunis pour débattre des « risques catastrophiques » de l’IA. Pour éviter qu’elle échappe au contrôle humain, ils proposent un cadre réglementaire, avec l’inscription des modèles sur un registre.

Les risques inhérents à l’intelligence artificielle continuent de diviser les spécialistes du domaine. Si certains y voient un outil relativement inoffensif, d’autres s’inquiètent qu’il puisse échapper au contrôle humain. C’est notamment le cas de Geoffrey Hinton et Yoshua Bengio, considérés comme deux des pères fondateurs de l’IA, ayant reçu le prix Turing en 2018 pour leurs travaux surapprentissage profondapprentissage profondavec le français Yann LeCun.

Les deux hommes se rencontraient récemment pour la troisième fois. Idais (International Dialogues on AI Security) se sont tenus à Venise et ont réuni divers spécialistes du secteur. Le groupe a publié une déclaration soulignant les risques liés à l’arrivée imminente – ou au plus tard, d’ici quelques décennies – d’une IA capable de surpasser l’intelligence humaine.

Un cadre réglementaire en trois points

Egalement signée par Zhang Ya-Qin, ancien président du géant chinois Baidu, et Stuart Russell, la déclaration avance trois propositions pour éviter les scénarios catastrophes. Premièrement, la communauté internationale devrait mettre en place des accords et des institutions permettant d’enregistrer les modèles d’IA et de signaler tout incident. Deuxièmement, les développeurs devraient être tenus de démontrer la sécurité de leurs modèles si leurs capacités dépassent certains seuils. Enfin, des recherches mondiales indépendantes sur la sécurité de l’IA devraient être menées afin de vérifier la validité des déclarations des experts. matièrematière mesures de sécurité formulées par les développeurs.

Le communiqué ne donne toutefois aucun éclairage sur ce qui pourrait constituer un risque, ni sur les seuils à mettre en place. Ce n’est pas la première fois que Geoffrey Hinton s’exprime sur ce sujet. Il a notamment démissionné de Google en 2023 pour pouvoir partager librement ses inquiétudes quant au développement de l’intelligence artificielle.

 
For Latest Updates Follow us on Google News
 

PREV Cet objet que tout le monde a dans sa cuisine obsède la reine
NEXT « Je pensais chaque jour que c’était la fin du tournage »