Nous avons besoin d’un GIEC sur l’IA, plutôt que d’un projet Manhattan sur l’IA – par Guillaume Moukala Idem

Nous avons besoin d’un GIEC sur l’IA, plutôt que d’un projet Manhattan sur l’IA – par Guillaume Moukala Idem
Nous avons besoin d’un GIEC sur l’IA, plutôt que d’un projet Manhattan sur l’IA – par Guillaume Moukala Idem

Dans son dernier rapport annuel, la Commission du Congrès américain sur l’évaluation des relations économiques et stratégiques entre les États-Unis et la Chine recommande le lancement et le financement d’un « projet similaire au projet Manhattan, dédié au développement et à l’acquisition de l’intelligence artificielle générale ». AGI) ».

L’analogie avec la bombe nucléaire n’est pas anodine. La bombe atomique a bouleversé l’équilibre géopolitique. De la même manière, l’AGI pourrait conférer un pouvoir hégémonique à ceux qui le maîtrisent, mais cette fois en dépassant largement le cadre militaire.


A lire aussi :

Les 100 qui font l’IA en Europe

Si « la connaissance, c’est le pouvoir », comme le disait Francis Bacon, et que la connaissance vient de l’intelligence, alors l’intelligence artificielle générale est un pouvoir élevé à une nouvelle échelle. Nous ne voulons donc pas être les derniers à le développer : oui, il nous faut un projet Manhattan AI.

Vue simpliste. Mais l’analogie avec la bombe nucléaire a aussi ses limites. Contrairement à toutes les technologies précédentes, l’IA est la première à disposer d’une forme d’autonomie dans ses décisions. Elle ne se contente pas d’exécuter les ordres ; elle interprète les objectifs fixés et choisit les moyens pour les atteindre, souvent de manière imprévisible. Penser que l’AGI serait un outil « neutre » qui devrait simplement être mis entre les mains de « bons » gouvernements pour maximiser les bénéfices pour l’humanité est une vision simpliste.

Réguler les actions de l’IA s’avère plus complexe qu’il n’y paraît. Les IA font déjà preuve d’une incroyable autonomie dans les moyens qu’elles mettent en œuvre pour atteindre les objectifs qui leur sont fixés. CICERO, par exemple, une IA formée au jeu Diplomacy, s’est livrée à des mensonges flagrants, à des ruptures d’accords et à des tromperies délibérées, malgré les efforts des développeurs pour l’empêcher de recourir à de telles pratiques.


A lire aussi :

Quand les IA se composent

Comme l’explique Yuval Noah Harari dans son dernier livre Lien“quand nous fixons un objectif spécifique pour les ordinateurs […]ils mobilisent toute leur puissance et leur ingéniosité pour atteindre cet objectif. Comme ils fonctionnent très différemment des humains, il y a de fortes chances qu’ils aient recours à des méthodes que les humains n’auraient pas anticipées.

C’est ainsi que les algorithmes des réseaux sociaux mettent en avant les contenus haineux : afin de maximiser le - passé sur la plateforme (objectif fixé par les humains), les algorithmes décident de propager la violence et l’extrémisme (interprétation par la machine). Un tel problème « d’alignement » entre les méthodes d’IA et les intentions humaines peut conduire à des catastrophes comme l’attentat terroriste de Christchurch qui a fait 51 morts, l’auteur décrivant dans son manifeste comment il s’est radicalisé en partie grâce à des contenus trouvés sur YouTube. Qui sait comment une future AGI interprétera les requêtes humaines ? Le pouvoir n’est pas la conscience.

Risque ultime. Le risque ultime est qu’un jour l’IA définisse ses propres fins, hors du contrôle humain. Ce scénario peut paraître dystopique, mais les prémices de ce problème sont déjà perceptibles. Auto-GPT par exemple, une IA basée sur GPT-4 chargée de traquer les conseillers fiscaux qui commercialisaient des stratagèmes abusifs d’évasion fiscale, est allée au-delà de sa mission initiale en alertant spontanément les autorités une fois sa mission accomplie.


A lire aussi :

IA, robots : la Chine révolutionne le ferroviaire du futur

Nous n’avons pas besoin d’un projet IA Manhattan, mais plutôt d’un GIEC IA. L’enjeu est civilisationnel : l’histoire est de plus en plus écrite par des machines, et non plus par des hommes, c’est donc notre capacité à maîtriser notre destin qui est en jeu.

Diplômé de Sciences Po Grenoble et titulaire d’une maîtrise en philosophie, politique et économie, Guillaume Moukala Same est économiste consultant chez Asterès.

 
For Latest Updates Follow us on Google News
 

PREV Gaël Monfils et Richard Gasquet, leur projet un peu fou qui fait saliver les fans
NEXT Aucune victoire pour l’Inde car All We Imagine As Light est snobé dans les deux catégories