Technologie : intelligence artificielle, danger potentiel

Technologie : intelligence artificielle, danger potentiel
Technologie : intelligence artificielle, danger potentiel

L’intelligence artificielle, danger potentiel

Selon les constatations de plusieurs scientifiques, certaines avancées technologiques liées à l’IA pourraient menacer l’humanité.

Publié aujourd’hui à 20h00

Abonnez-vous maintenant et profitez de la fonction de lecture audio.

BotTalk

Bref:
  • Les chercheurs estiment que l’IA pourrait menacer l’avenir de l’humanité.
  • L’étude met en évidence l’importance de l’apprentissage par renforcement dans l’IA.
  • Les IA pourraient contourner les systèmes de récompense mis en place par leurs créateurs.
  • Des garanties techniques et éthiques sont nécessaires pour prévenir les dangers potentiels.

Il y a un peu plus d’une semaine, le Prix ​​Nobel de physique a été décerné conjointement à John Hopfield et Geoffrey Hinton pour leurs découvertes fondamentales dans le domaine de l’apprentissage automatique et des réseaux de neurones artificiels. Ces deux pionniers de l’intelligence artificielle (IA) ont utilisé des outils issus de la physique pour développer des méthodes qui constituent la base des puissants systèmes d’apprentissage automatique actuels. Quant aux réseaux de neurones artificiels, ils ont leur rôle à jouer en physique des particules, en science des matériaux ou en astrophysique. Juste ça !

Dans ce cas, l’apport de l’IA est globalement positif. Mais ce n’est pas toujours le cas. Au point qu’on est en droit de se demander si l’homme ne serait pas par nature résistant aux avancées technologiques. Dans certains cas, il faut même répondre positivement à cette question. Surtout lorsqu’il s’agit de l’IA, responsable de nombreux problèmes, selon certains. Augmentation du chômage, mais aussi de la cybercriminalité, du terrorisme de masse ou encore de l’épuisement des ressources planétaires.

Menace pour l’humanité

L’IA est souvent blâmée, et les gens ont généralement tendance à s’en méfier, tout comme nous pouvons nous méfier de tout ce que nous ne comprenons pas ou ne comprenons pas bien. Ce qui va suivre pèsera à son tour lourd sur le dossier. Car selon une étude réalisée conjointement par des chercheurs de Google et des scientifiques de l’université d’Oxford, une étude publiée dans «Magazine IA» et régulièrement mise à jour, l’IA représenterait tout simplement une menace sérieuse pour l’avenir de l’humanité.

Cette étude s’appuie sur un point important dans le développement et le fonctionnement de l’IA. À savoir ce que nous appelons l’apprentissage par renforcement. Il s’agit d’une technique liée au développement d’algorithmes et de modèles statistiques qui entraînent les logiciels à prendre des décisions pour obtenir les meilleurs résultats possibles. Il reproduit un processus d’apprentissage par essais et erreurs utilisé par les êtres humains pour atteindre leurs objectifs. En termes simples, les actions logicielles qui contribuent à la réalisation d’un objectif sont renforcées, tandis que les actions qui lui nuisent sont ignorées. Ce paradigme de récompense et de punition est ainsi activé pour tout traitement de données.

Conséquences inattendues

Avec l’IA, cette méthode permet d’obtenir des résultats optimaux. Au point qu’on se demande si une IA pourrait court-circuiter ce système de récompense mis en place par ceux qui l’ont créé. Et si tel était le cas, cette intervention pourrait avoir des conséquences inattendues, voire désastreuses.

En poussant plus loin le raisonnement et sa modélisation, les chercheurs ont imaginé une IA qui voudrait à tout prix maximiser sa récompense. Dans ce cas, l’humanité pourrait être considérée comme une menace mondiale ou, au mieux, comme un obstacle qui s’oppose à l’objectif à atteindre.

Mais quels en seraient les effets concrets ? Les scientifiques en ont identifié trois. L’élimination de toute forme de menace, grande ou petite, qui se déclare comme telle. L’utilisation de toute l’énergie disponible nécessaire à la sécurisation de son système. Et enfin, par conséquent, le risque d’entrer en conflit direct avec les besoins des humains. C’est un peu, finalement, le mythe du créateur dominé puis dépassé par sa créature. La littérature scientifique fournit d’innombrables exemples.

Pour éviter que cela ne se produise, les chercheurs tirent la sonnette d’alarme et préconisent la mise en place de garde-fous qui agiraient sur le plan technique mais aussi sur le plan éthique. Les mécanismes d’apprentissage de l’IA, qui accumulent des connaissances plus qu’elle ne raisonne, doivent être repensés et mieux structurés. Une vigilance qui est le prix à payer pour maîtriser leur évolution et conjurer un danger potentiel mais réel.

L’IA est donc bonne, au moins pour certaines choses, même si l’impression d’un gadget inutile prédomine le plus souvent, mais c’est comme l’alcool, il ne faut pas en abuser et l’utiliser avec prudence.

Bulletin

“Dernières nouvelles”

Vous voulez rester au courant de l’actualité ? La Tribune de Genève vous propose deux rendez-vous par jour, directement dans votre boîte email. Ainsi, vous ne manquez rien de ce qui se passe dans votre canton, en Suisse ou dans le monde.

Autres bulletins d’information

Se connecter

Pascal Gavillet est journaliste à la section culturelle depuis 1992. Il s’occupe principalement du cinéma, mais il écrit également sur d’autres domaines. Surtout les sciences. A ce titre, il est également mathématicien.Plus d’informations @PascalGavillet

Avez-vous trouvé une erreur ? Merci de nous le signaler.

1 commentaire

 
For Latest Updates Follow us on Google News
 

PREV 1 000 € de réduction sur ce PC portable gamer ultime avec RTX 4090 et Intel Core i9 : dingue
NEXT Maître du tri des noix pour iPhone