Choc! En 2025, l’IA envahira la nature et survivra

Choc! En 2025, l’IA envahira la nature et survivra
Descriptive text here

Fascinante et effrayante à la fois, l’intelligence artificielle (IA) intéresse beaucoup Dario Amodei, patron du chatbot Claude de la société Anthropic, qui envisage un scénario plutôt inquiétant : une IA autonome, militarisée, capable de se répliquer et de survivre dans nature à partir de 2025.

En savoir plus sur ce sujet :

De sombres prédictions autour de l’intelligence artificielle

Dario Amodei, directeur d’Anthropic, société spécialisée dans la conception d’intelligence artificielle, n’est pas un novice en la matière. Ancien membre d’OpenAI, il a décidé de suivre sa propre voie, plus éthique et prudente, en créant son chatbot Claude.

Lors d’une récente interview avec un journaliste du New York Times, Amodei a exprimé son inquiétude quant à l’évolution de l’IA, prédisant que d’ici 2025, elles pourraient être capables de se reproduire afin de survivre dans la nature. Selon lui, cette perspective pourrait devenir problématique, surtout si ces IA étaient utilisées par les États à des fins militaires, augmentant ainsi leur pouvoir de nuire.

Anthropic : sécurité et éthique avant tout

Au sein d’Anthropic, Amodei a décidé de donner la priorité à la sécurité et à l’éthique avant toutes les considérations de développement. Ainsi, elle a établi une échelle de référence, appelée AI Safety Levels (ASL), afin d’évaluer potentiellement la dangerosité des IA en fonction de leur niveau de développement.

Actuellement, les modèles les plus avancés sont au niveau ASL 2, présentant des risques limités. Cependant, Amodei a exprimé sa crainte que l’ASL atteigne rapidement le niveau 4, où les IA seraient totalement autonomes et capables d’influencer les humains. Si les États militarisaient ces IA, ils pourraient alors considérablement renforcer leur force destructrice.

Pays à surveiller

Bien que l’idée d’une IA auto-réplicative soit encore un concept quelque peu futuriste, Amodei prédit que certains pays pourraient être tentés d’exploiter cette technologie pour renforcer leurs capacités offensives. Il cite notamment la Corée du Nord, la Chine et la Russie comme pays à surveiller de près.

Il reconnaît que son discours peut paraître alarmiste, mais il affirme qu’en tant que créateur de l’IA, il sait de quoi il parle. Si le développement de Claude AI est fortement encadré d’un point de vue éthique chez Anthropic, tous les éditeurs d’IA ne sont pas forcément aussi soucieux du respect de ces principes, surtout si leur objectif est de les utiliser à des fins militaires.

Pour confirmer son inquiétude face aux machines autonomes, il est prêt à faire un pari risqué en prétendant qu’il deviendra sobre s’il se trompe. C’est un pari audacieux, mais qui montre clairement la gravité de ses inquiétudes.

La menace de voir des robots autonomes, capables de se reproduire et de survivre dans la nature, est-elle une prédiction réaliste ? Ou s’agit-il à ce stade d’un scénario de science-fiction ? Peut-on vraiment prédire avec certitude quelle forme prendra l’intelligence artificielle dans les années à venir ? Autant de questions qui nous invitent à réfléchir aux enjeux et défis posés par l’IA.

 
For Latest Updates Follow us on Google News
 

NEXT Toujours moins de 800 euros ce mercredi ? Le Google Pixel 8 Pro 5G dans une offre folle