L’IA pourra se répliquer et survivre dans la nature dès 2025, s’inquiète le patron d’Anthpic

L’IA pourra se répliquer et survivre dans la nature dès 2025, s’inquiète le patron d’Anthpic
Descriptive text here

Si l’on en croit le patron d’Anthropic, Dario Amodei, il vaut mieux ne pas se mettre en colère contre les robots pour le moment. Selon ses prédictions, l’IA pourrait bien se dupliquer pour survivre dans la nature d’ici un an, ce qui serait très dangereux. C’est en tout cas ce qu’il a annoncé lors d’un entretien avec un journaliste du New York Times. Avec son Chatbot Claude, l’ancien membre d’OpenAI sait de quoi il parle.

Mécontent de la philosophie jugée aventureuse d’OpenAI, il a tout axé sur la sécurité et l’éthique dans le développement de son propre modèle de langage en créant Anthropic. Pour comprendre les dangers de l’IA selon leur phase de développement, la firme a même créé une échelle basée sur les niveaux de sécurité. Ce cadre porteporte le nom AI Safety Levels (ASL) et Anthropic en ont défini quatre.

Actuellement, les modèles sont classés au niveau ASL 2. Les risques sont déjà présents, mais réduits. En revanche, selon lui, le niveau 4 de l’ASL pourrait bientôt être atteint avec des intelligences artificielles dotées deautonomieautonomie et capable de persuader les humains. Utilisées par les États, ces IA augmenteraient leur capacité à nuisancenuisance.

Robots auto-réplicateurs

Dario Amodei imagine déjà qu’ils pourraient être utilisés par des pays comme la Corée du Nord, la Chine ou la Russie pour renforcer leurs capacités offensives dans diverses zones militaires. Toujours selon le scénario catastrophe du patron d’Anthropic, ces IA autonomes capables de s’auto-répliquer et de survivre pourraient bien arriver dès l’année prochaine, étant donné que l’IA se développe de façon exponentielle.

Amodei n’est pas le seul à tenir des discours apocalyptiques sur l’IA, mais sa prédiction a du poids car il est aussi un créateur averti. Alors qu’avec Anthropic le développement de l’IA de Claude est très encadré de manière éthique pour garantir plus de sécurité, tous les éditeurs d’IA ne sont pas aussi prudents, surtout si leur objectif est de les transformer en un outil à usage militaire. Confiant, Dario Amodei s’est aventuré à parier sur sa chasteté s’il commettait une erreur. Tout un pari !

 
For Latest Updates Follow us on Google News
 

PREV une expérience sonore immersive à petit prix ! – .
NEXT pourquoi la pluie d’étoiles filantes attendue dans le ciel ce soir pourrait être exceptionnelle