Privacy Policy Banner

We use cookies to improve your experience. By continuing, you agree to our Privacy Policy.

L’IA pourrait égaler l’intelligence humaine d’ici 2030… et tout détruire -.

L’IA pourrait égaler l’intelligence humaine d’ici 2030… et tout détruire -.
L’IA pourrait égaler l’intelligence humaine d’ici 2030… et tout détruire -.
-

C’est une prédiction qui vous rend étourdi: selon une étude récente de Google Deepmind, une intelligence artificielle au niveau humain, également appelé AG (intelligence générale artificielle), pourrait naître d’ici 2030. Et avec elle, une série de risques existentiels que la société doit anticiper maintenant.

Vers une IA capable de … pour meilleur ou pour le pire

Contrairement à intelligence artificielle actuel, spécialisé dans des tâches spécifiques (traduction, jeux, écriture, etc.), leAga aurait une capacité d’adaptation comparable à celle de l’esprit humain. En d’autres termes, il pourrait résoudre des problèmes complexes, apprendre de nouveaux domaines, anticiper des contextes inconnus… un peu comme un humain extrêmement polyvalent.

Mais cette avance suscite autant d’espoirs que les peurs. Dans leur rapport, les chercheurs DeepMind évoquent «Préjugés sérieux»Aller jusqu’à La possibilité d’une extinction de l’humanitéDans les pires scénarios. Une tonalité alarmiste? Peut être. Mais un Réflexion éthique esic est essentiel, selon les experts.

Quatre principaux types de risques identifiés

L’étude de Google Deepmind ne s’arrête pas à une simple prédiction. Elle les menaces potentielles Quatre catégories principales :

  1. Chose : Une technologie puissante entre de mauvaises mains pourrait être utilisée pour manipuler, désinformer, voire attaquer.
  2. Démontage des objectifs : Une IA qui poursuit un objectif mal défini pourrait causer des dommages sans même en être conscient.
  3. Erreurs techniques : des bogues, des défauts ou un mauvais apprentissage pourraient provoquer un comportement imprévu.
  4. Risques structurels : déséquilibres économiques, perte massive d’emploi ou dépendance excessive à l’égard des systèmes automatisés.

Ces risques mettent en évidence l’importance de la mise en place d’un gouvernance mondiale Pour superviser le développement de cette nouvelle génération d’IA.

-

Un appel à un NON de l’intelligence artificielle

Demis HassabisLe PDG de Deepmind, ne cache pas sa préoccupation. Au cours d’une intervention récente, il a plaidé pour la création d’un organisation internationale dédié à Surveillance et coordination du développement de la CAsur le modèle de Cern ouAIEA (International Atomic Energy Agency).

Selon lui, un seul coopération mondiale rendrait cette technologie aussi sûre que possible, tout en évitant les dérives liées à une concurrence technologique frénétique entre les pouvoirs économiques.

Acte, une révolution très différente de l’IA actuelle

Pour comprendre le problème, nous devons différencier leAI spécialisé (celui que nous utilisons déjà au quotidien) duGénéral. Le premier excelle dans une tâche spécifique. Le second vise à Raison, apprendre, s’adapter dans des contextes très variés, avec un intelligence comparable à celle d’un être humain.

En d’autres termes, si l’IA actuelle peut battre un champion d’échecs, l’acte serait capable de Échec, codage, cuisine et diplomatie internationaleTout cela avec la même efficacité.

Une question d’entreprise, pas seulement de la technologie

Deepmind souligne: ce n’est pas une seule entreprise de décider ce qui constitue un «Dommages graves». C’est La société dans son ensemble -CITIZENS, INSTRUCTIONS, CHARGEMENTS, POLITICES-TO RÉFORMER LES LIMITES ET SONGUDES. Parce que l’âge, s’il se matérialise, ne sera pas seulement un outil: il deviendra Un acteur plein plié de notre avenir.

 
For Latest Updates Follow us on Google News
 

-

-
PREV L’entreprise unifie son service sur le pixel! -.
NEXT Ce lecteur a le meilleur rapport qualité / prix de notre comparaison -.