« Le monde n’est pas prêt… » aux dangers de l’IA, prévient un ancien employé d’OpenAI

« Le monde n’est pas prêt… » aux dangers de l’IA, prévient un ancien employé d’OpenAI
« Le monde n’est pas prêt… » aux dangers de l’IA, prévient un ancien employé d’OpenAI

Après le départ de son co-fondateur, OpenAI vient de perdre son principal conseiller chargé de superviser la « Super Intelligence ». L’entreprise ne se fixe plus de limites.

Évolue-t-on progressivement vers un scénario autrefois réservé aux films de science-fiction ? C’est à dire une époque où l’intelligence artificielle devient vraiment puissante et il n’y a plus de limite ? Si on a encore du mal à y croire, certains experts du domaine, qui en sont encore conscients, le voient venir. Selon Le bordOpenAI, créateur de ChatGPT, a dissous il y a quelques jours son équipe chargée de surveiller les risques d’une IA trop puissante. La limite étant dépassée, il est temps de jouer !

Changement de direction chez OpenAI et départ en cascade

Encore moins populaire qu’aujourd’hui, OpenAI s’est révélé au monde en 2022 en lançant ChatGPT. Le public voit et admire un modèle de langage capable de simuler une véritable discussion, comme les humains. Au fil des mois, l’entreprise a lancé plusieurs produits et sa valeur est montée en flèche. Parmi les créateursl’idée de profiter pleinement de cet énorme engouement car l’IA commence à germer. Mais si certains n’y voyaient que l’argent, d’autres voulaient quand même jouer avec l’éthique. Ceci étant dit, OpenAI forme en juillet 2023 une équipe spécialisée dans l’étude des risques de l’intelligence artificielle.

En lançant des produits de plus en plus utilisés, un changement d’orientation commence à se dessiner au sein de l’entreprise qui s’était donné pour mission de développer et promouvoir une intelligence artificielle générale « sûre et bénéfique à toute l’humanité ». Jusqu’ici organisation à but non lucratif, OpenAI ne veut plus se fixer de limites, tant la concurrence devient rude. Un changement d’orientation qui a conduit au départ, il y a quelques mois, deIlya Sutskever, son co-fondateur et Jean Leekeresponsable du Superalignement. Ce dernier a avancé la raison suivante : « La culture et les processus de sécurité sont passés au second plan face aux produits brillants. »

À VOIR AUSSI : Un chatbot IA est accusé d’avoir poussé un enfant au suicide : comment est-ce possible et que nous dit-il ?

Quand OpenAI sacrifie la sécurité sur l’autel de l’innovation

Le 23 octobre 2023, Miles Brundage, conseiller principal chargé de superviser « Super Intelligence », annonce son départ de l’organisation. Et pour cause, OpenAI ne veut plus prendre de recul face aux dangers que pourrait représenter l’IA. C’est notamment la raison pour laquelle elle a choisi de dissoudre Préparation à l’AGIqui l’a conseillé sur les risques d’une intelligence artificielle trop puissante.

Pour Miles Brundage, « Il est peu probable que l’IA soit aussi sûre et bénéfique que possible sans un effort concerté pour y parvenir. ». C’est pourquoi il souhaite rejoindre ou créer un organisation à but non lucratif qui travaille pour la recherche sur les politiques en matière d’IA. Selon lui, des voix indépendantes, sans aucun conflit d’intérêt, pourraient inciter à la réflexion sur le sujet. Car entre progrès technologique et responsabilité sociale, la frontière est ténue. Il appartient aux acteurs du secteur de naviguer entre ces deux pôles en faisant preuve d’intégrité plutôt que de céder aux sirènes du progrès aveugle.

BuzzWebzine est un média indépendant. Soutenez-nous en nous ajoutant à vos favoris sur Google Actualités :

 
For Latest Updates Follow us on Google News
 

PREV L’intelligence artificielle générative au service d’Antidote 12
NEXT meilleurs modèles et guide d’achat