Les géants de l’IA doivent accepter que leurs collaborateurs expriment des doutes – rts.ch

Les géants de l’IA doivent accepter que leurs collaborateurs expriment des doutes – rts.ch
Les géants de l’IA doivent accepter que leurs collaborateurs expriment des doutes – rts.ch

Les entreprises les plus avancées dans le domaine de l’intelligence artificielle (IA) doivent accepter que leurs salariés portent publiquement un regard critique sur leurs activités et les risques liés à l’IA, ont réclamé plusieurs salariés d’OpenAI sous couvert d’anonymat ainsi que des anciens de la start-up. .

“Dans la mesure où ces entreprises ne sont pas soumises au contrôle des autorités, les salariés actuels ou anciens font partie des rares personnes qui peuvent leur demander des comptes”, expliquent les 13 signataires de la lettre ouverte, publiée mardi. Parmi eux figurent quatre salariés d’OpenAI et sept anciens élèves.

Ces signataires regrettent que « des clauses de confidentialité exhaustives les empêchent d’exprimer (leurs) inquiétudes » publiquement.

Dans la mesure où les problèmes que ces programmeurs souhaitent soulever ne concernent pas des activités illégales, ils ne peuvent bénéficier du statut de lanceur d’alerte, soulignent-ils.

“Certains d’entre nous craignent des représailles (s’ils communiquent ouvertement), étant donné les précédents qui existent dans l’industrie”, selon la lettre.

Risques potentiels d’extinction de l’humanité

Parmi les risques cités, « le renforcement des inégalités, la manipulation, la désinformation, allant jusqu’à la perte de contrôle des systèmes autonomes d’IA pouvant conduire à l’extinction de l’humanité ».

S’ils estiment que ces risques peuvent être limités « avec l’aide de la communauté scientifique, des autorités et du public », « les entreprises d’IA ont un intérêt financier à échapper à une surveillance efficace ».

Invité mercredi dans l’émission RTS Forum, Jean-Gabriel Ganascia, professeur d’informatique à la faculté des sciences de Sorbonne Université, a exprimé son scepticisme. Pour lui, cette communauté scientifique qui met en garde contre les dangers de l’IA est comparable aux incendies criminels des pompiers. “Ceux qui ont mis le feu vous expliquent que c’est dangereux et qu’ils vont l’éteindre”, ajoute-t-il.

Il rejette l’idée selon laquelle l’IA s’accumulerait jusqu’à nous échapper. « Ce sont des fables qui n’ont absolument aucun fondement. Ces grands industriels nous mettent en garde contre le danger, prétendant qu’ils en ont connaissance alors que nous l’ignorons. Et comme c’est très dangereux, dans leur grande générosité, Ils nous demandent les clés de la maison pour nous sauver. Moi, en tant que scientifique et citoyen, je refuse, je dis non », conclut-il.

>> Ecoutez les explications complètes de Jean-Gabriel Ganascia dans l’émission Forum :

L’intelligence artificielle est-elle un danger pour l’humanité ? Entretien avec Jean-Gabriel Ganascia / Forum / 6 min. / aujourd’hui à 19h00

Demandes des rédacteurs de lettres

Les auteurs de la lettre demandent donc aux grandes entreprises d’IA de « soutenir une culture de critique ouverte en permettant à leurs employés actuels et anciens d’exprimer publiquement leurs préoccupations liées à leurs technologies ».

Ils encouragent également la création de canaux de signalement anonymes en interne pour alerter de certains risques.

Open AI s’est dit « fier » de disposer de ce qu’il considère comme les systèmes d’IA « les plus puissants et les plus sûrs ».

“Nous partageons l’idée qu’un débat rigoureux est crucial compte tenu de la portée de cette technologie et nous continuerons à échanger avec les gouvernements, la société civile et d’autres entités à travers le monde”, a ajouté un porte-parole d’OpenAI.

Sujet radio et commentaires recueillis par Miruna Coca-Cozma/Mehmet Gultas

Adaptation web : Miroslav Mares et agences

 
For Latest Updates Follow us on Google News
 

PREV Les clients de WestJet sont furieux
NEXT toutes les opérations en Espagne restent suspendues jusqu’à nouvel ordre