Les employés d’OpenAI mettent en garde contre une culture du risque et des représailles

Les employés d’OpenAI mettent en garde contre une culture du risque et des représailles
Les employés d’OpenAI mettent en garde contre une culture du risque et des représailles

Un groupe d’employés actuels et anciens d’OpenAI a publié une lettre publique avertissant que l’entreprise et ses concurrents construisent une intelligence artificielle avec des risques excessifs, sans surveillance suffisante et tout en muselant les employés qui pourraient être témoins d’activités irresponsables.

« Ces risques vont de l’aggravation des inégalités existantes à la manipulation et à la désinformation, en passant par la perte de contrôle des systèmes d’IA autonomes pouvant entraîner l’extinction de l’humanité », lit-on dans la lettre publiée sur righttowarn.ai. « Tant qu’il n’y aura pas de contrôle gouvernemental efficace sur ces sociétés, les employés actuels et anciens feront partie des rares personnes qui peuvent les tenir responsables. »

La lettre appelle non seulement OpenAI, mais toutes les sociétés d’IA à s’engager à ne pas punir les employés qui dénoncent leurs activités. Il appelle également les entreprises à mettre en place des moyens « vérifiables » permettant aux travailleurs de fournir des commentaires anonymes sur leurs activités. « Les protections ordinaires des lanceurs d’alerte sont insuffisantes car elles se concentrent sur les activités illégales, alors que bon nombre des risques qui nous préoccupent ne sont pas encore réglementés », indique la lettre. “Certains d’entre nous craignent raisonnablement diverses formes de représailles, compte tenu de l’histoire de tels cas dans l’industrie.”

OpenAI a fait l’objet de critiques le mois dernier après qu’un article de Vox a révélé que l’entreprise avait menacé de récupérer les capitaux propres des employés s’ils ne signaient pas d’accords de non-dénigrement leur interdisant de critiquer l’entreprise ou même de mentionner l’existence d’un tel accord. Sam Altman, PDG d’OpenAI, https://twitter.com/sama/status/1791936857594581428 qu’il n’était pas au courant de tels arrangements et que la société n’avait jamais récupéré les capitaux propres de qui que ce soit. Altman a également déclaré que la clause serait supprimée, ce qui permettrait aux employés de s’exprimer librement.


Vous avez un conseil ?

Êtes-vous un employé actuel ou ancien d’OpenAI ? Nous aimerions avoir de vos nouvelles. À l’aide d’un téléphone ou d’un ordinateur non professionnel, contactez Will Knight au [email protected] ou en toute sécurité sur Signal au wak.01.


OpenAI a également récemment modifié son approche de la gestion de la sécurité. Le mois dernier, un groupe de recherche OpenAI chargé d’évaluer et de contrer les risques à long terme posés par les modèles d’IA les plus puissants de l’entreprise a été effectivement dissous après le départ de plusieurs personnalités éminentes et le reste des membres de l’équipe ont été absorbés dans d’autres groupes. Quelques semaines plus tard, l’entreprise a annoncé avoir créé un comité de sûreté et de sécurité, dirigé par Altman et d’autres membres du conseil d’administration.

En novembre dernier, Altman a été licencié par le conseil d’administration d’OpenAI pour avoir prétendument omis de divulguer des informations et les avoir délibérément induits en erreur. Après une bagarre très publique, Altman est revenu dans l’entreprise et la plupart des membres du conseil d’administration ont été évincés.

“Nous sommes fiers de notre expérience en matière de fourniture des systèmes d’IA les plus performants et les plus sûrs et croyons en notre approche scientifique pour gérer les risques”, a déclaré la porte-parole d’OpenAI, Liz Bourgeois, dans un communiqué. « Nous convenons qu’un débat rigoureux est crucial compte tenu de l’importance de cette technologie et nous continuerons à collaborer avec les gouvernements, la société civile et d’autres communautés à travers le monde. »

Les signataires des lettres comprennent des personnes qui ont travaillé sur la sécurité et la gouvernance chez OpenAI, des employés actuels qui ont signé de manière anonyme et des chercheurs qui travaillent actuellement dans des sociétés d’IA rivales. Il a également été approuvé par plusieurs chercheurs de renom en IA, notamment Geoffrey Hinton et Yoshua Bengio, qui ont tous deux remporté le prix Turing pour leurs recherches pionnières en IA, et Stuart Russell, un expert de premier plan en matière de sécurité de l’IA.

 
For Latest Updates Follow us on Google News
 

PREV L’Eure-et-Loir placée en alerte orange pluie-inondation ce vendredi 21 juin
NEXT Les prix du Ryzen 8000G baissent, résultats