Les États-Unis envisagent de restreindre l’accès de la Chine aux logiciels d’IA derrière des applications telles que ChatGPT Une mesure visant à limiter l’exportation de modèles d’IA propriétaires ou à source fermée

L’administration Biden est sur le point d’ouvrir un nouveau front dans ses efforts pour protéger l’IA américaine de la Chine et de la Russie, avec des plans préliminaires visant à placer des garde-fous autour des modèles d’IA les plus avancés, le logiciel de base des systèmes d’intelligence artificielle tels que ChatGPT, ont indiqué des sources.

ChatGPT est un chatbot développé par OpenAI et lancé le 30 novembre 2022. Basé sur des modèles de langage étendus (LLM), il permet aux utilisateurs d’affiner et d’orienter une conversation vers la longueur, le format, le style, le niveau de détail souhaité et la langue. Les invites et réponses successives de l’utilisateur sont prises en compte à chaque étape de la conversation comme contexte.

Le ministère du Commerce envisage une nouvelle initiative réglementaire visant à restreindre l’exportation de modèles d’IA propriétaires ou à Source fermée dont les logiciels et les données sur lesquels ils sont formés sont gardés secrets, ont déclaré trois personnes proches du dossier.

Toute action viendrait compléter une série de mesures mises en place au cours des deux dernières années pour bloquer l’exportation de puces d’IA sophistiquées vers la Chine, afin de ralentir le développement par Pékin de cette technologie de pointe à des fins militaires. Il sera néanmoins difficile pour les régulateurs de suivre le rythme des évolutions rapides du secteur.

L’ambassade de Chine a décrit cette approche comme acte typique de coercition économique et d’intimidation unilatérale, auquel la Chine s’oppose fermement ajoutant qu’elle prendrait mesures nécessaires pour protéger ses intérêts.

Actuellement, rien n’empêche les géants américains de l’IA, tels que OpenAI soutenu par Microsoft, Google DeepMind d’Alphabet et son rival Anthropic, qui ont développé certains des modèles d’IA fermés les plus puissants, de les vendre à presque n’importe qui dans le monde sans gouvernement. surveillance.

Les chercheurs du gouvernement et du secteur privé craignent que les adversaires américains puissent utiliser ces modèles, qui exploitent de grandes quantités de textes et d’images pour résumer des informations et générer du contenu, pour mener des cyberattaques agressives ou même créer de puissantes armes biologiques.

L’une des sources a déclaré que tout nouveau contrôle des exportations ciblerait probablement la Russie, la Chine, la Corée du Nord et l’Iran. Dans un rapport publié en février, Microsoft a déclaré avoir suivi des groupes de pirates informatiques affiliés aux gouvernements chinois et nord-coréens, ainsi que les services de renseignement militaires russes et les Gardiens de la révolution iraniens, alors qu’ils tentaient de perfectionner leurs campagnes de piratage informatique en utilisant de grands modèles linguistiques.

Puissance de calcul

Pour mettre en œuvre des contrôles à l’exportation sur les modèles d’IA, les sources ont indiqué que les États-Unis pourraient s’appuyer sur un seuil contenu dans un décret sur l’IA publié en octobre dernier, basé sur la puissance de calcul nécessaire à l’entraînement d’un modèle. Lorsque ce seuil est atteint, un développeur doit signaler ses projets de développement de modèles d’IA et fournir les résultats des tests au ministère du Commerce.

Ce seuil de puissance de calcul pourrait servir de base pour déterminer quels modèles d’IA seraient soumis à des restrictions à l’exportation, selon deux responsables américains et une autre Source au courant des discussions. Ils ont refusé d’être nommés car les détails n’ont pas été rendus publics.

Si ce seuil est utilisé, cela limitera probablement uniquement l’exportation de modèles qui ne sont pas encore sortis, car aucun n’a encore atteint ce seuil, même si le Gemini Ultra de Google est considéré comme proche de celui-ci. , selon EpochAI, un institut de recherche qui suit les tendances en matière d’intelligence artificielle.

L’agence est loin d’avoir finalisé une proposition de règle, ont indiqué les sources. Mais le fait qu’une telle mesure soit envisagée montre que le gouvernement américain cherche à combler les lacunes de ses efforts pour contrecarrer les ambitions de Pékin en matière d’IA, malgré les sérieux défis que représente l’imposition d’un régime réglementaire sévère pour cette technologie en évolution rapide.

Alors que l’administration Biden examine la concurrence avec la Chine et les dangers d’une IA sophistiquée, les modèles d’IA sont évidemment l’un des outils, l’un des points d’étranglement potentiels auxquels il faut réfléchir ici a déclaré Peter Harrell, un ancien responsable du Conseil de sécurité nationale. Il reste à voir si, dans la pratique, il est possible d’en faire un point d’étranglement contrôlable pour les exportations. il ajouta.

Armes biologiques et cyberattaques ?

La communauté américaine du renseignement, les groupes de réflexion et les universitaires sont de plus en plus préoccupés par les risques posés par des acteurs étrangers malveillants qui ont accès à des capacités avancées d’IA. Les chercheurs de Gryphon Scientific et de Rand Corporation ont noté que les modèles avancés d’IA peuvent fournir des informations susceptibles de contribuer à la création d’armes biologiques.

Le ministère de la Sécurité intérieure a déclaré que les cyberacteurs utiliseraient probablement l’IA pour développer de nouveaux outils pour permettre des cyberattaques plus importantes, plus rapides, plus efficaces et plus invasives dans son évaluation des menaces à la sécurité intérieure en 2024.

L’explosion potentielle de l’usage et de l’exploitation [de l’IA] c’est radical et on a effectivement beaucoup de mal à le suivre Brian Holmes, un responsable du Bureau du directeur du renseignement national, a déclaré lors d’une réunion sur les contrôles à l’exportation en mars, soulignant que les progrès de la Chine étaient particulièrement préoccupants.

La crise de l’IA

Pour répondre à ces préoccupations, les États-Unis ont pris des mesures pour endiguer le flux de puces d’IA américaines et des outils nécessaires à leur fabrication vers la Chine.

Ils ont également proposé une règle obligeant les sociétés américaines de cloud computing à informer le gouvernement lorsque des clients étrangers utilisent leurs services pour former de puissants modèles d’IA susceptibles d’être utilisés pour des cyberattaques.

Mais jusqu’à présent, elle n’a pas abordé la question des modèles d’IA eux-mêmes. Alan Estevez, qui supervise la politique d’exportation américaine au ministère du Commerce, a déclaré en décembre que l’agence étudiait des options pour réglementer les exportations de grands modèles linguistiques (LLM) avant de demander conseil au ministère du Commerce. ‘industrie.

Tim Fist, expert en politique en matière d’IA au sein du groupe de réflexion CNAS basé à Washington, estime que le seuil est une bonne mesure temporaire jusqu’à ce que nous développions de meilleures méthodes pour mesurer les capacités et les risques des nouveaux modèles .

Jamil Jaffer, ancien responsable de la Maison Blanche et du ministère de la Justice, a déclaré que l’administration Biden ne devrait pas utiliser de seuil de puissance de calcul, mais opter pour un contrôle basé sur les capacités du modèle et l’utilisation prévue. . Se concentrer sur les risques pour la sécurité nationale plutôt que sur les seuils technologiques est la meilleure solution car elle est plus durable et se concentre sur la menace. a-t-il déclaré.

Le seuil n’est pas gravé dans le marbre. L’une des sources a déclaré que le ministère du Commerce pourrait finir par fixer un seuil plus bas, en fonction d’autres facteurs, tels que le type de données ou les utilisations potentielles du modèle d’IA, comme la capacité de concevoir des protéines. qui pourrait être utilisé pour fabriquer une arme biologique.

Quel que soit le seuil choisi, les exportations de modèles d’IA seront difficiles à contrôler. De nombreux modèles sont des logiciels open Source, ce qui signifie qu’ils resteraient en dehors du champ d’application des contrôles à l’exportation prévus.

Même imposer des contrôles sur les modèles propriétaires les plus avancés s’avérera difficile, car les régulateurs auront probablement du mal à définir les bons critères pour déterminer quels modèles doivent être contrôlés, a déclaré M. Fist, notant que la Chine n’a probablement qu’environ deux ans de retard sur les États-Unis en matière de contrôle. développer son propre logiciel d’IA.

Les contrôles à l’exportation proposés auraient un impact sur l’accès au logiciel de base qui alimente certaines applications grand public comme ChatGPT, mais ne limiteraient pas l’accès aux applications en aval elles-mêmes.

Sources: L’administration Biden, le Département du Commerce des États-Unis

Et toi ?

Quelle est votre opinion sur le sujet ?

Trouvez-vous cette initiative de l’administration Biden crédible ou pertinente ?

Voir aussi :

La Chine a approuvé plus de 40 modèles d’IA pour un usage public au cours des six premiers mois alors que les autorités ont entamé le processus d’approbation, alors que le pays s’efforce de rattraper les États-Unis.

La Chine dépasse les États-Unis dans la recherche sur l’IA et la lutte pour la suprématie s’intensifie alors que les deux parties sont aux prises avec des problèmes de sécurité

 
For Latest Updates Follow us on Google News
 

PREV Percée dans les investissements dans les infrastructures
NEXT Biens immobiliers cotés, faut-il investir ? – .