Sécurité de l’intelligence artificielle | « Le Canada prend les devants », déclare le ministre Champagne

Le Canada tentera de construire un mur de sécurité autour de l’intelligence artificielle (IA), dont la technologie continue d’être perfectionnée à grande vitesse, augmentant ainsi non seulement son potentiel bénéfique, mais également les risques et les dangers qu’elle présente pour la société. Entreprise.

Pierre Saint-Arnaud

La Presse Canadienne

Le ministre fédéral de l’Innovation, des Sciences et de l’Industrie, François-Philippe Champagne, a lancé l’Institut canadien pour la sécurité de l’intelligence artificielle (ICSIA), promis dans le dernier budget de son gouvernement.

«C’est rare dans la vie qu’on a la chance d’être témoin, de contribuer au progrès pour protéger l’humanité», a-t-il déclaré, dans les bureaux du Mila, l’Institut québécois d’intelligence artificielle, aux côtés de son fondateur, le professeur Yoshua Bengio.

«Déjà parti dans un endroit inquiétant»

L’Institut bénéficiera d’un budget de 50 millions sur cinq ans et rassemblera des chercheurs de haut niveau qui réfléchiront aux moyens de mettre en place des garde-fous autour de cette technologie qui pose déjà des problèmes, a expliqué le professeur Bengio. « Il y a déjà de la désinformation. Le défi est que l’intelligence artificielle pourrait développer les outils d’influence et de persuasion. On le voit déjà avec les hyperfakes [deep fakes]. »

Les expériences avec les outils d’IA, a-t-il déclaré, ont démontré « que la machine est capable d’influencer mieux que l’humain ». Nous sommes déjà dans une situation inquiétante et nous devons y faire face. En outre, a-t-il soutenu, « nous voulons nous assurer que l’IA ne soit pas utilisée de manière dangereuse par des régimes autoritaires et qu’elle ne nous explose pas à la figure ».

type="image/webp"> type="image/jpeg">>>

PHOTO CHRISTINNE MUSCHI, LA PRESSE CANADIENNE

Le professeur Yoshua Bengio (à gauche) regarde François-Philippe Champagne, ministre fédéral de l’Innovation, de la Science et de l’Industrie

L’Institut canadien se joint à deux autres organisations du genre, l’une aux États-Unis, l’autre au Royaume-Uni, et l’annonce de sa création intervient à la veille d’un sommet international sur la sécurité de l’intelligence artificielle, qui se tiendra en novembre prochain. 20 et 21 à San Francisco, États-Unis.

Peurs dans l’entreprise

« Le Canada prend les devants pour garantir que nous disposerons d’une technologie qui servira l’humanité, qui sera dotée d’un bon nombre de règles et de cadres », a déclaré M. Champagne.

Le Canada accuse un peu de retard dans l’intégration de l’intelligence artificielle dans divers secteurs économiques et les craintes qu’elle suscite ne sont pas étrangères à ce retard, a fait valoir le président-directeur général de l’Institut canadien de recherches avancées (CIFAR), Stephen Toope. « Plusieurs chefs d’entreprise nous ont dit que, pour adopter l’IA en toute confiance, ils ont besoin d’assurances en matière de sécurité et d’un environnement réglementaire solide. » Le CIFAR sera responsable du volet recherche de l’Institut.

« Si nous voulons passer de la peur aux opportunités, nous devons bâtir la confiance », a soutenu le ministre Champagne. Et les répercussions de cette confiance se feront sentir dans de plus en plus d’aspects de la vie quotidienne des Canadiens, comme il l’a illustré : « Peu nous importe si l’intelligence artificielle vous aide à choisir la meilleure pizza que vous voulez un jeudi soir en famille, mais nous sommes préoccupés par l’intelligence artificielle qui décidera si vous avez un prêt ou si par exemple vous allez avoir une police d’assurance ou à la rigueur si nous allons vous proposer un emploi, car c’est là qu’il peut y avoir des écarts et c’est ce que nous voulons empêcher. »

type="image/webp"> type="image/jpeg">>>

PHOTO CHRISTINNE MUSCHI, LA PRESSE CANADIENNE

Professeur Yoshua Bengio et François-Philippe Champagne, ministre fédéral de l’Innovation, de la Science et de l’Industrie

Travailler en amont

Yoshua Bengio reconnaît que la tâche sera difficile. « Nous devons travailler avec les entreprises (d’IA) pour évaluer ces risques et les atténuer. Je pense aux problèmes d’alignement – ​​comment faire en sorte que l’IA se comporte d’une manière qui correspond à nos intentions, à nos lois – et de contrôle, pour qu’elle agisse dans le sens de ce que nous voulons, par exemple. dans le contexte de la cybersécurité et de la désinformation. »

L’expert estime qu’il existe des pistes d’intervention d’abord directement au stade de la fabrication des systèmes d’IA. « Si le système d’IA est construit avec des garde-fous qui l’empêchent de produire des contenus dangereux pour la démocratie, toxiques [il donne l’exemple de la pornographie juvénile]il y a des choses qu’on peut faire techniquement en amont. » Les concepteurs de ces systèmes devraient donc rendre leur utilisation plus difficile « aux pays qui veulent les utiliser contre nous. C’est une question de sécurité importante, c’est une question de conception pour ces systèmes », dit-il.

Plateformes impuissantes

Une autre partie du problème ne réside pas dans les mains des concepteurs de ces systèmes, mais dans celles des géants du web qui laissent tout passer, déplore M. Bengio. « Les plateformes doivent avoir une responsabilité. Aujourd’hui, ils se trouvent dans une zone grise. […] Il est si simple de créer un compte sur l’une de ces plateformes et de le faire de manière anonyme. Il est clair que c’est une porte ouverte aux groupes qui veulent déstabiliser nos démocraties. »

Une partie de la solution, suggère-t-il, pourrait très bien résider dans l’IA elle-même. « Du côté technologique, il y a des chercheurs qui tentent de voir comment on pourrait utiliser l’IA pour détecter qu’un contenu est faux ou trompeur ou viole certaines normes. »

Un autre problème posé par l’IA est son utilisation de contenus protégés par le droit d’auteur. Les outils d’IA comme ChatGPT sont formés, par exemple, à la lecture de journaux et de livres en tout genre. Cette question est sur toutes les lèvres à l’échelle internationale, reconnaît Yoshua Bengio. « Des procès sont en cours. Ce n’est pas une question facile. Nous espérons qu’il convergera le plus rapidement possible de manière à permettre l’innovation et à protéger ceux qui créent du contenu. »

Et au Canada ? Le ministre Champagne n’avance qu’avec la plus grande prudence sur cette question. « Il y a souvent, dans ces modèles, de la propriété intellectuelle qui est utilisée et à ce moment-là, la question est : comment rémunérer ceux qui ont les droits sur cette propriété intellectuelle ? L’intelligence artificielle est soumise au droit d’auteur. Il s’agit d’une nouvelle technologie, mais elle n’enlève rien aux principes de base qui ont toujours existé. Nous tenons actuellement une consultation publique au Canada précisément pour aborder cette question», explique M. Champagne.

 
For Latest Updates Follow us on Google News
 

PREV Kyiv a été la cible d’une vaste attaque de drones russes
NEXT Yves Missi fait ses débuts avec les New Orleans Pelicans !