Le chatbot Claude axé sur la sécurité arrive au Canada

Le chatbot Claude axé sur la sécurité arrive au Canada
Le chatbot Claude axé sur la sécurité arrive au Canada

Le chatbot d’intelligence artificielle (IA) Claude, l’un des plus en vogue du secteur technologique, est arrivé au Canada dans l’espoir de diffuser sa philosophie axée sur la sécurité.

Tara Deschamps

- Canadienne

Claude, qui peut répondre aux questions, résumer des documents, rédiger du texte et même coder, a été rendu disponible au Canada mercredi. La technologie lancée par la société émergente Anthropic, basée à San Francisco, en 2023, était déjà disponible dans plus d’une centaine de pays.

Elle traverse maintenant la frontière parce que l’entreprise a constaté des signes indiquant que les Canadiens sont impatients de se lancer dans l’IA, a déclaré Jack Clark, l’un des cofondateurs d’Anthropic et responsable des politiques de l’entreprise.

« Nous suscitons un énorme intérêt de la part des Canadiens pour cette technologie, et nous avons élargi nos produits ainsi que nos organisations de manière conforme, afin que nous puissions opérer dans d’autres régions », a-t-il déclaré.

type="image/webp"> type="image/jpeg">>>

PHOTO ANTHONY WALLACE, ARCHIVES DE L’AGENCE FRANCE-PRESSE

Jack Clark

L’entreprise a rendu sa politique de confidentialité plus claire et plus facile à comprendre avant le lancement de Claude au Canada.

Bien que le Canada ait eu accès à bon nombre des plus grands produits d’intelligence artificielle, certains chatbots ont mis plus de temps à arriver au pays.

Google, par exemple, n’a introduit son chatbot Gemini au Canada qu’en février parce qu’il négociait avec le gouvernement fédéral une loi l’obligeant à indemniser les entreprises médiatiques canadiennes pour le contenu publié ou réutilisé sur ses plateformes.

Malgré les retards, les Canadiens ont essayé de nombreux systèmes d’intelligence artificielle, notamment Copilot de Microsoft et ChatGPT d’OpenAI, qui ont déclenché la récente frénésie de l’IA lors de sa sortie en novembre 2022.

La sécurité, plus qu’une « quête secondaire »

Les fondateurs d’Anthropic se sont rencontrés à OpenAI, mais ont créé leur propre entreprise avant les débuts de ChatGPT et ont rapidement décidé que leur mission était de rendre Claude aussi sécurisé que possible.

« Nous avons toujours considéré la sécurité comme quelque chose qui, pendant de nombreuses années, a été considéré comme un complément ou une sorte de quête secondaire de l’IA », a déclaré Jack Clark.

« Mais notre pari chez Anthropic est que si nous en faisons le cœur du produit, cela crée à la fois un produit plus utile et plus précieux pour les gens, mais aussi plus sûr. »

Dans le cadre de cette mission, Anthropic n’entraîne pas par défaut ses modèles sur les données utilisateurs. Au lieu de cela, il utilise des informations accessibles au public sur Internet, des ensembles de données fournis par des sociétés tierces et des données fournies par les utilisateurs.

Elle s’appuie également sur une IA dite « constitutionnelle », c’est-à-dire qu’un ensemble de valeurs est donnée aux systèmes d’IA de l’entreprise, qui peuvent s’entraîner eux-mêmes afin de devenir plus utiles et moins nuisibles.

Chez Anthropic, ces valeurs incluent la Déclaration universelle des droits de l’homme des Nations Unies, qui met l’accent sur le traitement équitable des personnes sans distinction d’âge, de sexe, de religion et de couleur.

Les rivaux d’Anthropic en prennent note, selon M. Clark.

« Chaque fois que nous gagnons des clients – et c’est en partie pour des raisons de sécurité – d’autres entreprises y prêtent beaucoup d’attention et finissent par développer des produits similaires, ce qui, je pense, est une bonne incitation pour tous les acteurs du secteur », a-t-il déclaré.

Il s’attend à ce que cette tendance se poursuive.

« Notre point de vue général est que la sécurité de l’IA sera un peu comme les ceintures de sécurité des voitures et que si vous développez des technologies suffisamment simples et suffisamment performantes, tout le monde finira par les adopter parce qu’elles ne le sont pas. quelles bonnes idées. »

L’engagement d’Anthropic en faveur de la sécurité intervient alors que de nombreux pays en sont encore aux premiers stades de l’élaboration de politiques susceptibles de réglementer la manière dont l’IA peut être utilisée et de minimiser les dommages potentiels de la technologie. .

Le Canada a présenté un projet de loi axé sur l’IA en 2022, mais il ne sera mis en œuvre qu’en 2025. Le pays a entre-temps créé un code de conduite volontaire.

Le code exige que les signataires comme Cohere, OpenText et BlackBerry surveillent les risques des systèmes d’IA et testent les préjugés avant de les lancer.

Jack Clark ne s’est pas engagé à ce qu’Anthropic signe le code. Il a déclaré que l’entreprise se concentrait sur des efforts mondiaux ou au moins transnationaux, tels que le processus d’IA d’Hiroshima, que les pays du G7 ont utilisé pour produire un cadre visant à promouvoir une IA sûre, sécurisée et fiable. digne de confiance.

 
For Latest Updates Follow us on Google News
 

PREV Voici à quoi vous attendre – .
NEXT 3 smartphones haut de gamme à prix cassés – .