Modéré par Laurie Rousseau-Nepton, doctorante de l’Université Laval en astrophysique et professeure adjointe à l’Université de Toronto, le panel était présenté par l’Université Laval et Intact Corporation financière. Il a réuni des personnes diplômées de différents domaines : Charles Brindamour, PDG d’Intact Corporation financière et diplômé en sciences actuarielles, David Jeannette, consultant senior en technologies de l’information chez Apple et docteur en physique, Guillaume Macaux, directeur adjoint de l’Observatoire international des sciences sociétales. Impacts de l’IA et du numérique (OBVIA) et titulaire d’une maîtrise en droit, et Laurence Trottier, responsable des partenaires stratégiques chez Instacart et diplômée en sciences administratives.
La conclusion est unanime, tant du côté de l’Université Laval que du côté des entreprises : l’intelligence artificielle est là pour de bon. « Nous avons le devoir important en tant qu’université de veiller à ce que nos étudiants, nos professeurs et tout le personnel enseignant soient équipés et prêts à s’épanouir dans un monde en évolution qui nécessite d’immenses capacités. adaptation », a indiqué la rectrice de l’Université Laval, Sophie D’Amours, dans son discours de bienvenue. Pour les panélistes, la démocratisation de l’intelligence artificielle, notamment avec l’explosion de l’usage d’agents conversationnels comme Chat GPT, offre un monde de possibilités, mais apporte son lot de défis.
Des enjeux à traiter collectivement
Si tout le monde s’accorde sur l’importance d’éduquer et de former les individus à une utilisation saine, éthique et critique de l’intelligence artificielle, l’établissement de lois et de lignes directrices laisse certains panélistes perplexes, notamment face à la rapidité avec laquelle la technologie se déploie. « Pendant que nous discutons des enjeux et des pistes de régulation, des milliers de nouveaux modèles d’IA sont lancés quotidiennement. Oui, des règles et des lignes directrices, comme le projet de loi C-27 au Canada, doivent être mises en place, mais cela ne suffira pas à encadrer efficacement l’IA », déclare M. Brindamour, PDG d’Intact. . Pour lui, une partie de la solution réside dans la responsabilité des entreprises. « Chez Intact, par exemple, nous avons établi un processus de gouvernance de l’IA pour garantir que nos modèles sont intègres, sécurisés, qu’ils protègent nos clients et qu’ils reposent sur l’excellence scientifique. Nous disposons également de plateformes pour évaluer les résultats susceptibles de générer des biais. Enfin, nous avons nommé à notre conseil d’administration l’un des pionniers de la recherche en intelligence artificielle en Amérique du Nord, Stuart J. Russell, pour nous guider dans l’établissement d’un cadre de gouvernance rigoureux. .
Pour David Jeannette, consultant senior en technologies de l’information chez Apple, des choix devront être faits en raison d’une énergie et de ressources limitées. « Nous devons veiller à ce que la technologie et nos efforts soient orientés vers ce qui a le plus grand impact sur notre société. Voulons-nous une intelligence artificielle qui nous permette de prendre de meilleures photos avec nos téléphones ou voulons-nous plutôt une IA qui nous permettra de faire des progrès significatifs en matière de santé, par exemple ?
Les défis en matière de gestion des ressources humaines sont inévitables pour Laurence Trottier, responsable des partenaires stratégiques chez Instacart. « Je vois se dessiner au sein des entreprises un clivage important entre salariés de différentes générations. Entre ceux qui utilisent l’IA au quotidien et ceux qui s’en tiennent à des méthodes plus traditionnelles.
Pour Guillaume Macaux, directeur adjoint de l’OBVIA, l’éducation est la clé pour faire face aux défis liés à l’IA. « Il faut non seulement se former, dans un contexte professionnel, à bien utiliser l’IA, mais aussi, plus largement, être capable, en tant que citoyen, d’identifier les moments où nous interagissons avec des systèmes « d’IA ou de contenus générés par l’IA ».
Interrogé sur les impacts de l’IA dans nos universités, tant sur les techniques d’enseignement que sur la qualité des apprentissages, le recteur a partagé certaines des approches préconisées par l’Université Laval. « Nous continuons à développer l’esprit critique de nos étudiants. À partir de ce qu’ils apprennent en cours, on peut leur demander de critiquer le travail de l’IA, par exemple.» L’Université Laval a également adopté des principes directeurs pour régir l’utilisation de l’IA.
Un optimisme prudent
Le potentiel et les applications de l’intelligence artificielle sont presque infinis. L’IA peut jouer un rôle crucial dans l’optimisation de nos ressources, le développement de technologies durables et l’analyse d’énormes quantités de données pour nous aider à prendre de meilleures décisions. Lutte contre le changement climatique, santé mondiale, sécurité alimentaire, plusieurs enjeux mondiaux pourraient bénéficier des progrès accélérés provoqués par l’IA. « Nous ne devons pas restreindre le développement de l’IA. Il faut cependant veiller à ce que son développement ne repose pas sur quelques grands acteurs et que son contrôle soit mieux réparti », explique David Jeannette.
Invités à un cocktail suite au panel, les diplômés présents ont pu poursuivre les échanges et renouer avec d’anciens camarades de classe et des représentants de leur alma mater. « L’objectif était de garder le contact avec nos diplômés de la région de Toronto », explique Caroline Girard, chef du service de philanthropie et des relations avec les anciens. Nous sommes fiers de leurs réussites et de leur attachement à l’Université Laval.
Related News :