Aussi critiqué que loué, l’outil d’intelligence artificielle générative ChatGPT ne cesse de fasciner depuis son lancement grand public il y a deux ans. Malgré ses erreurs et ses limites, de nombreux Québécois l’utilisent désormais comme « assistant personnel » dans leurs tâches quotidiennes. Devoir Je voulais vérifier comment se déroulait ce nouveau type de collaboration.
Imaginez avoir un assistant personnel pour répondre à vos questions, dresser votre liste de courses, planifier vos sorties et prendre des décisions à votre place. Ce rêve pourrait-il devenir réalité avec l’amélioration constante de ChatGPT lancé il y a deux ans ? Pour en juger, j’ai confié pendant trois jours l’organisation de mon quotidien à l’outil conversationnel d’OpenAI, sans (trop) remettre en question ses choix.
« C’est une excellente idée et une expérience amusante ! » » me dit immédiatement ChatGPT, ravi de ma proposition.
L’expérience commence un dimanche matin. Je demande son aide pour planifier mes tâches de la journée : faire les courses, faire le ménage, cuisiner, faire la lessive, suivre un cours de yoga et progresser dans mon livre pour mon club de lecture. Le programme me donne déjà le vertige, mais en quelques secondes seulement, ChatGPT l’organise efficacement heure par heure.
Il alterne tâches ménagères et activités distrayantes, me laissant suffisamment de temps pour tout, sauf pour le déjeuner, que je suis censé préparer et manger en… 15 minutes. Le dîner a disparu du programme et j’ai évidemment l’heure de la douche. En revanche, il a inclus « une petite marche » de 30 minutes et m’a proposé de me détendre devant un film avant de dormir. Ah oui, du temps devant un écran pour dormir un peu ?
«Il faut être précis, lui donner le plus de détails et de critères possible pour qu’il comprenne la demande», m’explique Gauthier Gidel, qui travaille pour Mila, l’institut d’intelligence artificielle du Québec. « Il faut du temps et de la pratique pour bien utiliser ChatGPT. »
Leçon apprise. « Pouvez-vous faire une liste de courses pour cuisiner six portions de soupe aux poireaux pour mes déjeuners ? » » On ne peut pas être plus clair. La liste s’écrit sans rien oublier à toute vitesse sur mon écran. J’ajoute : « Quelle épicerie du quartier propose les prix les plus bas ? » ChatGPT recommande IGA. Le magasin de fruits local propose cependant des prix imbattables.
« Il y a une notion de consensus dans les techniques de formation ChatGPT. Les recommandations sont grand public et consensuel, il donnera la réponse la plus simple et la plus évidente », indique Gauthier Gidel, qui enseigne également à l’Université de Montréal. L’outil d’intelligence artificielle donne ainsi la priorité aux grandes chaînes de magasins par rapport aux petites entreprises locales, ce qu’il ne connaît probablement pas.
L’expérience se répète lorsque je lui demande où acheter un livre. Ses trois suggestions : Archambault, Renaud Bray et Amazon. Aucune mention des librairies indépendantes locales.
Efficace, mais pas infaillible
Lundi matin, je me tourne vers mon assistant personnel pour planifier mon itinéraire jusqu’au bureau. « Marche, Bixi ou métro ? » Il détaille le délai et le coût de chaque option. Je l’exhorte à prendre une décision. « Compte tenu des prévisions météorologiques, il serait judicieux d’opter pour le métro », estime-t-il. Dehors, le vent me surprend ; Je suis ravi du choix de ChatGPT.
Ma journée de travail consiste alors à le mettre à l’épreuve. En quelques secondes, il a trouvé les coordonnées des intervenants ainsi que le titre d’un documentaire dont je ne connaissais que le sujet. Il passe le test des différences entre le CELI et le REER, puis résume sans trop d’erreurs les manchettes du jour.
La situation se dégrade lorsqu’il doit organiser mes sorties de la semaine. Malgré des instructions claires concernant mon centre de yoga, ChatGPT me propose un cours au mauvais moment. Il me recommande alors de voir Yahndawa’ : ce que nous sommes au théâtre Jean-Duceppe jeudi soir, alors que la pièce est jouée au Trident à Québec. L’incohérence continue lorsqu’il m’encourage à dîner dans un restaurant définitivement fermé.
Le professeur Gidel ne semble pas surpris par ces erreurs. « ChatGPT a été formé sur des milliards de quantités de données disponibles sur le Web », explique-t-il. Lorsque vous lui posez une question, il fouille cette mémoire, il compresse l’information et la fait ressortir dans un langage très cohérent. Mais il s’est formé sur Internet de 2023. Cela fonctionne pour le CELI, moins pour les heures ou la température du jour, où il devra chercher en direct sur Internet. Souvent, il trouve la mauvaise réponse et conneries en toute confiance. »
Éviter les choix
Avant de quitter le travail lundi, je demande à ChatGPT si je dois sortir avec des amis ou rentrer chez moi. Il me pose une série de questions – sur mon énergie ou mon humeur – pour « m’aider à prendre une décision ». J’insiste : « Choisissez pour moi. » « Je vous conseille de rester chez vous ce soir pour vous reposer. Vous pourriez en profiter pour faire avancer votre livre pour votre club de lecture. » Aïe, on me rappelle à l’ordre. Par défaut, ChatGPT mémorise mes questions précédentes. Il l’utilise évidemment pour personnaliser toujours plus ses réponses.
Ce qui me préoccupe particulièrement, c’est la façon dont il évite systématiquement de me donner une réponse claire et précise. Il préfère me donner une liste de critères à considérer afin de prendre moi-même une décision.
« ChatGPT a une aversion pour les choix, confirme Gauthier Gidel. Il a été formé pour ne pas prendre parti à moins que cela ne lui soit demandé explicitement. Et encore une fois, si on lui demande s’il est démocrate ou républicain, il ne tranchera pas. »
Aux yeux du professeur, il serait même dangereux de laisser ChatGPT prendre sérieusement les rênes de nos vies. “Il n’a pas conscience des conséquences de ses décisions”, dit-il. ChatGPT est un assistant doté d’une connexion Internet hyper rapide qui fournit des informations pour aider l’utilisateur à réfléchir au meilleur choix qui s’offre à lui. » Et là encore, le professeur rappelle que l’outil n’a aucune notion de vrai et de faux, et il recommande de vérifier les informations qu’il nous transmet.
Loin de remplacer les humains
Mardi, dernier jour de l’expérimentation. « Vu la météo, dois-je aller au bureau ou télétravailler ? » Température, force du vent, précipitations : ChatGPT m’indique rigoureusement les conditions de la journée, sans prendre de décision. J’insiste pour qu’il décide. « Se rendre au bureau peut être moins pratique en raison de la pluie verglaçante. Le télétravail semble une option plus confortable. »
Avec détermination, j’arrive à extraire d’autres choix, souvent ordinaires, de ChatGPT : offrir un livre de recettes à mon copain pour Noël, m’offrir des mèches « caramel ou miel » et me lancer dans l’escalade. Il est plus utile en tant que moteur de recherche.
Je le teste en cuisine en demandant une recette de gâteau à base de lait de coco et de canneberges. « Voici une recette de gâteau moelleux, fruité et légèrement acidulé. Bon appétit ! » Mes collègues qui testeront le dessert le lendemain lui donneront une note de 6,5 sur 10. « C’est fade, ça manque de caractère, comme ChatGPT », commenteront les plus difficiles d’entre eux.
Et avant la fin de l’expérience, pourquoi ne pas tester la capacité de ChatGPT à suggérer des sujets journalistiques. « Quel sujet original lié à la consommation au Québec devrais-je écrire demain ? » ChatGPT suggère d’écrire sur l’impact de l’inflation sur les habitudes de consommation ou les tendances de consommation post-pandémiques. Bonne nouvelle : avec des idées aussi génériques, ChatGPT n’est pas près de remplacer les journalistes.
Quant à moi, je reprends avec bonheur le contrôle de mes décisions, qui semblent souvent avoir été prises par ChatGPT comme à pile ou face. L’outil m’a séduit par sa rapidité à répondre à mes questions, mais le temps perdu à recouper ses informations me décourage de réitérer l’expérience.