Le développement technologique est responsable d’énormes progrès dans la communication interpersonnelle et l’accès à l’information. Au milieu de ces points positifs, une épidémie inattendue émerge : l’infobésité, favorisant encore davantage la désinformation. Un tel état de fait est dû à la surabondance dont la véracité est souvent douteuse, ce qui rend complexe la prise de décision dans les affaires.
Sachant que la détection des éléments trompeurs par l’humain est souvent défaillante, dans ce contexte il apparaît urgent de développer un outil d’aide à la décision. Dans cette perspective, la thèse d’Andrés Romero « L’intelligence artificielle comme facilitateur de la prise de décision » demande quelle solution informatique peut être mise en œuvre pour faciliter la prise de décision dans un environnement de manipulation de l’information ? L’intelligence artificielle pourrait-elle être une solution ?
L’évolution des informations
Ayant plusieurs significations selon les milieux professionnels, l’information vient étymologiquement du latin « informare » qui signifie « donner forme à », « se faire une idée de ». Cela suppose que l’information nécessite que le travail cognitif soit nommé comme tel, puisque la donnée en est l’élément brut. Plus clairement, il s’agit de « données auxquelles un sens (ou une interprétation) a été ajouté ».
L’accès à l’information telle que nous la connaissons aujourd’hui avec des machines hyper sophistiquées ne s’est pas toujours fait de cette manière. Dès le plus jeune âge de l’humanité, les gestes et les dessins rupestres ont été utilisés comme moyens de communication. Plus tard, avec l’apparition de la machine à imprimer au XVe siècle, et d’autres médias d’information comme le cinéma et le phonographe au XIXe siècle, sa diffusion devient massive. Ce caractère sera amplifié avec l’avènement de l’ordinateur au XXe siècle. Dans un premier temps, il ne s’agira que de communication entre humains, puis entre machines. Cette évolution a entraîné une explosion de l’information portée par l’apparition des réseaux sociaux, donnant naissance au métier du big data, et posant le problème de sa fiabilité.
L’allusion à cette caractéristique met en évidence la véritable manipulation de l’information à travers l’utilisation de techniques de marketing dans le domaine publicitaire et à travers une surveillance numérique omniprésente, influençant les utilisateurs dans leur prise de décision.
Sous l’influence de la manipulation de l’information
La prise de décision est régie par des paramètres de toutes sortes, notamment les émotions, les habitudes, l’instinct, la personnalité, les informations et bien d’autres. Tous ces éléments limitent la cognition humaine, l’empêchant de prendre une décision totalement rationnelle.
La rationalité partielle lors du processus de décision est flagrante sur les réseaux sociaux, au service des intérêts personnels. En mai 2017, par exemple, un journal australien a démontré que Facebook profitait de la vulnérabilité des utilisateurs pour influencer les décisions d’achat de produits des adolescents.
Face à cette manipulation, des mesures sont prises pour la détecter. C’est le cas des décodeurs de divers médias réputés qui procèdent à « la récupération, la compilation, l’explication et le classement des rumeurs. En rectifiant les faits, ils expliquent au public si une rumeur est vraie ou non. « .
Dès la sortie de la manipulation
Afin d’identifier la tromperie, l’intelligence artificielle se présente comme une solution. Le traitement du langage naturel (NLP) est un outil. Elle correspond à toutes les méthodes linguistiques permettant de transformer un texte en représentation formelle, afin d’effectuer des calculs pour retrouver des textes similaires, extraire des informations précises ou identifier des schémas de manipulation d’informations. Ceci est rendu possible grâce aux composantes du langage : syntaxe, morphologie, lexicologie, etc.
Ces composantes donnent lieu à des techniques d’analyse de l’information : étiquetage morphosyntaxique et lemmatisation (attribution d’une forme neutre et générique à un mot). Bien que ces techniques semblent prometteuses, de nombreuses applications NLP sont considérées comme difficiles à utiliser et peu intéressantes d’un point de vue business en raison de l’ambiguïté du langage humain.
Semblable au NLP, le web mining vous permet de découvrir et d’extraire automatiquement des informations à partir de documents et de services sur le Web. Il vise à identifier des modèles utiles dans un ensemble de corpus de textes. Quels modèles influenceront la prise de décision des humains qui doivent se soumettre au processus de filtrage du web mining, afin de discerner les vraies informations des fausses. Plusieurs indices linguistiques rendent possible cette opération complexe :
- la relation entre les mots,
- les syllabes,
- le sens des mots.
On peut également citer la grammaire des fausses nouvelles se traduisant par l’utilisation de phrases grammaticalement correctes, et la simplicité des courts tweets et publications Facebook. Tout cela renforcé par des arguments d’autorité comme les institutions reconnues pour donner une légitimité à l’information. Par ordinateur, l’indice de tromperie repose sur l’absence du facteur contextuel.
Résultats d’expérimentation et de recherche
L’expérimentation de l’étude rapportée dans la thèse d’Andrés Romero est réalisée dans une startup Proleads. L’objectif principal de Romero est d’améliorer la qualité des résultats des moteurs de recherche de l’entreprise. Dans une première approche, elle utilise l’analyse lexicale pour identifier l’équivalence des formes lexicales et dans la seconde, le web mining et la technique NLP sachant qu’un corpus de 3 millions de textes comporte un taux élevé de présence de pages impertinentes. De là il ressort :
- Une augmentation de la classification des pages d’erreurs avec une précision jusqu’à 99,7%, soit 15% de pages d’erreurs identifiées par rapport à l’approche précédente.
- Le modèle de classification des pages de contact a une précision de 98% avec une augmentation de 10% des pages d’erreur identifiées par rapport à l’approche précédente.
En dehors de l’entreprise, Romero explore le web mining dans des situations de manipulation d’informations. Son choix concerne le Covid-19 qui suscite des débats tant dans la société que dans les entreprises. L’idée ici est de voir dans quelle mesure la technique NLP acceptant l’ajout d’algorithmes de machine learning peut simplifier la prise de décision dans ce contexte.
Ici le corpus étudié est le décodex, les décodeurs du Monde. Après avoir identifié et analysé les ressources web parlant du covid, et prétraité les bases de données pour récupérer les URL, le chercheur conclut que :
- La PNL et l’apprentissage automatique facilitent le processus de prise de décision en diagnostiquant la manipulation de l’information.
Référence
Andrés Romero. L’intelligence artificielle comme facilitateur de prise de décision. Gestion et gestion. 2020.
En ligne https://dumas.ccsd.cnrs.fr/dumas-03000582v1
Voir plus d’articles de cet auteur