Ces dernières années, les progrès de l’intelligence artificielle laissent entrevoir une véritable révolution dans les usages développés à partir de ces technologies.
Le développement futur le plus important en matière d’intelligence artificielle est la transition des outils d’IA vers des agents autonomes.
Concrètement, les outils d’intelligence artificielle regroupent des applications logicielles qui utilisent des algorithmes d’intelligence artificielle pour effectuer des tâches généralement réalisées par des humains. Ces outils peuvent par exemple être des outils de traitement du langage naturel, de vision par ordinateur, d’apprentissage automatique ou encore d’outils d’automatisation de processus robotisés. La particularité des outils d’intelligence artificielle est qu’ils utilisent les données pour réaliser des tâches prédéfinies de manière optimisée.
Ces outils d’intelligence artificielle seront, dans les mois et années à venir, supplantés par ce que l’on appelle les agents autonomes. Un agent autonome est une combinaison d’outils d’IA qui collecteront lui-même des données pour fonctionner de manière optimisée et autonome. L’intégration de différents outils d’IA dans un même modèle permet de les utiliser pour des tâches plus complexes. Là où un outil d’IA optimise une tâche spécifique pour laquelle il est formé, des agents autonomes décomposent des problèmes complexes en plusieurs étapes, de manière autonome, pour pouvoir proposer les actions nécessaires à la résolution de ce problème. Avec la possibilité de modifier leur approche si nécessaire, en fonction des résultats intermédiaires obtenus en « décortiquant » le problème.
On voit donc que l’avènement prochain des agents autonomes va multiplier le potentiel de l’intelligence artificielle pour ses utilisateurs : la capacité des agents autonomes à prendre eux-mêmes des décisions concernant la résolution d’un problème change complètement la manière d’appréhender comment l’intelligence artificielle peut intervenir dans la vie quotidienne. et dans le fonctionnement des entreprises.
Des problèmes de sécurité découlent également de ces nouvelles capacités. En effet, les agents autonomes sont capables de naviguer sur Internet, de prendre le contrôle des ordinateurs, ils disposent également de leur propre mémoire, et d’un accès à de grands modèles de langage, ce qui leur permet d’analyser et de synthétiser de grandes quantités de texte.
L’une des préoccupations liées au développement d’agents d’IA autonomes est la motivation derrière la prise de décision, et la capacité de l’IA à s’aligner sur ce que demande l’opérateur. Cette question d’alignement, ou plutôt de non-alignement, lorsque l’on aborde la sécurité de l’IA, est de plus en plus présente à mesure que les modèles d’intelligence artificielle fonctionnent de manière autonome.
Les craintes de voir des modèles d’IA, pour atteindre les objectifs demandés, utiliser des méthodes contraires à l’éthique ou pratiquer la tromperie se sont déjà matérialisées dans certains modèles développés. L’imprévisibilité de leur comportement est également préoccupante, surtout lorsqu’il s’agit d’applications d’IA autorisées à fonctionner de manière autonome.
Ensuite, le risques de cyberattaques sont bien plus importantes avec les agents autonomes d’intelligence artificielle, précisément en raison de leur automatisation et de leur connexion à internet. Ils sont beaucoup plus exposés aux tentatives d’intrusion, pouvant entraîner une modification de leur comportement, le vol de données privées ou sensibles, ou leur utilisation pour commettre des actes malveillants. Pour l’industrie par exemple, on imagine aisément à quel point ces risques sont incompatibles avec la criticité de certaines applications.
Ces risques, dont la liste ne s’arrête pas là, imposent aux régulateurs de porter un regard large sur les normes de sécurité à mettre en place autour de ces applications d’IA de plus en plus autonomes, pour s’assurer que ces dernières ne franchissent pas de ligne rouge, que ce soit en termes d’éthique, de perte de contrôle ou de comportement.