Une expérience et une publication récente d’Apollo Research viennent de semer encore plus de confusion autour de ces sujets. Les chercheurs ont mené des expériences avec les dernières versions des IA des principaux acteurs. Un objectif général a été initialement fixé. Et puis des instructions ont été données plus tard pour détourner l’IA du programme initial. Malgré ces injonctions, les IA sont restées concentrées sur la préservation de l’objectif premier, et ont déployé toute une série de stratégies pour y parvenir.
Ces stratégies pourraient aller jusqu’à la dissimulation et au mensonge. Et dans un cas, menacée d’arrêt, l’IA est allée jusqu’à exporter ce qu’elle pensait être ses paramètres vers un autre serveur, afin d’assurer sa « survie » et la poursuite de son objectif premier.
Cela apporte de l’eau au moulin de ceux qui alertent sur les dangers d’une IA qui obéirait trop aveuglément aux ordres, sans avoir ni le sens moral ni la capacité de recul nécessaire pour remettre les choses en question. Lorsque nous réfléchissons aux circonstances historiques dans lesquelles l’obéissance aveugle a conduit à des désastres, nous souhaitons au moins que ce type de recherche approfondisse la question.
Intelligence artificielle et transformation numérique des entreprises : la Belgique se porte bien
Concernant le titre, le terme utilisé dans les articles anglais est « Scheming », qui se traduit le mieux par « to Scheme » ou encore « to plot ».
Related News :