ChatGPT au coeur des préparatifs
Selon les autorités, Livelsberger aurait consulté ChatGPT pour obtenir des informations techniques liées aux explosifsla vitesse des projectiles et la légalité des feux d’artifice en Arizona. Cette recherche, bien que basée sur des données accessibles au public, aurait permis de surmonter certains obstacles dans la planification de l’explosion. La police a également découvert un journal et une série de notes, qui confirment que l’attaque avait pour but d’envoyer un « signal d’alarme » sur l’état du pays.
OpenAI défend son outil
Face à ces révélations, OpenAI, la société derrière ChatGPT, a publié un communiqué. Il affirme que son modèle est conçu pour refuser les instructions nuisibles et affiche régulièrement des avertissements concernant les activités illégales basés sur des requêtes. “Nous sommes profondément attristés par cet incident et travaillons avec les forces de l’ordre pour soutenir l’enquête”, a déclaré OpenAI..
Sauf que les critiques estiment déjà que ces garde-fous restent insuffisants. L’expert en cybersécurité Paul Keener, par exemple, affirme que Les outils d’IA en sont encore à un stade précoce de réglementation. Il prédit même : « Les contrôles se renforceront à mesure que la technologie évolue. »
Un tournant pour la sécurité publique
Le shérif Kevin McMahill a qualifié cet événement de « moment inquiétant », insistant sur le fait que l’utilisation de l’IA dans ce type d’attaque constitue clairement un défi sans précédent pour les forces de l’ordre. De plus, les détails des recherches effectuées via ChatGPT par l’homme derrière l’attaque ont été partagés avec d’autres agences. pour mieux anticiper d’éventuels scénarios similaires.
L’explosion a fait sept blessés légers et peu de dégâts matériels. Livelsberger, qui s’est suicidé sur les lieux, a agi seul, selon la police. Ses notes personnelles évoquent des frustrations politiquesmais aucun lien direct avec des groupes extrémistes n’a encore été établi.
Même si ce cas reste pour l’instant isolé, il montre certains risques liés à une mauvaise utilisation des outils d’intelligence artificielle. Les débats sur la régulation de ces technologies, déjà en cours, pourraient bien s’intensifier. Si l’IA a encore beaucoup à offrir, elle pose encore de nouvelles questions en termes de sécurité et d’éthique.
Related News :