le futur est déjà là et vous ne l’aimerez peut-être pas

le futur est déjà là et vous ne l’aimerez peut-être pas
le futur est déjà là et vous ne l’aimerez peut-être pas

En février, un homme a créé le buzz sur la toile en développant un programme, basé sur la technologie ChatGPT, pour discuter sur Tinder. Grâce à l’intelligence artificielle, il a discuté avec 5 200 femmes. Et c’est grâce à cette méthode qu’il a fini par trouver une épouse. Mais l’IA est-elle aujourd’hui si efficace qu’elle puisse tromper les humains ? Selon une étude, il est déjà quasiment impossible de faire la différence entre une conversation avec un chatbot comme ChatGPT et une conversation avec une personne réelle.

Un test révélateur

Des chercheurs du Département des Sciences Cognitives de l’Université de Californie à San Diego ont mené une série de tests de Turing (qui consistent à déterminer si l’IA est capable de raisonner comme un humain) sur ELIZA, un chatbot des années 1960, le modèle GPT-3.5, et le modèle GPT-4. Essentiellement, les participants à l’étude ont eu des discussions de 5 minutes, soit avec un humain, soit avec l’un de ces chatbots. On leur a ensuite demandé s’ils discutaient avec une intelligence humaine ou artificielle. Et les résultats ont été étonnants. En effet, si seulement 22% des personnes ayant discuté avec ELIZA pensaient parler à un humain, ce taux est très élevé, 54%, parmi les personnes ayant discuté avec GPT-4. En revanche, le taux est de 67 % chez les personnes ayant discuté avec de vrais humains.

A noter que pour que GPT-4 soit convaincant, les chercheurs ont personnalisé les réponses du modèle via une invite personnalisée, qui définissait par exemple le ton à adopter. Mais quoi qu’il en soit, en plus de montrer à quel point GPT-4 est avancé, l’étude met également en garde contre les dangers de cette évolution technologique. « Les résultats ont des implications pour les débats autour de l’intelligence artificielle et, de manière plus urgente, suggèrent que la tromperie des systèmes d’IA actuels pourrait passer inaperçue. »» lit-on dans la publication des chercheurs, hébergée sur Arxiv.

Une IA encore plus intelligente est déjà en préparation

L’étude met en avant la capacité du GPT-4 à tromper les humains, alors qu’OpenAI travaille déjà sur une version encore plus avancée de ce modèle. Dans une interview, Mira Murati, CTO d’OpenAI, a évoqué la prochaine évolution de la technologie ChatGPT. Cela compare le niveau d’intelligence du GPT-3 à celui d’un enfant. Quant à GPT-4, il aurait le niveau d’intelligence d’un lycéen. Le prochain modèle, en revanche, aurait l’intelligence d’une personne titulaire d’un doctorat. « Les choses évoluent et s’améliorent assez rapidement », elle explique. Et si OpenAI n’a pas de date précise, pour le moment, Mira Murati estime que ce modèle de niveau doctorat pourrait arriver d’ici un an et demi.

Dans un communiqué annonçant la création d’un comité de sécurité interne, OpenAI a également évoqué le développement de son prochain modèle d’IA : « OpenAI a récemment commencé à former son prochain modèle frontière et nous prévoyons que les systèmes qui en résulteront nous amèneront au niveau supérieur de capacités sur notre chemin vers l’AGI. Bien que nous soyons fiers de construire et de commercialiser des modèles qui sont à la pointe du secteur en termes de capacités et de sécurité, nous attendons avec impatience un débat approfondi à ce moment important.

  • Il est de plus en plus difficile de savoir si l’on discute avec un humain ou une intelligence artificielle
  • Dans un test de Turing, 54 % des participants ayant discuté avec GPT-4 pensaient discuter avec une vraie personne.
  • Cependant, OpenAI développe déjà une version encore plus avancée de son modèle d’intelligence artificielle

Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google News et WhatsApp.

 
For Latest Updates Follow us on Google News
 

PREV Attaques par rebond via le service Polyfill.io
NEXT Quelle montre connectée de sport à moins de 30 euros Tout savoir sur cette offre limitée ce mardi