L’IA réussit désormais les tests pour distinguer les humains des robots

L’IA réussit désormais les tests pour distinguer les humains des robots
L’IA réussit désormais les tests pour distinguer les humains des robots

Vous avez certainement déjà été amené, en naviguant sur Internet, et en voulant accéder à un site, à répondre à un questionnaire destiné – c’est écrit – à établir que vous n’êtes pas un robot mais une personne réelle. Cela peut impliquer de copier une série de chiffres ou de lettres ou de cliquer sur des images représentant un lampadaire ou une devanture de magasin. C’est ce que nous appelons un test CAPTCHA – un acronyme qui signifie en anglais « Test de Turing public entièrement automatique visant à différencier les humains des ordinateurs ».

Alan Turing est un brillant mathématicien britannique qui a mis au point en 1950 un test basé sur la capacité d’une machine à imiter la conversation humaine. Ce terme CAPTCHA est une marque déposée en 2000 par l’Université Carnegie Mellon aux États-Unis. Ces petits formulaires servent notamment à éviter que les machines se connectent en grand nombre et, par exemple, saturent l’accès à un site internet.

Google a créé son propre modèle Captcha en 2009. Et depuis 2012, après la reconnaissance de texte, Google l’a remplacé par des images issues notamment de photographies d’espaces publics, prises sur Carte des rues Google. D’ailleurs, Google profite également de chacun de nos clics pour entraîner, à cette occasion, sa propre intelligence artificielle avec les réponses des internautes. Par exemple, qui confirment par leur clic la présence d’un feu tricolore ou d’un animal sur l’image.

Jusqu’à présent, seuls les humains ont réussi cet exercice de reconnaissance.

Mer-septembre 2024, trois chercheurs de l’École polytechnique fédérale de Zurich, en Suisse, ont mis au point une méthode ce qui permet de tromper à 100% les tests ReCaptcha de Google. Alors que jusqu’à présent les meilleurs scores étaient de 68 à 71 % de réussite.

Quel changement cette découverte apporte-t-elle ? Cela diminue le niveau de sécurité des sites.

  • Qu’il s’agisse de fausser les chiffres de fréquentation, en faisant douter de la réalité du public, potentiellement constitué de visites de machines,
  • Permettre de créer une multitude de comptes utilisateurs de manière automatisée, pour ensuite faire utiliser des profils fictifs à des fins de fraude,
  • Ou encore pour faciliter l’accès aux données, puisqu’un robot peut entrer puis naviguer sur un site et aspirer des données. Un sujet devenu important, à mesure que se poursuit la chasse à ces données, pour alimenter les bases documentaires afin d’alimenter les modèles d’intelligence artificielle.

L’IA peut-elle devenir malveillante ?

La plupart des grandes plateformes d’IA ont prévu d’interdire les usages habituellement considérés comme illicites. Mais la créativité humaine s’efforce de trouver des moyens de contourner ces blocages.

Ainsi en 2023, des tests en laboratoire menés par OpenAI sur ChatGPT-4 ont abouti à ce que cette IA propose des scénarios pour tromper ces systèmes Captcha. L’algorithme avait été corrigé pour éviter ce type d’écart. Mais des travaux sont en cours pour prendre en compte d’éventuels usages déviants.

Vers d’autres formes de contrôle à l’entrée des sites ?

Le risque est alors de développer des systèmes qui rendront plus compliqué l’accès à un site Internet. Cela ralentirait la fluidité de la navigation et compliquerait les usages numériques. Sans oublier que des versions encore plus complexes à résoudre pourraient mettre en difficulté les internautes/mobiles malvoyants. Qui sont déjà pénalisés par ces tests de reconnaissance d’images.

Il s’agit alors d’enrichir la gamme des technologies utilisées, pour détecter s’il s’agit d’un humain ou d’un robot. Cela peut se faire par exemple en analysant l’historique de navigation ou les mouvements de souris jugés trop mécaniques. Certains sites envisagent d’abandonner les CAPTCHA pour revenir aux demandes de confirmation classiques par email ou SMS.

Cet ouvrage académique illustre une fois de plus l’éternelle bataille numérique de l’épée et du bouclier. Mettre en place des mesures de protection qui devront évoluer avec l’ingéniosité des attaquants. Sans effrayer l’utilisateur de bonne foi. Un équilibre finalement très humain.

 
For Latest Updates Follow us on Google News
 

PREV dans les coulisses de la création du bouton de commande de la caméra
NEXT Le Pixel 9 envoie vos données à Google toutes les 15 minutes