Ce hacker recrée la voix d’un PDG pour arnaquer un employé sur WhatsApp

Ce hacker recrée la voix d’un PDG pour arnaquer un employé sur WhatsApp
Descriptive text here

Une grande entreprise a été la cible d’une tentative de fraude. Le hacker a utilisé l’intelligence artificielle pour imiter la voix du PDG et contacter un employé de l’entreprise sur WhatsApp.

Crédits : 123RF

Depuis plusieurs années, les pirates disposent d’un outil redoutablement efficace : leintelligence artificielle. Sans parler de la possibilité de créer des malwares avec ChatGPT, cela permet nouveau type d’arnaque qui ont déjà fait plusieurs victimes. L’idée etutilisez l’IA pour recréer la voix ou le visage de quelqu’un que vous connaissez. Parfois les deux à la fois. Par exemple, un escroc a réussi à extorquer 25 millions de dollars à une entreprise grâce à une fausse vidéoconférence plus grande que nature.

Vous pouvez également recevoir un appel d’un proche vous demandant de l’argent, sauf que c’est une IA qui imite sa voix. OpenAI, la maison mère derrière ChatGPT, a également dévoilé un programme capable de faire cela à partir de quelques secondes d’enregistrement. Le hacker en question ici a dû utiliser un service similaire puisqu’il a envoyé un message vocal sur WhatsApp avec la voix de Karim Toubba, le PDG de LastPasscélèbre gestionnaire de mots de passe. Un employé de l’entreprise a été visé.

Grâce à l’IA, ce hacker envoie un message vocal sur WhatsApp avec la voix d’un PDG

LastPass précise dans un communiqué que le hacker a échoué. “Comme la tentative de communication a eu lieu en dehors des canaux de communication professionnels normaux et en raison des soupçons de l’employé selon lesquels il y avait de nombreux signes caractéristiques d’une tentative d’ingénierie sociale (comme l’urgence forcée), notre employé a à juste titre ignoré les messages et a signalé l’incident à notre service de sécurité interne. équipe afin que nous puissions prendre des mesures pour à la fois atténuer la menace et sensibiliser à cette tactique, tant en interne qu’en externe.« .

A lire aussi – IA : créer un deepfake vous enverra bientôt en prison pour longtemps

Sur la conversation WhatsApp, on peut voir que le malfrat a également tenté d’appeler l’employé, probablement en lui ayant préparé un autre enregistrement imitant la voix du PDG. Même si dans ce cas, la « victime » a eu les bons réflexes, il y a fort à parier que les tentatives de ce genre vont se multiplier à mesure que l’intelligence artificielle progresse. Comme l’explique LastPass, il est important de parler de ce type de sujets pour alerter le plus grand nombre.

 
For Latest Updates Follow us on Google News
 

PREV TikTok s’attaque à l’interdiction de son application aux États-Unis
NEXT Protection du caribou des forêts et des montagnes