Des fraudeurs utilisent l’IA pour imiter les voix lors d’appels téléphoniques urgents

Des fraudeurs utilisent l’IA pour imiter les voix lors d’appels téléphoniques urgents
Descriptive text here

Si vous recevez un appel téléphonique d’une personne que vous connaissez faisant état d’une situation urgente, il est sage de l’aborder avec prudence, surtout si cette personne demande rapidement une aide financière.

Ce conseil s’applique tout autant lorsque l’appel provient d’un membre de la famille ou d’un ami. Les fraudeurs utilisent de plus en plus l’intelligence artificielle pour imiter la voix des gens afin de passer de tels appels.

Les spécialistes de la cybercriminalité affirment qu’il est important d’essayer de rester calme malgré la situation stressante et de ne pas prendre de décisions hâtives, même sous la pression au téléphone.

Aussi, ne révélez aucune information personnelle. Mettez fin à la conversation, puis rappelez l’appelant supposé à un numéro connu pour vérifier qu’il vous a appelé et qu’il y a une urgence.

Dans la conversation, posez des questions sur des lieux, des choses ou des événements auxquelles seule la personne en question peut répondre si c’est bien elle.

N’hésitez pas à poser des questions « stupides » qui n’ont rien à voir avec la conversation en cours. Cela peut décourager les fraudeurs et leurs assistants IA.

Si vous constatez que des fraudeurs ont déjà imité la voix de quelqu’un que vous connaissez, vous souhaiterez peut-être également vous mettre d’accord sur un mot de code secret ou une question avec vos proches, que vous pourrez utiliser pour faire la distinction entre les appels réels et les faux.

Notez également la date, l’heure et les circonstances exactes des appels douteux et idéalement aussi le numéro de téléphone s’il est affiché, puis informez la police.

Des interruptions dans la conversation ou une voix peu naturelle peuvent indiquer qu’il s’agit d’un appel IA. Cependant, il faut souvent écouter très attentivement pour identifier les appels frauduleux.

Quelques bribes de discours suffisent pour imiter des voix grâce à l’IA. Par exemple, les fraudeurs peuvent souvent les obtenir rapidement en ligne à partir des réseaux sociaux. De nombreux services sont désormais disponibles en ligne et peuvent être utilisés pour créer ces deepfakes audio.

 
For Latest Updates Follow us on Google News
 

PREV Yverdon n’est pas encore sauvé
NEXT « Nous ne pouvons pas être les otages des politiques unilatérales décidées par la Flandre »