Comment l’IA est utilisée pour vous escroquer (et ce que vous pouvez faire)

L’intelligence artificielle (IA) est la technologie qui donne à un ordinateur la capacité de “penser” comme un humain et d’apprendre par lui-même. C’est la simulation de l’intelligence humaine dans des machines, pour accomplir des tâches normalement effectuées par des humains. Grâce à l’IA, les ordinateurs peuvent apprendre à voir, à comprendre et à traduire le langage parlé et écrit. Même si l’IA est employée par de nombreux fournisseurs, elle peut également être utilisée à des fins malveillantes…

Comment les fraudeurs peuvent utiliser l’intelligence artificielle ?

Alors que les faux et les escroqueries alimentés par l’IA gagnent en sophistication, il est important d’être conscient des nombreuses façons dont la technologie crée de nouvelles opportunités pour les fraudeurs. Voici quelques exemples de ce que l’IA peut faire entre de mauvaises mains :

Clonage de la voix

Il est possible de recréer la voix, l’accent et le timbre unique d’une personne à partir d’un très petit échantillon audio. Se faire passer pour quelqu’un au téléphone n’est pas une nouvelle technique d’escroquerie, puisque c’est le principe même de l’hameçonnage : se faire passer pour une banque, un organisme d’État ou toute autre entité ayant pignon sur rue. Néanmoins, ces stratagèmes deviendront plus courants, car l’IA rend le clonage vocal plus facile que jamais et ne requiert pas un investissement important de la part des criminels. La technologie de clonage vocal peut être utilisée pour usurper l’identité d’un PDG ou d’un proche et inciter la victime à envoyer de l’argent ou à communiquer des informations personnelles.

Les deep fakes

Les deep fakes combinent le clonage de voix et les vidéos générées par l’IA. Il est possible d’enregistrer un message vidéo dans lequel votre PDG vous demande de lancer un transfert d’argent, mais les deep fakes peuvent également être utilisés dans des systèmes de chantage, lorsque les fraudeurs génèrent des vidéos compromettantes de la victime. Elles sont de plus en plus difficiles à repérer, et les criminels habiles peuvent créer des vidéos montrant une personne en train de dire ou de faire ce qu’ils veulent, grâce aux réseaux et à la pléthore de selfies et d’autres images personnelles disponibles en ligne.

À LIRE AUSSI :  ChatGPT : l'outil gratuit qui vous fait économiser du temps et de l'argent en 2023

L’hameçonnage personnalisé

Les escroqueries par hameçonnage personnalisé (ou spear-phishing) constituent une autre tendance préoccupante. Alors que la personnalisation peut être un outil puissant pour fournir un contenu qui semble plus pertinent, l’IA peut étudier les comportements et les préférences en ligne d’une victime pour créer des escroqueries par hameçonnage très ciblées. Une étude a montré que les tweets de spear-phishing personnalisés générés par l’IA rendaient les victimes plus susceptibles de tomber dans le piège.

Les CAPTCHA

Les CAPTCHA constituent une étape de vérification supplémentaire lorsqu’un utilisateur se connecte. L’apprentissage automatique et la reconnaissance d’images aident les fraudeurs à contourner les tests CAPTCHA, ce qui leur permet de déployer des attaques de bourrage d’identifiants à plus grande échelle pour s’emparer d’un plus grand nombre de comptes.

Que pouvez-vous faire pour vous protéger ?

L’utilisation d’un VPN est une solution efficace pour repousser ce type d’attaques. Un VPN crée un tunnel sécurisé entre votre appareil et Internet, masquant ainsi votre adresse IP et rendant vos activités en ligne pratiquement indétectables. Cela empêche les escrocs utilisant l’IA de cibler spécifiquement votre appareil ou de suivre vos habitudes en ligne pour utiliser l’hameçonnage. De plus, un VPN chiffre toutes les données que vous envoyez ou recevez, ce qui rend beaucoup plus difficile l’interception de vos informations personnelles ou financières.

En ce qui concerne les images ou les vidéos générées par l’IA, la meilleure chose à faire est d’analyser l’image pour y déceler des incohérences. Les images générées par l’IA peuvent être convaincantes au premier coup d’œil, mais révéleront des erreurs lors d’un examen plus approfondi, comme des doigts supplémentaires, des parties du corps manquantes ou des proportions incorrectes. On se souvient tous de cette photo de Macron en éboueur, qui semblait si vraie de prime abord, mais qui disposait de 6 doigts à chaque main…

À LIRE AUSSI :  Vidnoz AI : Top plate-forme d’IA facilite la création vidéo gratuite en ligne

Pour le reste, les moyens d’éviter les escroqueries assistées par l’IA ne diffèrent pas de la prévention des attaques courantes d’hameçonnage et de logiciels malveillants :

  • Ne prenez pas d’appels provenant de numéros de téléphone inconnus.
  • Ne cliquez pas sur des liens suspects.
  • Vérifiez à deux reprises que les messages proviennent d’une source légitime.
  • Ne vous connectez pas à des sites web inconnus avec vos comptes de réseaux sociaux, Google ou Apple.
  • Ne fournissez pas vos données personnelles ou vos informations de connexion à quiconque par téléphone ou en ligne, même s’il prétend être un représentant officiel d’une entreprise, d’une banque, etc.
  • Créez des mots de passe uniques pour chaque compte que vous utilisez.
  • Signalez toujours toute escroquerie présumée.

Cette liste n’est pas exhaustive, mais le fait de suivre ces stratégies peut contribuer à votre sécurité. N’oubliez pas de vérifier nos guides sur la façon d’éviter les escroqueries en ligne et d’autres stratégies de protection de la vie privée sur Internet pour obtenir d’autres conseils.

Laisser un commentaire