I – Intelligence Artificielle, un usage détourné par les fraudeurs

Les escroqueries et les fraudes générées et conçues par l’IA sont une nouveauté, et aussi en très forte augmentation.
Les criminels utilisent des technologies avancées d’IA comme la génération d’image, voire de vidéos, le clonage vocal, le clonage de sites, puis le phishing et les chatbots pour inciter les gens à révéler des informations sensibles, envoyer de l’argent ou acheter des produits contrefaits. Ces escroqueries sont de plus en plus difficiles à détecter et prévenir, car l’IA peut traiter de grandes quantités de données, effectuer des tâches rapidement, échapper à la détection et créer des informations convaincantes, fausses ou trompeuses.

En 2023, avec l’émergence de Chat GPT et de l’IA générative, les utilisateurs mal intentionnés peuvent générer du contenu nouveau avec quelques invites, notamment du texte, des vidéos, des photos et voix clonées. Tout en promettant de grands gains de productivité, et donc une mise à l’échelle rapide pour des organisations frauduleuses, les bandes organisées ont donc bien intégré l’intelligence artificielle dans leur mode opératoire. En intégrant l’intelligence artificielle, les fraudeurs peuvent créer du faux contenu, quoique suffisamment convaincant, qui peut être relativement difficile à identifier.

L’un des exemples les plus alarmants de fraude basée sur l’IA est le clonage vocal, qui consiste à utiliser des outils d’IA pour recréer la voix d’une personne après l’avoir écoutée parler pendant quelques secondes. Cette technologie peut être utilisée pour créer de faux messages vocaux ou faux, par exemple pour imiter un membre d’une famille pour demander le paiement d’une rançon,
La possibilité de clonage de la voix à grande échelle met à mal la sécurité des systèmes à commande vocale qui ont été mis en œuvre dans certains pays, comme en Inde pour lutter contre l’illettrisme.
L’IA générative peut également faciliter l’envoi de communications frauduleuses. Jusqu’à présent, les communications frauduleuses étaient facilement identifiables car elles comportaient très souvent des fautes d’orthographe ou de grammaire. Avec une génération de messages en utilisant ChatGPT, les fautes disparaissent.

De ChatGPT à FraudGPT : un attirail d’intelligence artificielle à disposition des fraudeurs

Les stratégies d’ingénierie sociale peuvent être rapidement développées ou déployées à l’aide de grands modèles de langage disponibles sur le darkweb, comme FraudGPT. On trouve aussi des Kits de phishing et des « plateformes de phishing en tant que service ».

L’Intelligence Artificielle est donc devenue un outil puissant pour améliorer la vraisemblance d’une fraude, augmenter les volumes et le niveau de sophistication des attaques de phishing. Pour contrer ce type de fraude, il est donc nécessaire de s’équiper avec des solutions d’un niveau technologique supérieur, qui intègrent l’intelligence artificielle au cœur même de leur conception, c’est pourquoi Heptalytics présente un véritable avantage sur les solutions de fraudes les plus pernicieuses.