IA et fraude : éclairage sur le rapport Visa PFD

Date:

Le rapport semestriel établi par Visa Payment Fraud Disruption (PFD) pour l’été 2024 met en lumière les menaces croissantes et évolutives qui pèsent sur l’écosystème des paiements. Ce document révèle une augmentation significative de l’intérêt des acteurs malveillants pour les technologies d’intelligence artificielle (IA), qu’ils exploitent pour mener des attaques plus sophistiquées. L’étude souligne également des tendances à la hausse en matière de fraude ciblée, notamment via des outils génératifs d’IA et des attaques complexes visant les consommateurs et les infrastructures de paiement.

L’IA : un catalyseur pour la fraude

Les menaces présentées dans le rapport montrent que l’IA est devenue un outil clé pour les acteurs de la cybercriminalité. En février 2024, un incident marquant a impliqué l’utilisation d’IA générative pour créer des deepfakes convaincants. Ces manipulations ont permis d’usurper l’identité d’un cadre financier, conduisant à un transfert frauduleux de 25,6 millions de dollars. En exploitant des technologies de clonage vocal et vidéo, les fraudeurs renforcent l’illusion de l’authenticité, compliquant ainsi la détection des escroqueries.

Les capacités de l’IA vont au-delà des manipulations audiovisuelles. Les technologies permettent également de mener des analyses approfondies sur les individus ou organisations ciblés. Par exemple, des outils d’IA collectent des informations publiquement accessibles pour créer des attaques de phishing hautement personnalisées. Cette tendance indique que les attaques deviendront encore plus sophistiquées dans un avenir proche.

Les applications malveillantes de l’IA dans l’écosystème des paiements

Le rapport met en évidence le rôle de l’IA dans les attaques ciblant les technologies de paiement sans contact et les infrastructures associées. Les fraudeurs utilisent des applications malveillantes et des tactiques d’ingénierie sociale pour réaliser des transactions sans contact frauduleuses. Par exemple, une technique observée en 2024 consiste à convaincre les victimes de télécharger une application frauduleuse. Cette dernière collecte des données sensibles, comme le code PIN et les informations de carte, pour effectuer des retraits en temps réel.

En parallèle, des bots malveillants tels que “FraudGPT” et “WormGPT” ont été identifiés sur des marchés clandestins. Ces outils génératifs sont conçus pour automatiser la création de scripts de fraude, rendant les cyberattaques accessibles à un plus grand nombre d’individus malintentionnés.

Conséquences sur les consommateurs et les institutions

Les consommateurs demeurent une cible privilégiée pour les fraudeurs. L’étude souligne une recrudescence des stratégies de phishing exploitant des outils d’IA pour contourner les systèmes d’authentification forte. Par exemple, les mécanismes de contournement des mots de passe à usage unique (OTP) se perfectionnent grâce à l’IA, augmentant le taux de succès des escroqueries.

Du côté des institutions financières, l’IA génère de nouveaux défis. Les fraudes au retour d’achat (“Purchase Return Authorization”) exploitent des failles dans les systèmes des commerçants pour obtenir des remboursements fictifs. Une augmentation de 81 % de ce type d’attaques a été signalée, avec des pertes moyennes de 184 000 dollars par cas pour les établissements émetteurs concernés.

L’avenir de la cybersécurité dans l’écosystème des paiements

Face à ces menaces, les acteurs du secteur doivent réagir rapidement pour préserver l’intégrité de l’écosystème des paiements. L’adoption d’outils basés sur l’IA pour détecter les anomalies et anticiper les attaques s’avère cruciale. Par exemple, Visa a développé des solutions d’IA, telles que le “Visa Provisioning Intelligence Score”, pour aider les émetteurs à identifier les demandes de provisionnement suspectes.


Bien que l’IA offre des opportunités remarquables pour le développement de systèmes financiers innovants, elle constitue également un vecteur de menaces à évolution rapide. Les entreprises doivent donc adopter une approche proactive, combinant technologies avancées et collaboration sectorielle, pour faire face à ces risques croissants.

Chloé (EFIMOVE)
Chloé (EFIMOVE)
Efimove.ai est une entreprise spécialisée en intelligence artificielle à destination des entreprises afin de transformer leurs processus métiers. Efimove est également l'une des entreprises précurseuses des solutions RAG IA avec de belles références à son actif.

Suivez-nous :

Newsletter

spot_imgspot_img

Populaires

A lire également
Intelligence Artificielle

Les États-Unis renforcent ses restrictions sur les puces d’IA

Les restrictions américaines sur les technologies d’#IA suscitent des débats sur leurs implications #IT et stratégiques à l’international.

Maki lève 26 millions d’euros pour ses agents IA RH

Les agents #IA de #Maki transforment les #RH en automatisant les étapes clés du recrutement avec efficacité et personnalisation.

Amazon Marketing Cloud : l’IA générative simplifie tout

L’#IA générative d’#Amazon Marketing Cloud simplifie le #marketing en permettant une création d’audiences rapide et précise.

ROI et IA : un duo gagnant pour les entreprises

L'étude #IBM examine comment l'#IA transforme les stratégies #IT pour maximiser le retour sur investissement et l'efficacité globale.