L'IA, nouvelle arme des fraudeurs : 42,5 % des tentatives de fraude détectées dans le secteur financier


Une étude de Signicat révèle que 42,5 % des tentatives de fraude dans le secteur financier sont désormais basées sur l'IA, avec des techniques comme les deepfakes et les identités synthétiques.



Les cybercriminels adoptent de plus en plus l’intelligence artificielle pour mener des fraudes complexes, poussant le secteur financier à réagir pour protéger ses clients et ses actifs. Un nouveau rapport intitulé Battle Against AI-Driven Identity Fraud de Signicat révèle que 42,5 % de toutes les tentatives de fraude détectées dans le secteur des finances et des paiements sont désormais basées sur l'IA. Ce chiffre marque un tournant dans la cybersécurité, et ce phénomène est amplifié par un taux de réussite estimé à 29 % pour ces attaques sophistiquées.

Le rapport met en évidence la prolifération rapide de techniques de fraude renforcées par l'IA, telles que les deepfakes, les identités synthétiques et des campagnes de phishing de plus en plus sophistiquées. Ces nouvelles méthodes permettent aux fraudeurs de déployer des opérations à grande échelle et avec une précision redoutable, rendant les attaques plus difficiles à détecter et à contrer.

Les chiffres sont alarmants : 42,5 % des fraudes détectées sont liées à l'intelligence artificielle, ce qui illustre à quel point cette technologie est devenue un outil central pour les cybercriminels. De plus, le rapport souligne une augmentation de 80 % des tentatives de fraude au cours des trois dernières années, largement attribuée à l'utilisation croissante de l'IA par ces derniers.

Cependant, malgré cette menace grandissante, seulement 22 % des entreprises du secteur financier ont mis en place des solutions basées sur l’IA pour prévenir la fraude. Cette lente adoption expose ces institutions à des risques considérables, car les défenses traditionnelles ne suffisent plus à protéger contre des attaques aussi sophistiquées.

Alors que les menaces pilotées par l'IA continuent d'évoluer, les entreprises du secteur financier réalisent que les méthodes traditionnelles de prévention de la fraude ne sont plus suffisantes. Le rapport, mené en collaboration avec Consult Hyperion, appelle les entreprises à adopter des systèmes de détection basés sur l’IA, à renforcer leurs cadres de cybersécurité et à encourager une collaboration accrue au sein du secteur pour rester en avance sur les tactiques de fraude en constante évolution.

Le rapport 2024 State of Bot Mitigation de Kasada confirme cette inquiétude : 87 % des personnes interrogées affirment que leurs dirigeants sont préoccupés par les attaques de bots et la fraude basée sur l'IA. Pourtant, malgré ces préoccupations, trois quarts des entreprises interrogées admettent qu'elles n'ont ni les compétences, ni les ressources, ni les budgets nécessaires pour faire face à la fraude identitaire alimentée par l'IA.

Les entreprises financières peinent à suivre le rythme rapide des évolutions dans le domaine de la cybersécurité. « Les institutions financières doivent renforcer leurs mécanismes de défense contre la fraude à l’identité basée sur l'IA, car les menaces deviennent de plus en plus sophistiquées et exécutées à grande échelle », explique Pinar Alpay, Chief Product & Marketing Officer chez Signicat.

Avec l'accélération de la numérisation, il est urgent que les entreprises adoptent une approche de cybersécurité multicouche qui combine l'utilisation de l'IA, des analyses de risques et des mesures de renforcement, afin de permettre une protection équilibrée et efficace des utilisateurs. Les solutions d'identité numérique, par exemple, jouent un rôle clé dans la protection contre l'usurpation de comptes, l'une des formes les plus courantes de fraude à l'identité.

Le rapport conclut qu'une approche proactive, intégrant l'IA aux mesures de sécurité traditionnelles, est essentielle pour contrer ces nouvelles formes de cybercriminalité. Il insiste également sur l'importance de sensibiliser à la fois les employés et les clients aux menaces que l'IA fait peser sur le secteur financier et sur les meilleures pratiques pour s'en protéger.


Tags : IA deep fake
Vendredi 11 Octobre 2024

A lire également