OpenAI a récemment désactivé l’accès API d’un acteur malveillant qui exploitait ChatGPT pour lancer une vaste campagne de spam automatisé visant les sites web de petites et moyennes entreprises. Découvert par les chercheurs en cybersécurité de SentinelOne, ce système baptisé AkiraBot a démontré comment l’intelligence artificielle peut être détournée à des fins frauduleuses, en produisant des messages publicitaires personnalisés difficiles à détecter.
AkiraBot, un bot développé en Python, utilise l’API d’OpenAI pour générer automatiquement des messages adaptés au contenu spécifique des sites ciblés. Il exploite principalement les formulaires de contact et les widgets de discussion présents sur les pages web. Selon SentinelOne, l’outil était actif depuis septembre 2024, et ses archives comptaient déjà en janvier 2025 plus de 420 000 sites ciblés, dont 80 000 avec succès.
Ce bot a été conçu pour contourner les systèmes de sécurité classiques, y compris les CAPTCHAs de Google et Cloudflare, en utilisant l’émulation de navigateur et des scripts avancés. Les messages envoyés par AkiraBot faisaient la promotion de services SEO douteux, promettant une meilleure visibilité sur les moteurs de recherche comme Google. Les sites et plateformes mis en avant par ces spams sont par ailleurs associés à des avis suspects sur TrustPilot, laissant penser à une campagne frauduleuse bien orchestrée.
Les experts de SentinelLabs soulignent que cette affaire illustre les nouveaux défis que posent les IA génératives dans la lutte contre le spam. Les messages produits sont suffisamment personnalisés pour contourner les filtres traditionnels, ce qui représente une menace croissante pour les entreprises et les administrateurs de sites web.
Alertée par les chercheurs, OpenAI a réagi en désactivant immédiatement la clé API utilisée, en précisant que cette activité constitue une violation directe de ses conditions d’utilisation. L’entreprise poursuit actuellement son enquête pour identifier et neutraliser d’autres ressources potentiellement liées à cette opération.
Cette affaire met en lumière la nécessité d’encadrer davantage l’usage des modèles d’IA, tout en renforçant les mécanismes de détection des abus. Alors que les outils d’intelligence artificielle deviennent de plus en plus accessibles, leur potentiel de détournement représente un enjeu majeur pour la cybersécurité.
AkiraBot, un bot développé en Python, utilise l’API d’OpenAI pour générer automatiquement des messages adaptés au contenu spécifique des sites ciblés. Il exploite principalement les formulaires de contact et les widgets de discussion présents sur les pages web. Selon SentinelOne, l’outil était actif depuis septembre 2024, et ses archives comptaient déjà en janvier 2025 plus de 420 000 sites ciblés, dont 80 000 avec succès.
Ce bot a été conçu pour contourner les systèmes de sécurité classiques, y compris les CAPTCHAs de Google et Cloudflare, en utilisant l’émulation de navigateur et des scripts avancés. Les messages envoyés par AkiraBot faisaient la promotion de services SEO douteux, promettant une meilleure visibilité sur les moteurs de recherche comme Google. Les sites et plateformes mis en avant par ces spams sont par ailleurs associés à des avis suspects sur TrustPilot, laissant penser à une campagne frauduleuse bien orchestrée.
Les experts de SentinelLabs soulignent que cette affaire illustre les nouveaux défis que posent les IA génératives dans la lutte contre le spam. Les messages produits sont suffisamment personnalisés pour contourner les filtres traditionnels, ce qui représente une menace croissante pour les entreprises et les administrateurs de sites web.
Alertée par les chercheurs, OpenAI a réagi en désactivant immédiatement la clé API utilisée, en précisant que cette activité constitue une violation directe de ses conditions d’utilisation. L’entreprise poursuit actuellement son enquête pour identifier et neutraliser d’autres ressources potentiellement liées à cette opération.
Cette affaire met en lumière la nécessité d’encadrer davantage l’usage des modèles d’IA, tout en renforçant les mécanismes de détection des abus. Alors que les outils d’intelligence artificielle deviennent de plus en plus accessibles, leur potentiel de détournement représente un enjeu majeur pour la cybersécurité.