OpenAI, la société basée en Californie connue pour son modèle de langage ChatGPT, a dévoilé des outils visant à contrer la désinformation pendant les élections prévues cette année dans plusieurs pays. Alors que l'application ChatGPT a suscité des préoccupations quant à son utilisation potentielle dans des campagnes de désinformation, OpenAI affirme sa volonté de ne pas permettre l'utilisation de ses technologies à des fins politiques.
"Nous sommes toujours en train d'évaluer l'efficacité potentielle de nos outils pour de la persuasion individuelle. Jusqu'à ce que nous en sachions plus, nous ne permettrons pas aux gens de construire des applications pour des campagnes politiques ou militantes", ajoute OpenAI.
Alors que des élections sont prévues cette année dans des pays comme les États-Unis, l’Inde et la Grande-Bretagne, OpenAI a déclaré lundi qu’elle n’autoriserait pas l’utilisation de sa technologie, notamment ChatGPT et le générateur d’images DALL-E 3, pour des campagnes politiques.
La désinformation et la mésinformation provoquées par l’IA constituent les plus grands risques mondiaux à court terme et pourraient nuire aux gouvernements nouvellement élus dans les principales économies, a averti le Forum économique mondial dans un rapport publié la semaine dernière.
La société travaille sur des outils visant à garantir la provenance des textes générés par ChatGPT et à permettre aux utilisateurs de détecter si une image a été créée avec DALL-E 3. OpenAI collabore également avec la Coalition for Content Provenance and Authenticity, incluant des entreprises comme Microsoft, Sony, Adobe, Nikkon et Canon, pour renforcer la traçabilité des contenus numériques. Google et Meta ont également pris des initiatives similaires pour encadrer l'utilisation de l'IA dans les campagnes politiques.