OpenAI, la société à l’origine de ChatGPT, a été sanctionnée par la justice italienne pour non-respect des règles de protection des données personnelles. En plus d’une amende de 15 millions d’euros, OpenAI devra mener une campagne d’information massive sur une période de six mois.
Le Garant pour la protection des données personnelles (GPDP) en Italie a ouvert une procédure en mars 2023 contre OpenAI, mettant en lumière des lacunes importantes dans le traitement des données personnelles utilisées pour former ChatGPT. Selon le GPDP, OpenAI a manqué à son obligation de transparence et n’a pas justifié une base légale appropriée pour collecter et traiter ces informations sensibles.
Un autre point de préoccupation concerne l’absence de mécanisme de vérification de l’âge. Cette négligence expose les enfants de moins de 13 ans à des réponses inadaptées, potentiellement nuisibles à leur développement et leur conscience de soi.
Outre l’amende, OpenAI devra lancer une vaste campagne de sensibilisation à destination du public. Pendant six mois, l’entreprise sera tenue de communiquer sur le fonctionnement de ChatGPT, notamment sur la collecte et l’utilisation des données personnelles à des fins de formation en intelligence artificielle.
Cette campagne s’étendra à la télévision, à la radio, dans la presse écrite et en ligne. OpenAI devra également informer les utilisateurs et les non-utilisateurs de leurs droits en matière de protection des données, comme le droit d’opposition, de rectification et d’effacement. Ces mesures visent à garantir une meilleure compréhension des droits liés au RGPD et à permettre aux individus d’exercer un contrôle effectif sur leurs données.
L’amende de 15 millions d’euros a été fixée en prenant en compte la coopération d’OpenAI avec les autorités italiennes et son engagement à mettre en œuvre la campagne de sensibilisation. Les documents de cette procédure ont été transmis à l’autorité irlandaise de protection des données (DPC), en charge de superviser l’établissement européen d’OpenAI. Cette démarche permettra de poursuivre l’enquête sur d’éventuelles violations persistantes des règles du RGPD.
Cette décision marque un tournant dans la régulation des entreprises technologiques utilisant l’intelligence artificielle. Elle rappelle l’importance de la conformité aux normes européennes de protection des données et l’obligation pour les géants technologiques d’adopter des pratiques transparentes et responsables. OpenAI devra désormais naviguer dans un cadre réglementaire plus strict, sous l’œil attentif des autorités européennes.
Le Garant pour la protection des données personnelles (GPDP) en Italie a ouvert une procédure en mars 2023 contre OpenAI, mettant en lumière des lacunes importantes dans le traitement des données personnelles utilisées pour former ChatGPT. Selon le GPDP, OpenAI a manqué à son obligation de transparence et n’a pas justifié une base légale appropriée pour collecter et traiter ces informations sensibles.
Un autre point de préoccupation concerne l’absence de mécanisme de vérification de l’âge. Cette négligence expose les enfants de moins de 13 ans à des réponses inadaptées, potentiellement nuisibles à leur développement et leur conscience de soi.
Outre l’amende, OpenAI devra lancer une vaste campagne de sensibilisation à destination du public. Pendant six mois, l’entreprise sera tenue de communiquer sur le fonctionnement de ChatGPT, notamment sur la collecte et l’utilisation des données personnelles à des fins de formation en intelligence artificielle.
Cette campagne s’étendra à la télévision, à la radio, dans la presse écrite et en ligne. OpenAI devra également informer les utilisateurs et les non-utilisateurs de leurs droits en matière de protection des données, comme le droit d’opposition, de rectification et d’effacement. Ces mesures visent à garantir une meilleure compréhension des droits liés au RGPD et à permettre aux individus d’exercer un contrôle effectif sur leurs données.
L’amende de 15 millions d’euros a été fixée en prenant en compte la coopération d’OpenAI avec les autorités italiennes et son engagement à mettre en œuvre la campagne de sensibilisation. Les documents de cette procédure ont été transmis à l’autorité irlandaise de protection des données (DPC), en charge de superviser l’établissement européen d’OpenAI. Cette démarche permettra de poursuivre l’enquête sur d’éventuelles violations persistantes des règles du RGPD.
Cette décision marque un tournant dans la régulation des entreprises technologiques utilisant l’intelligence artificielle. Elle rappelle l’importance de la conformité aux normes européennes de protection des données et l’obligation pour les géants technologiques d’adopter des pratiques transparentes et responsables. OpenAI devra désormais naviguer dans un cadre réglementaire plus strict, sous l’œil attentif des autorités européennes.