Patrick Séguéla, CEO de Synapse Développement
Une étude menée par Impact AI en 2023 révèle que malgré une perception positive en termes de productivité, gain de temps et créativité, le potentiel de l’IA est encore peu mis en œuvre par le grand public Français. Moins d’un quart des sondés l’auraient déjà utilisé dans leur vie personnelle et seulement 16% dans un cadre professionnel. Bien que la perception globale soit positive, des inquiétudes persistent. Les préoccupations majeures sont l’utilisation des données personnelles, les pertes d’emplois potentielles et le respect de la propriété intellectuelle. Les personnes interrogées ont également des avis assez divergents quant à l’importance et l’impact de cette innovation.
Globalement, il y a une volonté de mieux comprendre et d’être davantage informé sur les conséquences de l’IA générative notamment au travail. De plus, 70 % des Français estiment que l’IA générative devrait être sous contrôle humain, pour une relecture et une vérification après intervention.
Vers une IA de confiance…
L’étude révèle une confiance partielle des Français en ce qui concerne l’IA : 30% expriment un besoin essentiel de développer une IA « digne de confiance ». Cela implique d’orchestrer un contrôle et une régulation adaptée en synergie avec l’innovation et le progrès pour développer une Intelligence Artificielle qui répond aux attentes des citoyens avec sécurité.
68 % des employés utilisent ChatGPT au travail dans le dos de leur employeur .
Sachant que ChatGPT est une application publique et non protégée, il y a un réel enjeu de contrôle à mettre en place pour bon nombre d’entreprises. La question de l’éthique, bien que complexe et dépendante du contexte socio-culturel, est très vite abordée au même titre que le sujet de responsabilité juridique. Pour répondre à des problématiques cruciales d’éthique et de protection des données, ou pour limiter le nombre de controverses et d’incidents très nombreux liés à l’IA Générative, il est nécessaire de créer une IA de confiance.
2/3 des Français plaident pour une IA de Confiance
Selon une étude IBM, le déploiement d’une IA éthique en entreprise se fait étape par étape. Premièrement, on met en contexte son utilisation dans la vision stratégique globale de l’entreprise. Ensuite on établit une gouvernance pouvant assurer son implémentation. Enfin, on l’intègre dans le cycle de l’entreprise en engageant les parties prenantes et en organisant une structure. Il faut également définir une politique, en pilotant et en soutenant la culture ainsi que la formation en interne. La mise en place d’une méthodologie et de processus rigoureux est nécessaire.
RGPD et IA, quel équilibre ?
Aujourd’hui, les technologies d’IA se nourrissent de quantités massives de données dont un grand nombre sont personnelles voire sensibles. Il est donc nécessaire de trouver un équilibre entre la protection de ces dernières, le respect des règles légales, et le développement de cette technologie. L’IA vient avec son lot de complexité en matière de RGPD avec des risques pouvant engendrer discrimination, vol de données, violation de la vie privée ou gestion abusive d’informations.
En réponse à ces problématiques, la CNIL a mis en place un certain nombre de ressources publiques permettant de répondre aux défis posés par l’IA. Parmi elles : Comment sécuriser un système ou assurer une transparence, s'informer sur les enjeux liés à l’utilisation de l’IA, comment auto-évaluer son système d’IA…
Comme témoin des actions mises en place à grande échelle : l’AI Act. C’est le règlement européen qui vise à réguler les utilisations de l’intelligence artificielle en classant les applications en fonction de leur niveau de risque éthique : minime, limité, élevé ou inacceptable. Son objectif est de veiller à ce que les systèmes d’IA mis sur le marché européen soient sûrs et respectent les droits fondamentaux des citoyens et les valeurs de l’UE. Tout cela en garantissant la sécurité juridique et en renforçant les exigences en matière de sécurité.
Protection des données et chiffrement bout à bout
Pour ne pas porter atteinte aux droits des utilisateurs, il est nécessaire de respecter certaines règles fondamentales du RGPD à savoir :
-Conformité des données et légitimité d’utilisation
-Collecte et Respect du consentement
-Limitation d’utilisation des données à ce qui est nécessaire
-Assurance de la sécurité des données
-Nécessité d’information et de Transparence
Pour se conformer au RGPD, les entreprises peuvent opter pour le chiffrement bout à bout. C’est une technique de sécurité qui garantit que seuls l’émetteur et le destinataire peuvent accéder au contenu des données échangées. Cela même lorsque celles-ci transitent par des réseaux tiers. En matière d’intelligence artificielle et de protection des données, le chiffrement bout à bout joue un rôle crucial. Il permet d’assurer la confidentialité et la sécurité des informations sensibles utilisées dans les systèmes d’IA.
Mettre en place des audits de sécurité
L’enjeu qui gravite autour des audits de sécurité est conséquent. Les entreprises sont aujourd’hui plus que jamais exposées à des cyber-attaques. Il est donc essentiel de mettre en place régulièrement un processus dynamique permettant de s’assurer de la fiabilité et de la récence des mesures de protection des données en vigueur. Dans le cas contraire, les entreprises s’exposent à des pertes de données confidentielles pouvant mener à des conséquences financières, humaines ou morales plus ou moins graves.
Avec des échanges de quantités massives de données liées à l’IA, il est essentiel pour les entreprises de protéger efficacement leurs Systèmes d’Informations. Il est donc judicieux pour le développement d’une IA de Confiance de passer par la mise en place ces audits afin de détecter et prévenir des failles potentielles de sécurité.
Ils pourront prendre diverses formes en fonction des objectifs et des besoins propres à l’entreprise :
-Diagnostic technique
-Test de vulnérabilité
-Audit stratégique
-Test de résistance
-Test d’ingénierie sociale
5 actions directes pour votre entreprise
Transparence et traçabilité : Offrez des explications claires à vos utilisateurs sur la manière dont les données sont utilisées, collectées ou traitées ainsi que sur les décisions prises par les systèmes d’IA.
Protection des données : Assurez-vous que la sécurité des données soit une priorité dès le développement des algorithmes et des modèles d’IA. Veillez à être au fait de l’actualité concernant le RGPD, l’AI Act et toute loi en vigueur.
Gestion responsable des données : Mettez en place une méthodologie et des protocoles de gouvernance robustes en ce qui concerne la gestion des données.
Sécurité et évaluation continue : Effectuez des protocoles réguliers pour évaluer les risques et l’efficacité des mesures déjà en place. Soyez à jour et certifiés par des tiers professionnels.
Formation et sensibilisation : Formez vos équipes sur les enjeux éthiques et les bonnes pratiques en termes de protection des données. Encouragez une culture axée sur la sécurité au sein de votre organisation en recrutant si nécessaire un Chief Ethics Officer.
Par Patrick Séguéla, CEO de Synapse Développement
Globalement, il y a une volonté de mieux comprendre et d’être davantage informé sur les conséquences de l’IA générative notamment au travail. De plus, 70 % des Français estiment que l’IA générative devrait être sous contrôle humain, pour une relecture et une vérification après intervention.
Vers une IA de confiance…
L’étude révèle une confiance partielle des Français en ce qui concerne l’IA : 30% expriment un besoin essentiel de développer une IA « digne de confiance ». Cela implique d’orchestrer un contrôle et une régulation adaptée en synergie avec l’innovation et le progrès pour développer une Intelligence Artificielle qui répond aux attentes des citoyens avec sécurité.
68 % des employés utilisent ChatGPT au travail dans le dos de leur employeur .
Sachant que ChatGPT est une application publique et non protégée, il y a un réel enjeu de contrôle à mettre en place pour bon nombre d’entreprises. La question de l’éthique, bien que complexe et dépendante du contexte socio-culturel, est très vite abordée au même titre que le sujet de responsabilité juridique. Pour répondre à des problématiques cruciales d’éthique et de protection des données, ou pour limiter le nombre de controverses et d’incidents très nombreux liés à l’IA Générative, il est nécessaire de créer une IA de confiance.
2/3 des Français plaident pour une IA de Confiance
Selon une étude IBM, le déploiement d’une IA éthique en entreprise se fait étape par étape. Premièrement, on met en contexte son utilisation dans la vision stratégique globale de l’entreprise. Ensuite on établit une gouvernance pouvant assurer son implémentation. Enfin, on l’intègre dans le cycle de l’entreprise en engageant les parties prenantes et en organisant une structure. Il faut également définir une politique, en pilotant et en soutenant la culture ainsi que la formation en interne. La mise en place d’une méthodologie et de processus rigoureux est nécessaire.
RGPD et IA, quel équilibre ?
Aujourd’hui, les technologies d’IA se nourrissent de quantités massives de données dont un grand nombre sont personnelles voire sensibles. Il est donc nécessaire de trouver un équilibre entre la protection de ces dernières, le respect des règles légales, et le développement de cette technologie. L’IA vient avec son lot de complexité en matière de RGPD avec des risques pouvant engendrer discrimination, vol de données, violation de la vie privée ou gestion abusive d’informations.
En réponse à ces problématiques, la CNIL a mis en place un certain nombre de ressources publiques permettant de répondre aux défis posés par l’IA. Parmi elles : Comment sécuriser un système ou assurer une transparence, s'informer sur les enjeux liés à l’utilisation de l’IA, comment auto-évaluer son système d’IA…
Comme témoin des actions mises en place à grande échelle : l’AI Act. C’est le règlement européen qui vise à réguler les utilisations de l’intelligence artificielle en classant les applications en fonction de leur niveau de risque éthique : minime, limité, élevé ou inacceptable. Son objectif est de veiller à ce que les systèmes d’IA mis sur le marché européen soient sûrs et respectent les droits fondamentaux des citoyens et les valeurs de l’UE. Tout cela en garantissant la sécurité juridique et en renforçant les exigences en matière de sécurité.
Protection des données et chiffrement bout à bout
Pour ne pas porter atteinte aux droits des utilisateurs, il est nécessaire de respecter certaines règles fondamentales du RGPD à savoir :
-Conformité des données et légitimité d’utilisation
-Collecte et Respect du consentement
-Limitation d’utilisation des données à ce qui est nécessaire
-Assurance de la sécurité des données
-Nécessité d’information et de Transparence
Pour se conformer au RGPD, les entreprises peuvent opter pour le chiffrement bout à bout. C’est une technique de sécurité qui garantit que seuls l’émetteur et le destinataire peuvent accéder au contenu des données échangées. Cela même lorsque celles-ci transitent par des réseaux tiers. En matière d’intelligence artificielle et de protection des données, le chiffrement bout à bout joue un rôle crucial. Il permet d’assurer la confidentialité et la sécurité des informations sensibles utilisées dans les systèmes d’IA.
Mettre en place des audits de sécurité
L’enjeu qui gravite autour des audits de sécurité est conséquent. Les entreprises sont aujourd’hui plus que jamais exposées à des cyber-attaques. Il est donc essentiel de mettre en place régulièrement un processus dynamique permettant de s’assurer de la fiabilité et de la récence des mesures de protection des données en vigueur. Dans le cas contraire, les entreprises s’exposent à des pertes de données confidentielles pouvant mener à des conséquences financières, humaines ou morales plus ou moins graves.
Avec des échanges de quantités massives de données liées à l’IA, il est essentiel pour les entreprises de protéger efficacement leurs Systèmes d’Informations. Il est donc judicieux pour le développement d’une IA de Confiance de passer par la mise en place ces audits afin de détecter et prévenir des failles potentielles de sécurité.
Ils pourront prendre diverses formes en fonction des objectifs et des besoins propres à l’entreprise :
-Diagnostic technique
-Test de vulnérabilité
-Audit stratégique
-Test de résistance
-Test d’ingénierie sociale
5 actions directes pour votre entreprise
Transparence et traçabilité : Offrez des explications claires à vos utilisateurs sur la manière dont les données sont utilisées, collectées ou traitées ainsi que sur les décisions prises par les systèmes d’IA.
Protection des données : Assurez-vous que la sécurité des données soit une priorité dès le développement des algorithmes et des modèles d’IA. Veillez à être au fait de l’actualité concernant le RGPD, l’AI Act et toute loi en vigueur.
Gestion responsable des données : Mettez en place une méthodologie et des protocoles de gouvernance robustes en ce qui concerne la gestion des données.
Sécurité et évaluation continue : Effectuez des protocoles réguliers pour évaluer les risques et l’efficacité des mesures déjà en place. Soyez à jour et certifiés par des tiers professionnels.
Formation et sensibilisation : Formez vos équipes sur les enjeux éthiques et les bonnes pratiques en termes de protection des données. Encouragez une culture axée sur la sécurité au sein de votre organisation en recrutant si nécessaire un Chief Ethics Officer.
Par Patrick Séguéla, CEO de Synapse Développement