Cécile Petitgand, Data Lama
Les données personnes alimentent les réseaux sociaux depuis plus de 20 ans. Pourquoi avoir décidé de publier un ouvrage sur le sujet en 2024 ?
CP - Oui, c’est vrai, les données numériques ne sont pas nouvelles, et depuis plus de 20 ans, elles ne font que croître à un rythme exponentiel. Mais ce qui a changé au cours des dernières années, c’est notre perception du phénomène. On le voit à travers les enquêtes internationales et les témoignages nous provenant d’Amérique du Nord, où je vis, et d’Europe. Le sentiment de perte de contrôle face à l’usage de nos données personnelles n’a jamais été aussi élevé. Désormais, un grand nombre de personnes est sensible au fait que les dispositifs d’intelligence artificielle se nourrissent en continu de nos données.
Prenez par exemple les robots conversationnels comme ChatGPT. Les enquêtes médiatiques, comme celle du New York Times d’avril 2024, ont bien montré que les IA génératives puisent les données personnelles de tous bords, souvent sans aucun égard pour la Loi. Des firmes comme OpenAI, Alphabet et Meta ne se préoccupent guère des principes de propriété intellectuelle et de confidentialité depuis qu’elles ont vu que, plus elles collectent de données, plus leurs outils d’IA sont performants et donc compétitifs. Ces pratiques de collecte étaient déjà massives dans les années 2010, mais depuis 2020, on fait face à un mouvement effréné qui est impulsé par la course à l’IA.
Et comment réagissent les citoyens des pays face à cela ? Ils demandent plus d’encadrement de la part des États, notamment pour la protection de leur vie privée et de la confidentialité de leurs données personnelles. Mais, comme je le montre dans mon livre, si cet encadrement est nécessaire, il n’est pas pour autant suffisant pour s’assurer que l’utilisation de nos données personnelles réponde à nos valeurs et à nos besoins.
Prenez par exemple les robots conversationnels comme ChatGPT. Les enquêtes médiatiques, comme celle du New York Times d’avril 2024, ont bien montré que les IA génératives puisent les données personnelles de tous bords, souvent sans aucun égard pour la Loi. Des firmes comme OpenAI, Alphabet et Meta ne se préoccupent guère des principes de propriété intellectuelle et de confidentialité depuis qu’elles ont vu que, plus elles collectent de données, plus leurs outils d’IA sont performants et donc compétitifs. Ces pratiques de collecte étaient déjà massives dans les années 2010, mais depuis 2020, on fait face à un mouvement effréné qui est impulsé par la course à l’IA.
Et comment réagissent les citoyens des pays face à cela ? Ils demandent plus d’encadrement de la part des États, notamment pour la protection de leur vie privée et de la confidentialité de leurs données personnelles. Mais, comme je le montre dans mon livre, si cet encadrement est nécessaire, il n’est pas pour autant suffisant pour s’assurer que l’utilisation de nos données personnelles réponde à nos valeurs et à nos besoins.
Le RGPD européen a systématisé la demande de consentement pour tout traitement des données personnelles, alors que les GAFAs semblaient préférer l’idée d’un abandon d’un traitement individuel au profit de cohortes anonymisées. Selon vous, quelle est la meilleure option ?
CP - Tout d’abord, je tiens à dire qu’on ne pourra jamais se passer d’une demande de consentement individuel pour le traitement d’un grand nombre de données personnelles, notamment les données sensibles qui sont au cœur de mon expertise. Et je vais vous dire pourquoi. Nombre de personnes qui développent des projets d’intérêt général, tels que les membres des administrations publiques, les chercheurs ou les innovateurs, ont besoin d’avoir accès à des données individuelles pour produire des analyses valides et des résultats qui peuvent alimenter la prise de décision. C’est le cas d’une chercheuse du domaine de la santé comme d’un innovateur du secteur des transports qui souhaite développer une nouvelle application pour favoriser la mobilité durable. À partir de là, il semble difficile de défendre le fait que le traitement de données anonymisées (c’est-à-dire, qui ne peuvent jamais permettre d’identifier un individu, même indirectement) pourra entièrement remplacer l’analyse de données individuelles qui sont seulement dépersonnalisées.
Les analystes et les chercheurs vous le diront clairement : pour produire des connaissances probantes et utiles à partir des données, vous devez minimalement savoir sur quel type de populations ou de personnes vous travaillez. Et ceci s’applique également aux GAFA. Les grandes entreprises du web veulent savoir qui nous sommes et collecter le maximum d’informations sur nos goûts, nos besoins et nos projets, et ce en temps réel. Et pour cela, elles nous demandent souvent un consentement très large pour de multiples utilisations de nos données. Vous savez, le fameux formulaire kilométrique et souvent illisible qu’on nous soumet au moment de télécharger une nouvelle application sur notre téléphone.
Selon moi, cette pratique est une déviation de l’idée même du consentement éclairé. Les grandes législations comme le RGPD mettent en évidence l’importance du consentement individuel comme la clé de l’acceptabilité sociale du traitement des données. Mais une entreprise peut interpréter cela simplement comme un formulaire unique que chaque personne devrait absolument cocher. Comme je le montre dans mon livre, les citoyens ont des attentes bien plus grandes vis-à-vis des utilisateurs de données, afin de pouvoir avoir confiance en eux et en leurs projets fondés sur l’usage de leurs informations personnelles.
Les analystes et les chercheurs vous le diront clairement : pour produire des connaissances probantes et utiles à partir des données, vous devez minimalement savoir sur quel type de populations ou de personnes vous travaillez. Et ceci s’applique également aux GAFA. Les grandes entreprises du web veulent savoir qui nous sommes et collecter le maximum d’informations sur nos goûts, nos besoins et nos projets, et ce en temps réel. Et pour cela, elles nous demandent souvent un consentement très large pour de multiples utilisations de nos données. Vous savez, le fameux formulaire kilométrique et souvent illisible qu’on nous soumet au moment de télécharger une nouvelle application sur notre téléphone.
Selon moi, cette pratique est une déviation de l’idée même du consentement éclairé. Les grandes législations comme le RGPD mettent en évidence l’importance du consentement individuel comme la clé de l’acceptabilité sociale du traitement des données. Mais une entreprise peut interpréter cela simplement comme un formulaire unique que chaque personne devrait absolument cocher. Comme je le montre dans mon livre, les citoyens ont des attentes bien plus grandes vis-à-vis des utilisateurs de données, afin de pouvoir avoir confiance en eux et en leurs projets fondés sur l’usage de leurs informations personnelles.
Avec la montée en puissance de l’IA, vous appelez à plus d’éthique et « d’inclusivité » en matière de données personnelles. Pourquoi ?
CP - Dans mon livre, je montre qu’à l’ère de la société hyperconnectée et de l’IA, il nous faut absolument mettre en place une panoplie d’actions pour permettre aux individus de reconquérir l’espace numérique. Souvent, nous n’utilisons que quelques outils ou méthodes, comme les consultations épisodiques sur l’IA ou encore la construction d’une charte des données dans une municipalité. Ces actions d’engagement citoyen autour des données sont louables, mais elles ne s’inscrivent pas dans une stratégie globale pour changer la manière dont nos projets numériques sont organisés. Dans mon livre, je précise très clairement quelles sont les attentes citoyennes en matière d’utilisation des données personnelles : protection des données, connaissance des usages et des bénéfices, contrôle des accès, etc.
Et je montre que ces attentes sont communes à plusieurs pays et continents. Par la suite, je m’appuie sur un modèle de gouvernance inclusive et éthique des données qui a été développé par l’organisme britannique Ada Lovelace Institute, qui travaille main dans la main avec le système de santé britannique, ou NHS. Ce modèle formidable met de l’avant un ensemble d’actions d’ampleur croissante qui permettent aux organisations de laisser une place pleine et entière aux individus dans les décisions et les actions concernant le traitement de leurs données personnelles. Ces actions sont l’information, la consultation, l’engagement, la collaboration et la prise de pouvoir (ma traduction du terme anglais « empowerment »); et je les décline l’une à la suite de l’autre à l’aide d’exemples concrets dans le dernier chapitre de mon livre. Plusieurs initiatives qui alimentent ma réflexion proviennent d’ailleurs de France, notamment du secteur de la santé.
Je suis en effet très inspirée par les actions de votre Plateforme publique de données de santé, le Health Data Hub, qui s’est doté il y a plusieurs années d’une Direction citoyenne dont la mission est justement de favoriser la connaissance et l’engagement des patients et des citoyens dans les actions qui mobilisent leurs données de santé. Je prends également d’autres exemples d’Europe, du Brésil et du Québec, bien sûr, où je vis depuis plus de 5 ans. L’objectif de mon propos est finalement de bien montrer que les bonnes pratiques existent, que les modèles d’actions sont disponibles, et qu’il ne nous manque que l’impulsion politique et collective pour accélérer la participation citoyenne dans le monde numérique.
Présentation du livre : https://www.editions-hermann.fr/livre/donnees-personnelles-reprenons-le-pouvoir-cecile-petitgand
Et je montre que ces attentes sont communes à plusieurs pays et continents. Par la suite, je m’appuie sur un modèle de gouvernance inclusive et éthique des données qui a été développé par l’organisme britannique Ada Lovelace Institute, qui travaille main dans la main avec le système de santé britannique, ou NHS. Ce modèle formidable met de l’avant un ensemble d’actions d’ampleur croissante qui permettent aux organisations de laisser une place pleine et entière aux individus dans les décisions et les actions concernant le traitement de leurs données personnelles. Ces actions sont l’information, la consultation, l’engagement, la collaboration et la prise de pouvoir (ma traduction du terme anglais « empowerment »); et je les décline l’une à la suite de l’autre à l’aide d’exemples concrets dans le dernier chapitre de mon livre. Plusieurs initiatives qui alimentent ma réflexion proviennent d’ailleurs de France, notamment du secteur de la santé.
Je suis en effet très inspirée par les actions de votre Plateforme publique de données de santé, le Health Data Hub, qui s’est doté il y a plusieurs années d’une Direction citoyenne dont la mission est justement de favoriser la connaissance et l’engagement des patients et des citoyens dans les actions qui mobilisent leurs données de santé. Je prends également d’autres exemples d’Europe, du Brésil et du Québec, bien sûr, où je vis depuis plus de 5 ans. L’objectif de mon propos est finalement de bien montrer que les bonnes pratiques existent, que les modèles d’actions sont disponibles, et qu’il ne nous manque que l’impulsion politique et collective pour accélérer la participation citoyenne dans le monde numérique.
Présentation du livre : https://www.editions-hermann.fr/livre/donnees-personnelles-reprenons-le-pouvoir-cecile-petitgand
Biographie
Cécile Petitgand est la Présidente et Fondatrice de Data Lama, une entreprise québécoise spécialisée dans la gestion des données au service de la démocratisation du numérique et de l’engagement citoyen. Cécile Petitgand est aussi conseillère en gestion des données au Centre hospitalier de l’Université de Montréal et consultante auprès des Fonds de recherche du Québec. Elle a précédemment occupé la position de coordonnatrice de l’initiative Accès aux données de la Table nationale des directeurs de la recherche du ministère de la Santé et des Services sociaux du Québec (MSSS). Cécile Petitgand est titulaire d’un doctorat en sciences de gestion de l’Université Paris-Dauphine et de l’Université de Sao Paulo (Brésil), et a effectué son post-doctorat au Hub santé : politique, organisations et droit (H-POD) de l’Université de Montréal sur le thème de l'implantation de l'intelligence artificielle dans les centres hospitaliers. Cécile Petitgand est aussi titulaire d’une maîtrise en sciences économiques de la Paris School of Economics, et elle est normalienne, diplômée de l'École Normale Supérieure de Paris (ENS Ulm).