CYBERSÉCURITÉ : la CNIL agit pour limiter le risque lié aux droits et libertés des personnes
13 avril 2023La CNIL met en ligne un nouveau dossier sur la thématique de l’identité numérique
26 avril 2023ChatGPT, une menace pour les données personnelles des utilisateurs ?
Après avoir fait beaucoup parler de lui et soulevé de nombreuses inquiétudes concernant la possible disparition d’emplois ou le risque de contrefaçon dans le monde scolaire, ChatGPT est désormais critiqué pour les risques qu’il poserait en matière de protection des données personnelles.
Accessible au public depuis fin novembre 2022, ChatGPT est un outil développé par la société américaine OpenAI qui propose des réponses textuelles aux questions posées par les utilisateurs. Sa particularité étant que son algorithme est suffisamment développé pour fournir des réponses sur mesure aux questions, en pouvant varier le ton, le style ou la forme de la réponse. ChatGPT devient très rapidement populaire, dépassant les cent millions d’utilisateurs en janvier 2023.
Toutefois, l’outil a aussi généré de nombreuses critiques. Certains reprochent la manière dont l’algorithme a été développé et renforcé, en utilisant de nombreuses sources sur Internet, comme l’entièreté de Wikipédia, sans jamais citer l’origine ou l’auteur des informations dans les réponses proposées par ChatGPT. Il y a également des inquiétudes concernant la disparition d’emplois ou son utilisation à des fins de plagiats, que ce soit par des élèves ou des travailleurs.
Enfin, une nouvelle source d’inquiétude est apparue sur le devant de la scène ces derniers jours : ce que fait ChatGPT des informations que les utilisateurs échangent avec lui. En effet, l’outil ne garantirait pas la protection des données des utilisateurs. Notamment, la politique de confidentialité du site [1] indique bien que les échanges avec l’algorithme sont conservés sur les serveurs d’OpenAI, situés aux Etats-unis, Etat n’offrant pas de garanties suffisantes concernant les données personnelles aux yeux de l’Union Européenne. Samsung en a par exemple fait les frais en mars-avril, puisque des employés ont voulu utiliser ChatGPT pour améliorer des éléments internes. Des documents de travail et des codes sources, tous deux confidentiels, sont donc désormais stockés sur les serveurs d’OpenAI, et l’entreprise coréenne a déclaré trois violations de données en trois semaines avant d’interdire l’utilisation interne de ChatGPT. Malheureusement, Samsung n’a aucun recours pour garantir la destruction de ses documents confidentiels des serveurs d’OpenAI.
De plus, les capacités de l’algorithme elles-mêmes sont critiquables. De nombreux exemples de réponses fausses ou inventées existent. Il ne faut pas surestimer les capacités de l’outil et prêter une confiance aveugle à ses réponses.
Plusieurs principes essentiels du Règlement Général sur la Protection des Données (RGPD) ne sont donc pas respectés par ChatGPT, notamment :
- L’absence de garanties d’une protection équivalent avec le transfert des données vers les Etats-Unis ;
- Le non-respect du droit à l’effacement des données ;
- Le non-respect du principe d’exactitude des données.
Tous ces éléments ont conduit l’autorité de protection des données italienne à interdire l’utilisation de ChatGPT le 31 mars 2023. D’autres Etats pourraient suivre, puisque les autorités de contrôle irlandaise, allemande, et française se sont rapprochées de l’autorité italienne. En France, plusieurs plaintes ont été déposées auprès de la CNIL contre ChatGPT, dernièrement par le député des Côtes-d’Armor Eric Bothorel (Renaissance) car l’outil proposait des informations erronées à son sujet. Le député n’appelle cependant pas à l’interdiction de ces algorithmes mais à leur encadrement.
Que ce soit en bien ou en mal, ChatGPT n’a pas fini de faire parler de lui. Après les inquiétudes sur les capacités de l’algorithme et son impact sur nos sociétés, il est tout de même intéressant de noter que l’angle de la protection des données semble de plus en plus pris au sérieux lors des discussions autour de ces outils, et devient un enjeu à part entière de notre rapport à ChatGPT.
Sources :
Schmid, Alexandre, « Méfiez-vous de ChatGPT… Samsung en a fait les frais ! », clubic, 07 avril 2023
« « Des informations erronées » : un député adresse une plainte à la CNIL contre ChatGPT », franceinfo, 12 avril 2023
Vincent, Benjamin, « ChatGPT : une révolution au détriment de nos données personnelles ? », Radio France, 09 avril 2023
« Intelligence artificielle : l’Italie bloque le robot conversationnel ChatGPT », franceinfo, 31 mars 2023
Tauzins, Alexandra, « ChatGPT, Midjourney, Dall-E… ces intelligences artificielles qui posent des questions inédites de droits d’auteur », Sud Ouest, 21 janvier 2023
[1] Politique de confidentialité d’OpenAI, mise à jour le 07 avril 2023