Page 9 - Mégadonnées, apprentissage automatique, protection des usagers et confidentialité
P. 9
responsabilités réglementaires de ceux qui mani- privée des usagers. La vie privée peut être protégée
pulent les mégadonnées, concernant l'exactitude à des degrés divers grâce à l'utilisation de technolo-
i) des données d'entrée dans les décisions automa- gies d'amélioration de la confidentialité. Le marché
tisées ainsi que ii) des données rapportées dans les des services de désidentification, de pseudonymisa-
systèmes officiels de communication des données de tion et d'anonymisation est en pleine expansion. La
crédit. Dans certaines juridictions, cette incertitude confidentialité différentielle est également de plus
a donné lieu, entre autres recours, à certains droits en plus utilisée. Il pourrait s'avérer nécessaire de
d'opposition aux décisions automatisées. mettre en place une réglementation afin de veiller à
Les déductions tirées des données d'entrée géné- ce que les technologies d'amélioration de la confi-
rées par les modèles d'apprentissage automatique dentialité soient systématiquement intégrées dans
déterminent la manière dont les individus sont perçus le traitement des mégadonnées et des données de
et évalués dans le cadre de décisions automatisées. l'apprentissage automatique. Cette démarche peut
Les lois sur la protection des données et de la vie nécessiter l'établissement de mesures incitatives
privée peuvent s'avérer insuffisantes pour couvrir les dans le cadre de la législation qui impliquent une res-
résultats des modèles d'apprentissage automatique ponsabilité en cas de violation des données, faisant
qui traitent ces données. L'une de leurs priorités est essentiellement peser le fardeau économique non
de prévenir la discrimination, en protégeant notam- pas sur les usagers en obtenant leur consentement,
ment certaines catégories de groupes (en fonction, mais sur les organisations qui recueillent, utilisent et
par exemple, de l'appartenance ou de l'origine eth- partagent les données.
nique, de la religion ou du genre des personnes). Les mégadonnées et l'apprentissage automatique
Cependant, à l'ère des mégadonnées, des données sont rendus possibles par des intermédiaires, tels
non sensibles peuvent être utilisées pour déduire des que les courtiers en données indépendants qui font
données sensibles. le commerce des données personnelles. Le transfert
L'apprentissage automatique peut aboutir à des de données à caractère personnel entraîne plusieurs
résultats discriminatoires lorsque l'apprentissage des risques: violation de données et usurpation d'identi-
algorithmes repose sur des exemples historiques té, marketing intrusif et autres atteintes à la vie pri-
qui reflètent des discriminations passées, ou que le vée. Tandis que les courtiers en données font l'ob-
modèle ne prend pas en compte un ensemble de jet d'un examen de plus en plus minutieux, des lois
facteurs suffisamment large. Il s'avère difficile de sur- qui accordent des droits directs aux usagers sont en
monter les biais, mais des tests ont été mis au point cours d'adoption.
afin d'évaluer où ceux-ci peuvent survenir. Dans cer- Les exigences traditionnelles consistant à rensei-
tains pays, un biais, même non intentionnel, peut être gner l'usager sur la finalité de l'utilisation des don-
illégal s'il a un "impact disparate", c'est-à-dire lorsque nées à caractère personnel alors que celle-ci est
les résultats d'un processus de sélection sont très dif- encore incertaine, ou à obtenir son consentement
férents pour une catégorie de personnes protégées. à l'égard de quelque chose qui dépasse de loin son
La question est de savoir dans quelle mesure les entendement, sont remises en question. Les risques
entreprises doivent assumer la responsabilité et le liés à l'inexactitude des données saisies ou au trai-
coût de l'identification des discriminations et des tement partial et discriminatoire dans les proces-
biais potentiels dans leurs algorithmes de données. sus décisionnels automatisés soulèvent également
Les entreprises qui s'appuient sur les mégadonnées plusieurs questions complexes, par exemple, sur la
et l'apprentissage automatique pourraient employer manière de garantir que les consommateurs ne sont
des outils pour s'assurer que leurs données n'exacer- pas traités injustement. Assurer la transparence des
beront pas des préjugés historiques et utiliser celles- décisions générées par les algorithmes ou mettre
ci pour repérer les discriminations (dans certaines en évidence les préjudices qui ont été directement
juridictions, cela relève d'ailleurs de leur responsa- provoqués par les technologies de l'intelligence arti-
bilité). Des cadres déontologiques et l'adoption de ficielle représente également un défi dans le cadre
"bonnes pratiques" peuvent être nécessaires pour de la législation et de la réglementation en matière
garantir le suivi et l'évaluation des résultats, ainsi que de protection des usagers et de confidentialité des
l'ajustement des algorithmes. données.
Les grands volumes de données détenues et Les défis posés par le traitement des mégadon-
transférées par les acteurs du domaine des méga- nées et des données de l'apprentissage automatique
données risquent de compromettre la sécurité des dans les cadres juridiques et réglementaires de la
données, et donc d'entraîner des risques pour la vie protection des données et de la vie privée portent à
Mégadonnées, apprentissage automatique, protection des usagers et confidentialité 7