Page 9 - Mégadonnées, apprentissage automatique, protection des usagers et confidentialité
P. 9

responsabilités réglementaires de ceux qui mani-   privée des usagers. La vie privée peut être protégée
            pulent les mégadonnées, concernant l'exactitude    à des degrés divers grâce à l'utilisation de technolo-
            i) des données d'entrée dans les décisions automa-  gies d'amélioration de la confidentialité. Le marché
            tisées ainsi que ii) des données rapportées dans les   des services de désidentification, de pseudonymisa-
            systèmes officiels de communication des données de   tion et d'anonymisation est en pleine expansion. La
            crédit. Dans certaines juridictions, cette incertitude   confidentialité  différentielle  est  également  de  plus
            a donné lieu, entre autres recours, à certains droits   en plus utilisée. Il pourrait s'avérer nécessaire de
            d'opposition aux décisions automatisées.           mettre en place une réglementation afin de veiller à
               Les déductions tirées des données d'entrée géné-  ce que les technologies d'amélioration de la confi-
            rées par les modèles d'apprentissage automatique   dentialité soient systématiquement intégrées dans
            déterminent la manière dont les individus sont perçus   le traitement des mégadonnées et des données de
            et évalués dans le cadre de décisions automatisées.   l'apprentissage  automatique.  Cette  démarche  peut
            Les lois sur la protection des données et de la vie   nécessiter l'établissement de mesures incitatives
            privée peuvent s'avérer insuffisantes pour couvrir les   dans le cadre de la législation qui impliquent une res-
            résultats des modèles d'apprentissage automatique   ponsabilité en cas de violation des données, faisant
            qui traitent ces données. L'une de leurs priorités est   essentiellement peser le fardeau économique non
            de prévenir la discrimination, en protégeant notam-  pas sur les usagers en obtenant leur consentement,
            ment certaines catégories de groupes (en fonction,   mais sur les organisations qui recueillent, utilisent et
            par exemple, de l'appartenance ou de l'origine eth-  partagent les données.
            nique, de la religion ou du genre des personnes).    Les mégadonnées et l'apprentissage automatique
            Cependant, à l'ère des mégadonnées, des données    sont rendus possibles par des intermédiaires, tels
            non sensibles peuvent être utilisées pour déduire des   que les courtiers en données indépendants qui font
            données sensibles.                                 le commerce des données personnelles. Le transfert
               L'apprentissage automatique peut aboutir à des   de données à caractère personnel entraîne plusieurs
            résultats discriminatoires lorsque l'apprentissage des   risques: violation de données et usurpation d'identi-
            algorithmes repose sur des exemples historiques    té, marketing intrusif et autres atteintes à la vie pri-
            qui reflètent des discriminations passées, ou que le   vée. Tandis que les courtiers en données font l'ob-
            modèle ne prend pas en compte un ensemble de       jet d'un examen de plus en plus minutieux, des lois
            facteurs suffisamment large. Il s'avère difficile de sur-  qui accordent des droits directs aux usagers sont en
            monter les biais, mais des tests ont été mis au point   cours d'adoption.
            afin d'évaluer où ceux-ci peuvent survenir. Dans cer-  Les exigences traditionnelles consistant à rensei-
            tains pays, un biais, même non intentionnel, peut être   gner l'usager sur la finalité de l'utilisation des don-
            illégal s'il a un "impact disparate", c'est-à-dire lorsque   nées à caractère personnel alors que celle-ci est
            les résultats d'un processus de sélection sont très dif-  encore incertaine, ou à obtenir son consentement
            férents pour une catégorie de personnes protégées.  à l'égard de quelque chose qui dépasse de loin son
               La question est de savoir dans quelle mesure les   entendement, sont remises en question. Les risques
            entreprises doivent assumer la responsabilité et le   liés à l'inexactitude des données saisies ou au trai-
            coût de l'identification des discriminations et des   tement  partial et  discriminatoire  dans  les  proces-
            biais potentiels dans leurs algorithmes de données.   sus  décisionnels automatisés soulèvent également
            Les entreprises qui s'appuient sur les mégadonnées   plusieurs  questions  complexes,  par  exemple,  sur  la
            et l'apprentissage automatique pourraient employer   manière de garantir que les consommateurs ne sont
            des outils pour s'assurer que leurs données n'exacer-  pas traités injustement. Assurer la transparence des
            beront pas des préjugés historiques et utiliser celles-  décisions générées par les algorithmes ou mettre
            ci pour repérer les discriminations (dans certaines   en évidence les préjudices qui ont été directement
            juridictions, cela relève d'ailleurs de leur responsa-  provoqués par les technologies de l'intelligence arti-
            bilité).  Des  cadres  déontologiques et l'adoption de   ficielle représente également un défi dans le cadre
            "bonnes pratiques" peuvent être nécessaires pour   de la législation et de la réglementation en matière
            garantir le suivi et l'évaluation des résultats, ainsi que   de protection des usagers et de confidentialité des
            l'ajustement des algorithmes.                      données.
               Les grands volumes de données détenues et         Les défis posés par le traitement des mégadon-
            transférées par les  acteurs du domaine des  méga-  nées et des données de l'apprentissage automatique
            données risquent de compromettre la sécurité des   dans les cadres juridiques et réglementaires de la
            données, et donc d'entraîner des risques pour la vie   protection des données et de la vie privée portent à



                                             Mégadonnées, apprentissage automatique, protection des usagers et confidentialité  7
   4   5   6   7   8   9   10   11   12   13   14