Page 37 - Mégadonnées, apprentissage automatique, protection des usagers et confidentialité
P. 37

Dans le cadre des services financiers, la tarifica-  plus grand risque peuvent néanmoins faire face à des
            tion différenciée repose principalement sur le profil   prix plus élevés que la normale.
            de risque du consommateur. Une tarification basée    Certains groupes de population qui ont toujours
            sur le risque peut améliorer l'efficacité économique   été défavorisés ont des attributs en commun (tels
            en  décourageant  les  comportements  à  risque,  en   que le code postal). Les personnes possédant ces
            récompensant les personnes qui n'ont pas d'antécé-  attributs peuvent donc être victimes de discrimina-
            dents d'activités illicites ou d'accidents de la route.   tion, même si ceux-ci n'influent pas sur leur solvabi-
            Elle peut améliorer l'accès à l'assurance en limitant   lité. Par exemple, une personne ayant un bon salaire
            l'antisélection, une pratique selon laquelle seules   et peu de dettes peut être traitée de manière défa-
            les personnes présentant un profil à haut risque   vorable parce qu'elle vit dans une communauté qui
            peuvent souscrire à un prix uniforme. La tarification   a connu par le passé des ratios dette/revenu supé-
            différenciée des produits d'assurance peut toutefois   rieurs à la moyenne (il peut aussi bien s'agir de ses
            entraîner des injustices lorsque les facteurs de risque   amis sur les médias sociaux, du fait qu'elle a le même
            échappent au contrôle d'un individu, comme c'est le   médecin qu'eux ou qu'elle fasse ses courses dans des
            cas pour l'assurance maladie.                      magasins à prix réduit). Les modèles d'apprentissage
               Les mégadonnées peuvent favoriser la tarification   automatique contribuent donc aux tendances à l'au-
            différenciée, car elles permettent de tirer des déduc-  tomatisation des processus économiques suscep-
            tions à partir des données personnelles, notamment   tibles d'exacerber les inégalités au fil du temps .
                                                                                                        142
            sur la mesure dans laquelle un individu a besoin de
            tel ou tel service, sa capacité à payer et sa sensibi-  4�3  Protéger  les  usagers  en  cas  de  violation  des
            lité au prix. L'ordinateur peut estimer un prix aussi   données et de réidentification
            proche  que  possible  du  montant  maximal  que  le   Les grands volumes de données détenues et trans-
            consommateur profilé serait prêt à payer. En raison   férées par les acteurs du domaine des mégadonnées
            d'une asymétrie d'information, le consommateur     risquent de compromettre la sécurité des données,
            n'en sait pas assez sur le fournisseur pour négocier   et donc d'entraîner des risques pour la vie privée
            le prix jusqu'au montant minimal que le fournisseur   des usagers. Même lorsque la quantité de données
            serait prêt à accepter (par exemple, pour obtenir un   détenues sur un individu est réduite au minimum,
            retour sur investissement raisonnable).            son identité peut être découverte par rétro-ingénie-
               Sur un marché dynamique, on s'attendrait à ce   rie, à partir d'un nombre même restreint de points
            que la concurrence exerce une pression à la baisse   de données, ce qui risque de porter atteinte à sa
            sur le prix du fournisseur, diminuant la marge de   vie privée . Ce risque existe lorsque les données
                                                                        143
            profit. Toutefois, lorsque la tarification différenciée   peuvent être obtenues par des tiers, qui y auront eu
            désavantage des personnes déjà défavorisées, cela   accès bien que n'y étant pas autorisés (violation des
            soulève des problèmes d'ordre politique. Une per-  données) ou à qui l'on aura communiqué des infor-
            sonne peut avoir désespérément besoin d'un service   mations avec l'accord de l'entreprise qui contrôle ou
            financier, et donc être prête à payer un prix plus élevé   traite les données. Dans les deux cas, les mesures
            que la normale. Un prêteur peut être en mesure de   visant à protéger la divulgation de données rela-
            facturer un prix plus élevé qu'en temps normal, qui   tives à des personnes identifiables comprennent des
            ne reflète pas tant le risque supérieur de défaut de   processus  de  désidentification,  de  pseudonymisa-
            remboursement que l'urgence de l'emprunteur. Cela   tion et d'anonymisation. Ces mesures et les difficul-
            peut porter préjudice aux personnes et aux familles   tés qui entravent leur application dans le contexte
            à faible revenu.                                   des mégadonnées sont examinées dans la présente
               La tarification différenciée peut également deve-  section. La section 1.1 aborde quant à elle le rôle et
            nir discriminatoire lorsque les prix sont fixés en fonc-  la  réglementation des  intermédiaires  indépendants
            tion de critères qui, bien qu'apparemment objectifs,   qui acquièrent des données sur contrat sur le marché
            entraînent un traitement défavorable à l'égard des   des données.
            groupes protégés. Par exemple, si un algorithme fixe
            des prix plus élevés pour les consommateurs dont le   Les limites des processus de désidentification, de
            code postal provient d'un quartier qui, par le passé,   pseudonymisation et d'anonymisation
            a connu des niveaux de défaut de remboursement     La vie privée peut être protégée à des degrés divers
            plus élevés que ceux d'autres quartiers, les per-  par l'utilisation de technologies d'amélioration de la
            sonnes dont les autres attributs n'indiquent pas un   confidentialité , telles que la désidentification, qui
                                                                           144
                                                               consiste à supprimer ou à ajouter du bruit aux infor-



                                             Mégadonnées, apprentissage automatique, protection des usagers et confidentialité  35
   32   33   34   35   36   37   38   39   40   41   42