Page 69 - Mégadonnées, apprentissage automatique, protection des usagers et confidentialité
P. 69

des besoins spécifiques du consommateur afin de lui proposer des produits ou des services adaptés à ceux-ci. La
                section 3.2.2(i) de ces lignes directrices dispose quant à elle que, selon la nature de la transaction et sur la base des
                informations communiquées par un client, une banque doit évaluer et comprendre les besoins du client avant de lui
                proposer un service. La section 3.2.4(a)(ii) exige par ailleurs que les banques, lorsqu'elles prodiguent des conseils à
                leurs clients, s'assurent que tout produit ou service recommandé à un client est adapté à ce dernier.
            191    Pasquale, F., The Black Box Society: The Secret Algorithms That Control Money and Information, Harvard University
                Press, 2015; Mayer-Schönberger, V. et Ramge, T., Reinventing Capitalism in the Age of Big Data, Basic Books, 2018;
                Wachter, S., Mittelstadt, B. et Russell, C., "Counterfactual Explanations without Opening the Black Box: Automated
                Decisions and the GDPR", arXiv prétiré, 2017, disponible à l'adresse suivante: https:// arxiv org/ abs/ 1711 00399;
                                                                                     .
                                                                                              .
                Accountable Algorithms, à la note de bas de page 129.
            192    Wachter, S., Mittelstadt, B. et Russell, C., "Counterfactual Explanations Without Opening the Black Box: Automated
                                                                                                        .
                Decisions and the GDPR". Harvard Journal of Law & Technology, 2018. Disponible à l'adresse suivante: https:// arxiv org/
                abs/ 1711 00399.
                      .
            193   Voir "Accountable Algorithms", à la note de bas de page 129. Ohm, P. et Lehr, D., "Playing with the Data: What Legal
                Scholars Should Learn About Machine Learning". University of California Davis Law Review, 2017. Disponible à l'adresse
                                              .
                suivante: https:// lawreview .law .ucdavis edu/ issues/ 51/ 2/ Symposium/ 51 -2 _Lehr _Ohm .pdf.
            194   Voir Ethically Aligned Design, à la note de bas de page 224, p. 159.
            195   Ibid, p. 152.
            196   Ibid, p. 159.
            197   Groupe de travail "Article 29" sur la protection des données, "Lignes directrices relatives à la prise de décision
                individuelle automatisée et au profilage aux fins du règlement (UE) 2016/679", voir la note de bas de page 56, p. 10.
            198   Initiative mondiale de l'IEEE (voir note de bas de page 224), p. 153.
            199   RGPD, article 22.
            200   Roth, A., "Trial by Machine". Georgetown Law Journal, vol. 104, 2016, p. 1245.
            201   Voir Wachter, S. et Mittelstadt, B., à la note de bas de page 57.
            202   Feinberg, J., "Wrongful Life and the Counterfactual Element in Harming", dans Freedom and Fulfillment, 1992, p. 3.
            203   Par exemple, dans l'affaire opposant Clapper à Amnesty International USA, 133 S. Ct. 1138 (2013), la Cour suprême des
                États-Unis a rejeté les réclamations formulées à l'encontre du gouvernement américain en raison de la collecte accrue
                de données à des fins de surveillance, au motif que les plaignants n'avaient pas démontré de "préjudice de fait".
            204   Spokeo, ibid.
            205   Solove, D. J. et Citron, D., "Risk and Anxiety: A Theory of Data Breach Harms". Texas Law Review, vol. 96, 2018, p. 737.
            206   Dans l'affaire Remijas c. Neiman Marcus Group, LLC (794 F.3d 688, 693-694, Septième circuit, 2015), la Cour fédérale
                des États-Unis a estimé que le fait que les plaignants savaient que les informations de leur carte de crédit personnelle
                avaient été volées par des personnes qui prévoyaient de les utiliser à mauvais escient (les cartes d'autres plaignants
                ayant fait l'objet d'une utilisation frauduleuse) constituait un préjudice suffisant pour leur donner le droit d'entamer des
                procédures judiciaires.
            207   Dans l'affaire Spokeo (voir note de bas de page 115), la Cour suprême des États-Unis a estimé que lorsqu'un moteur
                de recherche de personnes décrivait un individu de manière incorrecte, cela pouvait entraîner un risque de préjudice
                suffisamment grave pour lui permettre d'intenter un procès.
            208   Pour une vibrante description de ces types de préjudices, voir O'Neill, C., Weapons of Math Destruction, 2016. Pour une
                taxonomie utile des préjudices que pourraient causer les processus décisionnels automatisés, voir Future of Privacy
                Forum, Unfairness by Algorithm: Distilling the Harms of Automated Decision-Making, décembre 2017.
            209   Initiative mondiale de l'IEEE (voir note de bas de page 224), p. 156.
            210   Initiative mondiale de l'IEEE (voir note de bas de page 224), p. 156.
            211   Ibid.
                                     .
            212   Voir https:// www .sv -europe com/ crisp -dm -methodology/ .
                                .
            213   Voir https:// www .nist gov/ privacy -framework.
            214   Voir, par exemple: Conseil des gouverneurs du Système fédéral de réserve et Bureau du Contrôleur de la monnaie,
                "Supervisory Guidance on Model Risk Management", avril 2011, disponible à l'adresse suivante: https:// www
                .federalreserve gov/ supervisionreg/ srletters/ sr1107a1 .pdf; et les cadres européens, la Directive 2013/36/UE du Parlement
                           .
                européen et du Conseil du 26 juin 2013 concernant l'accès à l'activité des établissements de crédit et la surveillance


                                             Mégadonnées, apprentissage automatique, protection des usagers et confidentialité  67
   64   65   66   67   68   69   70   71   72   73   74