Page 69 - Mégadonnées, apprentissage automatique, protection des usagers et confidentialité
P. 69
des besoins spécifiques du consommateur afin de lui proposer des produits ou des services adaptés à ceux-ci. La
section 3.2.2(i) de ces lignes directrices dispose quant à elle que, selon la nature de la transaction et sur la base des
informations communiquées par un client, une banque doit évaluer et comprendre les besoins du client avant de lui
proposer un service. La section 3.2.4(a)(ii) exige par ailleurs que les banques, lorsqu'elles prodiguent des conseils à
leurs clients, s'assurent que tout produit ou service recommandé à un client est adapté à ce dernier.
191 Pasquale, F., The Black Box Society: The Secret Algorithms That Control Money and Information, Harvard University
Press, 2015; Mayer-Schönberger, V. et Ramge, T., Reinventing Capitalism in the Age of Big Data, Basic Books, 2018;
Wachter, S., Mittelstadt, B. et Russell, C., "Counterfactual Explanations without Opening the Black Box: Automated
Decisions and the GDPR", arXiv prétiré, 2017, disponible à l'adresse suivante: https:// arxiv org/ abs/ 1711 00399;
.
.
Accountable Algorithms, à la note de bas de page 129.
192 Wachter, S., Mittelstadt, B. et Russell, C., "Counterfactual Explanations Without Opening the Black Box: Automated
.
Decisions and the GDPR". Harvard Journal of Law & Technology, 2018. Disponible à l'adresse suivante: https:// arxiv org/
abs/ 1711 00399.
.
193 Voir "Accountable Algorithms", à la note de bas de page 129. Ohm, P. et Lehr, D., "Playing with the Data: What Legal
Scholars Should Learn About Machine Learning". University of California Davis Law Review, 2017. Disponible à l'adresse
.
suivante: https:// lawreview .law .ucdavis edu/ issues/ 51/ 2/ Symposium/ 51 -2 _Lehr _Ohm .pdf.
194 Voir Ethically Aligned Design, à la note de bas de page 224, p. 159.
195 Ibid, p. 152.
196 Ibid, p. 159.
197 Groupe de travail "Article 29" sur la protection des données, "Lignes directrices relatives à la prise de décision
individuelle automatisée et au profilage aux fins du règlement (UE) 2016/679", voir la note de bas de page 56, p. 10.
198 Initiative mondiale de l'IEEE (voir note de bas de page 224), p. 153.
199 RGPD, article 22.
200 Roth, A., "Trial by Machine". Georgetown Law Journal, vol. 104, 2016, p. 1245.
201 Voir Wachter, S. et Mittelstadt, B., à la note de bas de page 57.
202 Feinberg, J., "Wrongful Life and the Counterfactual Element in Harming", dans Freedom and Fulfillment, 1992, p. 3.
203 Par exemple, dans l'affaire opposant Clapper à Amnesty International USA, 133 S. Ct. 1138 (2013), la Cour suprême des
États-Unis a rejeté les réclamations formulées à l'encontre du gouvernement américain en raison de la collecte accrue
de données à des fins de surveillance, au motif que les plaignants n'avaient pas démontré de "préjudice de fait".
204 Spokeo, ibid.
205 Solove, D. J. et Citron, D., "Risk and Anxiety: A Theory of Data Breach Harms". Texas Law Review, vol. 96, 2018, p. 737.
206 Dans l'affaire Remijas c. Neiman Marcus Group, LLC (794 F.3d 688, 693-694, Septième circuit, 2015), la Cour fédérale
des États-Unis a estimé que le fait que les plaignants savaient que les informations de leur carte de crédit personnelle
avaient été volées par des personnes qui prévoyaient de les utiliser à mauvais escient (les cartes d'autres plaignants
ayant fait l'objet d'une utilisation frauduleuse) constituait un préjudice suffisant pour leur donner le droit d'entamer des
procédures judiciaires.
207 Dans l'affaire Spokeo (voir note de bas de page 115), la Cour suprême des États-Unis a estimé que lorsqu'un moteur
de recherche de personnes décrivait un individu de manière incorrecte, cela pouvait entraîner un risque de préjudice
suffisamment grave pour lui permettre d'intenter un procès.
208 Pour une vibrante description de ces types de préjudices, voir O'Neill, C., Weapons of Math Destruction, 2016. Pour une
taxonomie utile des préjudices que pourraient causer les processus décisionnels automatisés, voir Future of Privacy
Forum, Unfairness by Algorithm: Distilling the Harms of Automated Decision-Making, décembre 2017.
209 Initiative mondiale de l'IEEE (voir note de bas de page 224), p. 156.
210 Initiative mondiale de l'IEEE (voir note de bas de page 224), p. 156.
211 Ibid.
.
212 Voir https:// www .sv -europe com/ crisp -dm -methodology/ .
.
213 Voir https:// www .nist gov/ privacy -framework.
214 Voir, par exemple: Conseil des gouverneurs du Système fédéral de réserve et Bureau du Contrôleur de la monnaie,
"Supervisory Guidance on Model Risk Management", avril 2011, disponible à l'adresse suivante: https:// www
.federalreserve gov/ supervisionreg/ srletters/ sr1107a1 .pdf; et les cadres européens, la Directive 2013/36/UE du Parlement
.
européen et du Conseil du 26 juin 2013 concernant l'accès à l'activité des établissements de crédit et la surveillance
Mégadonnées, apprentissage automatique, protection des usagers et confidentialité 67