Page 65 - Mégadonnées, apprentissage automatique, protection des usagers et confidentialité
P. 65
l'exactitude maximale des rapports sur les consommateurs; qu'elles informent les fournisseurs et les utilisateurs
d'informations sur les consommateurs des responsabilités qui leur incombent en vertu de la loi; qu'elles limitent les
circonstances dans lesquelles ces acteurs fournissent des rapports sur les consommateurs à des fins d'emploi; et
qu'elles publient des numéros gratuits permettant aux consommateurs d'obtenir lesdits rapports. Il engage également
la responsabilité des parties prenantes en cas de non-respect de ces exigences (paragraphes 1681e(b); 1681e(d);
1681b(b)(1); 1681j(a); et 1681n(a)).
115 Voir, par exemple: GPFI, Use of Alternative Data, à la note de bas de page 14.
116 Pour consulter un excellent article sur ces questions, voir: Blechman, J., "Mobile Credit in Kenya and Tanzania:
Emerging Regulatory Challenges in Consumer Protection, Credit Reporting and Use of Customer Transactional Data".
African Journal of Information and Communication, n 17, novembre 2016. Disponible à l'adresse suivante: http:// www
o
.macmillankeck .pro/ publications .html.
117 Groupe de travail "Article 29" sur la protection des données, "Avis 03/2013 sur la limitation des finalités", 00569/13/
.
FR WP 203, adopté le 2 avril 2013", 2013, p. 47. Disponible à l'adresse suivante: https:// ec europa eu/ justice/ article -29/
.
documentation/ opinion -recommendation/ files/ 2013/ wp203 _en .pdf; Tene, O. et Polonetsky, J., "Big Data for All: Privacy
and User Control in the Age of Analytics", Northwestern Journal of Technology and Intellectual Property, vol. 11, 2012,
disponible à l'adresse suivante: https:// scholarlycommons .law .northwestern edu/ cgi/ viewcontent cgi ?article = 1191 &
.
.
context = njtip; Contrôleur européen de la protection des données, "Opinion 3/2018 on Online Manipulation and Personal
.
Data", 19 mars 2018, p. 8-16, disponible à l'adresse suivante: https:// edps europa eu/ sites/ edp/ files/ publication/ 18 -03 -19
.
_online _manipulation _en .pdf.
.
.
118 G20, High Level Principles of Digital Financial Inclusion, p. 16. Disponible à l'adresse suivante: https:// www gpfi org/
publications/ g20 -high -level -principles -digital -financial -inclusion.
119 Taylor, A. et Sadowski, J., "How Companies Turn Your Facebook Activity Into a Credit Score". The Nation, 15 juin 2015.
Disponible à l'adresse suivante: https:// www thenation com/ article/ how -companies -turn -your -facebook -activity -credit
.
.
-score/ .
120 RGPD, article 4.
121 RGPD, article 9, paragraphe 4.
122 RGPD, article 22, paragraphe 4 et article 9, paragraphe 2, points a et g.
123 Groupe de travail "Article 29" sur la protection des données, "Advice Paper on Special Categories of Data ("sensitive
.
.
Data")", Ares(2011)444105-20/04/2011, p. 4. Disponible à l'adresse suivante: https:// ec europa eu/ justice/ article -29/
documentation/ other -document/ files/ 2011/ 2011 _04 _20 _letter _artwp _mme _le _bail _directive _9546ec _annex1 _en .pdf.
124 Rouvroy, A., Of Data and Men: Fundamental Rights and Freedoms in a World of Big Data. Direction générale Droits de
.
l'homme et État de droit du Conseil de l'Europe, 11 janvier 2016, p. 10. Disponible à l'adresse suivante: https:// rm coe .int/
CoERMPublicC ommonSearchServices/ DisplayDCTMContent ?documentId = 09000016806a6020.
125 S'agissant de la prise de décisions automatisée, le Groupe de travail "Article 29" a constaté que le profilage pouvait
permettre d'obtenir des données sensibles par déduction à partir de données non sensibles qui, bien que ce n'était pas
le cas au départ, appartiennent aux catégories particulières une fois combinées à d'autres données. Groupe de travail
"Article 29" sur la protection des données, "Lignes directrices relatives à la prise de décision individuelle automatisée et
au profilage aux fins du règlement (UE) 2016/679", note de bas de page 56, p. 15.
126 Voir Zarsky, à la note de bas de page 16.
127 Voir: Kroll, J., Huey, J., Barocas, S., Felten, E., Reidenberg, J., Robinson, D. et Yu, H., "Accountable Algorithms". University
of Pennsylvania Law Review, 2017. Disponible à l'adresse suivante: https:// scholarship .law .upenn edu/ cgi/ viewcontent
.
.cgi ?article = 9570 & context = penn _law _review. Ohm, P. et Lehr, D., "Playing with the Data: What Legal Scholars Should
Learn About Machine Learning". University of California Davis Law Review, 2017. Disponible à l'adresse suivante: https://
lawreview .law .ucdavis edu/ issues/ 51/ 2/ Symposium/ 51 -2 _Lehr _Ohm .pdf.
.
.
128 http:// patft .uspto gov/ netacgi/ nph -Parser ?Sect1 = PTO1 & Sect2 = HITOFF & d = PALL & p = 1 & u = %2Fnetahtml %2FPTO
l
.
%2Fsrchnum .htm & r = 1 & f = G & = 50 & s1 = 9100400 .PN & OS = PN/ 9100400 & RS = PN/ 9100400.
129 Zim, J., "The Use of Social Data Raises Issues for Consumer Lending". Miami Business Law Review, 2016. Disponible à
.
l'adresse suivante: https:// business -law -review .law .miami edu/ social -data -raises -issues -consumer -lending/ .
130 Eubanks, V., Automating Inequality. St Martin's Press, 2018.
131 Hardt, M., Price, E. et Srebro, N., Equality of opportunity in supervised learning, Advances in Neural Information
Processing Systems, 2017; Chouldechova, A., Fair prediction with disparate impact: A study of bias in recidivism
prediction instruments, CoRR, 2017.
132 L'impact disparate a été défini à l'aide de la "règle des 80%", de sorte que, lorsqu'un ensemble de données possède un
attribut protégé X (par exemple, l'appartenance ethnique, le genre, la religion, etc.) et un résultat binaire à prédire C
Mégadonnées, apprentissage automatique, protection des usagers et confidentialité 63