Page 70 - Mégadonnées, apprentissage automatique, protection des usagers et confidentialité
P. 70
prudentielle des établissements de crédit et des entreprises d'investissement; le Règlement n 575/2013 du Parlement
o
européen et du Conseil du 26 juin 2013 concernant les exigences prudentielles applicables aux établissements de crédit
et aux entreprises d'investissement; et le guide de la Banque centrale européenne sur l'examen ciblé des modèles
internes (Targeted Review of Internal Models, ou TRIM).
215 Ainsi, l'Initiative mondiale de l'IEEE (voir note de bas de page 224) recommande que les systèmes automatisés
génèrent des pistes de vérification enregistrant les faits et la législation en appui à la prise de décisions.
216 La synthèse suivante de la gestion des risques dans le cadre de l'apprentissage automatique est tirée du document
suivant: Future of Privacy Forum, Beyond Explainability: A Practical Guide to Managing Risk in Machine Learning
Models, 2018.
.
217 https:// ainowinstitute org/ .
218 Reisman, D., Schultz, J., Crawford, K. et Whittaker, M., Algorithmic Impact Assessments: A Practical Framework for
.
Public Agency Accountability, avril 2018. Disponible à l'adresse suivante: https:// ainowinstitute org/ aiareport2018 .pdf.
219 Initiative mondiale de l'IEEE (voir note de bas de page 224), p. 156.
220 Cavoukian, A., Privacy by Design: The Seven Foundational Principles (Commissaire à l'information et à la protection de
.
la vie privée de l'Ontario, 2011), disponible à l'adresse suivante: https:// www .ipc on ca/ wp -content/ uploads/ Resources/
.
7foundationalprinciples .pdf; et Medine, D., Privacy by Design for Financial Services, disponible à l'adresse suivante:
https:// www .livemint com/ Opinion/ 1ShpKAOC59VlXiwgCkVv8O/ Privacy -by -design -for -financial -services .html.
.
221 Ledit programme comprend les thématiques suivantes: 1) concevoir des produits et des services de pointe qui
s'appuient sur les mégadonnées tout en préservant la vie privée; 2) proposer et évaluer des solutions visant à atténuer
les risques liés à la protection de la vie privée; 3) comprendre la manière dont les technologies d'amélioration de
la confidentialité peuvent être utilisées afin de réduire les risques liés à la protection de la vie privée; 4) utiliser des
techniques pour agréger et désidentifier les données, et comprendre les limites du processus de désidentification;
5) comprendre les cadres de réglementation et d'autorégulation en vigueur en matière de protection de la vie privée;
6) comprendre les problèmes actuels en matière de protection de la vie privée qui sont liés à la technologie; 7) évaluer
les risques liés à la protection de la vie privée, contrôler la conformité, résoudre les incidents et intégrer le principe de
protection de la vie privée aux différentes phases du cycle de vie de l'ingénierie logicielle; 8) effectuer une évaluation
élémentaire de la facilité d'utilisation afin de connaître les fonctionnalités et les processus liés à la protection de la vie
privée qui sont acceptés par les utilisateurs; et 9) mettre à disposition son expertise en matière de protection de la
vie privée, en collaboration avec les équipes interdisciplinaires. Master en technologie de l'information spécialisé en
ingénierie de la confidentialité. Voir également: https:// bigid com/ the -advent -of -privacy -engineering/ .
.
222 Voir, par exemple: oCde, "OECD Moves Forward on Developing Guidelines for Artificial Intelligence (AI)",
.
20 février 2019, disponible à l'adresse suivante: http:// www oecd org/ going -digital/ ai/ oecd -moves -forward -on
.
-developing -guidelines -for -artificial -intelligence .htm; et institute of Business ethiCs, Business ethiCs and artifiCial
intelligenCe, 2018, p. 2-3.
223 Informatics Europe et le Comité européen de politique technologique de l'Association for Computing Machinery,
"When computers decide: European Recommendations on Machine-Learned Automated Decision Making", 2018.
.
Disponible à l'adresse suivante: http:// www .informatics -europe org/ news/ 435 -ethics _adm .html.
224 IEEE, Ethically Aligned Design: A Vision for Prioritizing Human Wellbeing with Artificial Intelligence and Autonomous
.
Systems, version 2, 2018. Disponible à l'adresse suivante: https:// standards .ieee org/ content/ dam/ ieee -standards/
standards/ web/ documents/ other/ ead _v2 .pdf. Une première version a été publiée à des fins de consultation en 2016
.
(disponible à l'adresse suivante: http:// standards .ieee org/ develop/ indconn/ ec/ ead _v1 .pdf).
.
225 Partnership on AI, Tenets. Disponible à l'adresse suivante: https:// partnershiponai org/ about/ #: ~: text = Our %20Tenets
, -We %20believe %20that & text = We %20will %20educate %20and %20listen work %2C %20and %20address %20their %20
,
.
questions & text = We %20are %20committed %20to %20open ,and %20legal %20implications %20of %20AI. .
226 Software and Information Industry Association, Ethical Principles for Artificial Intelligence and Data Analytics,
15 septembre 2017. Disponible à l'adresse suivante: http:// www .siia .net/ Portals/ 0/ pdf/ Policy/ Ethical %20Principles %20
for %20Artificial %20Intelligence %20and %20Data %20Analytics %20SIIA %20Issue %20Brief .pdf ?ver = 2017 -11 -06 -160346
-990.
.
227 Google, "AI at Google: our principles", 7 juin 2018. Disponible à l'adresse suivante: https:// www .blog google/
technology/ ai/ ai -principles/ . Voir aussi: Google, PersPeCtives on issues in ai governanCe. Disponible à l'adresse suivante:
https:// ai google/ static/ documents/ perspectives -on -issues -in -ai -governance .pdf.
.
.
228 Microsoft, Our approach. Disponible à l'adresse suivante: https:// www .microsoft com/ en -us/ ai/ our -approach -to -ai.
229 Fairness, Accountability, and Transparency in Machine Learning, Principles for Accountable Algorithms and a Social
.
Impact Statement for Algorithms. Disponible à l'adresse suivante: https:// www fatml org/ resources/ principles -for
.
-accountable -algorithms.
68 Mégadonnées, apprentissage automatique, protection des usagers et confidentialité