Page 45 - Mégadonnées, apprentissage automatique, protection des usagers et confidentialité
P. 45
Toutefois, dans de nombreux secteurs, il est inac- ment de l'individu pour un prêt d'un certain montant
ceptable dans la pratique que les modèles d'appren- sur une certaine période est trop élevé pour justi-
tissage automatique soient compris seulement par fier le prêt. En général, les lois sur la protection des
les spécialistes des données et les programmeurs données ne prévoient pas de dispositions contre les
informatiques. Dans le secteur médical, bancaire déductions déraisonnables, laissant ces questions à
ou des assurances, par exemple, les chercheurs des lois sectorielles spécifiques, à supposer qu'elles
et même les praticiens doivent comprendre les existent. En effet, la plupart des lois sur la protec-
modèles d'apprentissage automatique sur lesquels tion des données n'exigent pas du responsable du
ils s'appuient s'ils veulent avoir confiance en eux et contrôle des données qu'il fournisse une explication
en leurs résultats. Il peut s'avérer nécessaire de trou- pour chaque décision automatisée qui a été prise.
ver un compromis entre, d'une part, le maintien de la Tout au plus, elles exigent généralement d'avertir les
transparence et de l'interprétabilité des modèles et personnes concernées qu'une décision future sera
des processus de modélisation (ce qui suppose de automatisée, et éventuellement, de leur donner la
réduire la complexité autant que possible) et, d'autre possibilité de s'y opposer .
183
part, le développement de modèles d'apprentissage Certains pays vont un peu plus loin. Par exemple,
automatique évolutifs à des fins de précision et d'ef- la loi brésilienne de 2018 sur la protection des don-
ficacité (ce qui les rend plus complexes et plus diffi- nées donne au consommateur le droit de demander
ciles à expliquer). un réexamen des décisions prises uniquement sur
En outre, la précision de l'apprentissage auto- la base d'un traitement automatisé de données à
matique dépend de la manière dont les données caractère personnel qui affectent ses intérêts. Il peut
utilisées pour entraîner et valider les modèles d'ap- notamment s'agir des décisions visant à définir son
prentissage automatique sont sélectionnées et profil ou à évaluer certains aspects de sa personnali-
conservées. Elle dépend également de la bonne arti- té, et du droit de demander des informations claires
culation de la tâche du modèle, de la possibilité de et pertinentes au sujet des critères et des procédures
formuler des hypothèses bien définies et de la sélec- sur lesquels repose une décision automatisée .
184
tion de paramètres d'efficacité pertinents. En fin de Certains décideurs politiques penchent pour un
compte, si l'on dispose de suffisamment de temps et examen plus approfondi des décisions automati-
de ressources, un programme informatique doit pou- sées dans le cadre de la législation sur la protection
voir être expliqué, sinon il n'y a aucune raison d'avoir des données et de la vie privée. Le Groupe de tra-
confiance dans l'exactitude de ses conclusions . vail "Article 29"de l'Union européenne sur la protec-
181
Alors que certains avancent que la complexité tion des données, par exemple, a conseillé aux res-
défie toute explication, d'autres affirment qu'une ponsables du contrôle des données d'éviter de trop
telle vision dissimule la facilité de compréhension des se fier aux corrélations et de fournir des informations
algorithmes, et que plutôt que d'écarter les systèmes significatives à la personne concernée sur la logique
qui produisent de mauvais résultats en les considé- impliquée dans la prise de décisions automatisée (à
185
rant comme fondamentalement impénétrables et savoir, par exemple, les principales caractéristiques
donc incontrôlables, nous devrions simplement qua- prises en compte pour prendre telle ou telle décision,
lifier l'application d'une technologie inadéquate pour l'origine de ces informations, leur pertinence). Dans
ce qu'elle est: une faute professionnelle, commise le même ordre d'idées, les responsables du contrôle
par le responsable du contrôle d'un système . Il n'en des données peuvent être tenus de démontrer que
182
reste pas moins qu'il est difficile de fournir des expli- leurs modèles sont fiables en vérifiant leur précision
cations sur les décisions automatisées qui puissent statistique et en corrigeant les inexactitudes, notam-
être facilement comprises par des individus inexpé- ment pour éviter de prendre des décisions discrimi-
rimentés. natoires .
186
D'après le Future of Privacy Forum, l'explication
Une réglementation qui permet des explications des modèles d'apprentissage automatique doit ren-
adéquates seigner sur la manière dont le modèle a été choisi,
Lorsqu'un fournisseur de services financiers prend analyse juridique et technique à l'appui. Il s'agirait
une décision en fonction de données d'entrée (par notamment de déterminer les compromis à effec-
exemple, les niveaux de revenu, le patrimoine, le tuer entre explicabilité et précision. Cette démarche
code postal), celle-ci repose en fin de compte sur permettrait d'enregistrer les décisions visant à com-
les déductions faites à partir de ces sources d'infor- plexifier un modèle au détriment de l'explicabilité, et
mation, par exemple si le risque de défaut de paie- de tenir compte de la matérialité des résultats pour
Mégadonnées, apprentissage automatique, protection des usagers et confidentialité 43