Page 44 - Mégadonnées, apprentissage automatique, protection des usagers et confidentialité
P. 44
Principes FEAT de l'Autorité monétaire de Singapour
Responsabilité interne
7. L'utilisation des technologies d'AIDA pour prendre des décisions est approuvée par une autorité
interne appropriée.
8. Les entreprises qui utilisent les technologies d'AIDA sont responsables des modèles d'AIDA élabo-
rés en interne ou provenant de l'extérieur.
9. Les entreprises qui utilisent les technologies d'AIDA sensibilisent de manière proactive la direction
et le conseil d'administration à leur utilisation.
Responsabilité externe
10. Les personnes disposent de canaux leur permettant de se renseigner sur les décisions les concer-
nant prises grâce aux technologies d'AIDA, de faire appel et de demander leur révision.
fondement et la méthode décisionnelle, ou exige au seulement une fois que les droits juridiques susvisés
moins une explication de ce type . auront vu le jour.
174
Certains préconisent de garantir aux usagers D'importantes raisons peuvent justifier de tels
(comme l'ont fait plusieurs juridictions, telles que efforts. L'acceptation, par l'ensemble de la société,
l'Union européenne) le droit à une explication lors- des mégadonnées et de l'apprentissage automatique,
qu'une décision exclusivement automatisée (refus en particulier la prise de décisions automatisée et les
d'une demande de prêt, réduction de la limite de cré- services qui en dépendent, dépendra au moins en
dit, etc.) a des effets significatifs, notamment sur le partie de la confiance – en une utilisation raisonnable
plan juridique . d'informations pertinentes. Il est communément
175
Cependant, fournir une explication aux usagers admis qu'en matière d'apprentissage automatique, la
pose deux problèmes dans le contexte des méga- corrélation et la prédiction sont des principes direc-
données et de l'apprentissage automatique: teurs, et que la causalité et le raisonnement sont sans
Premièrement, les techniques sont difficiles à importance. En 2008, Chris Anderson a déclaré que
expliquer aux usagers, notamment dans un langage la méthode scientifique était obsolète, dépassée par
simple. Les modèles d'apprentissage automatique le pouvoir corroborant des corrélations de masse .
180
sont décrits comme "opaques" ou comme des L'apprentissage automatique identifie les corré-
176
"boîtes noires" . Même le fait de fournir le code lations existant entre plusieurs facteurs (à ne pas
177
source ne permettra pas aux informaticiens de savoir confondre avec les liens de causalité). Il est capable
comment une décision a été prise, car l'apprentis- de faire des prédictions sur le comportement futur,
sage automatique est la science qui permet aux ordi- mais pas de justifier ces prédictions.
nateurs d'agir sans être explicitement programmés . L'apprentissage automatique consiste à expo-
178
Deuxièmement, dans une certaine mesure, les ser un système informatique à de grands volumes
modèles d'apprentissage automatique font l'objet de de données (provenant d'exemples passés), à l'en-
secrets commerciaux et de droits d'auteur sur les logi- traîner à observer les formes qui s'en dégagent et à
ciels qui sont le résultat d'investissements et existent déduire une règle à partir de ces formes. Plutôt que
sur un marché commercial concurrentiel. L'opéra- d'établir directement des règles, les êtres humains
teur d'un modèle d'apprentissage automatique peut génèrent un processus informatisé de définition de
être réticent à partager le codage ou l'explication de règles. Cette abstraction, ou déconnexion, entre
l'algorithme, de peur d'affaiblir la concurrence et de les êtres humains et le processus décisionnel, com-
compromettre l'investissement initial. plique la vérification des règles établies. Il est donc
Pour ce qui est de l'utilisation des algorithmes, difficile de leur demander des comptes lorsque les
ces facteurs posent des difficultés importantes en règles ou leurs résultats ne répondent pas aux objec-
matière de responsabilité envers les usagers . En tifs politiques, ou vont même à l'encontre des lois en
179
particulier, la difficulté d'expliquer à un usager la rela- vigueur, notamment en matière de discrimination.
tion entre les données d'entrée et les données de sor- En effet, non seulement les personnes ordinaires ne
tie empêche celui-ci de contester les décisions prises comprennent pas les modèles d'apprentissage auto-
à son sujet. Néanmoins, même si des explications matique, mais souvent, même ceux qui les ont éla-
sont actuellement difficiles à produire, il se pourrait borés sont incapables d'expliquer pourquoi ils sont
bien que l'on mette en œuvre les efforts nécessaires efficaces.
42 Mégadonnées, apprentissage automatique, protection des usagers et confidentialité