Page 44 - Mégadonnées, apprentissage automatique, protection des usagers et confidentialité
P. 44

Principes FEAT de l'Autorité monétaire de Singapour
                Responsabilité interne
                7. L'utilisation des technologies d'AIDA pour prendre des décisions est approuvée par une autorité
                interne appropriée.
                8. Les entreprises qui utilisent les technologies d'AIDA sont responsables des modèles d'AIDA élabo-
                rés en interne ou provenant de l'extérieur.
                9. Les entreprises qui utilisent les technologies d'AIDA sensibilisent de manière proactive la direction
                et le conseil d'administration à leur utilisation.
                Responsabilité externe
                10. Les personnes disposent de canaux leur permettant de se renseigner sur les décisions les concer-
                nant prises grâce aux technologies d'AIDA, de faire appel et de demander leur révision.




            fondement et la méthode décisionnelle, ou exige au   seulement une fois que les droits juridiques susvisés
            moins une explication de ce type .                 auront vu le jour.
                                         174
               Certains préconisent de garantir aux usagers      D'importantes raisons peuvent justifier de tels
            (comme  l'ont  fait plusieurs juridictions,  telles  que   efforts. L'acceptation, par l'ensemble de la société,
            l'Union européenne) le droit à une explication lors-  des mégadonnées et de l'apprentissage automatique,
            qu'une décision  exclusivement  automatisée  (refus   en particulier la prise de décisions automatisée et les
            d'une demande de prêt, réduction de la limite de cré-  services qui en dépendent, dépendra au moins en
            dit, etc.) a des effets significatifs, notamment sur le   partie de la confiance – en une utilisation raisonnable
            plan juridique .                                   d'informations pertinentes. Il est communément
                        175
               Cependant, fournir une explication aux usagers   admis qu'en matière d'apprentissage automatique, la
            pose deux  problèmes dans le contexte des méga-    corrélation et la prédiction sont des principes direc-
            données et de l'apprentissage automatique:         teurs, et que la causalité et le raisonnement sont sans
               Premièrement, les techniques sont difficiles à   importance. En 2008, Chris Anderson a déclaré que
            expliquer aux usagers, notamment dans un langage   la méthode scientifique était obsolète, dépassée par
            simple. Les modèles d'apprentissage automatique    le pouvoir corroborant des corrélations de masse .
                                                                                                           180
            sont décrits comme "opaques"  ou comme des         L'apprentissage automatique identifie les corré-
                                         176
            "boîtes noires" . Même le fait de fournir le code   lations existant entre plusieurs facteurs (à ne pas
                          177
            source ne permettra pas aux informaticiens de savoir   confondre avec les liens de causalité). Il est capable
            comment une décision  a été prise, car l'apprentis-  de faire des prédictions sur le comportement futur,
            sage automatique est la science qui permet aux ordi-  mais pas de justifier ces prédictions.
            nateurs d'agir sans être explicitement programmés .   L'apprentissage automatique consiste à expo-
                                                        178
               Deuxièmement, dans une certaine mesure, les     ser  un système informatique  à de grands volumes
            modèles d'apprentissage automatique font l'objet de   de données (provenant d'exemples passés), à l'en-
            secrets commerciaux et de droits d'auteur sur les logi-  traîner à observer les formes qui s'en dégagent et à
            ciels qui sont le résultat d'investissements et existent   déduire une règle à partir de ces formes. Plutôt que
            sur un marché commercial concurrentiel. L'opéra-   d'établir directement des règles, les êtres humains
            teur d'un modèle d'apprentissage automatique peut   génèrent un processus informatisé de définition de
            être réticent à partager le codage ou l'explication de   règles. Cette abstraction, ou déconnexion, entre
            l'algorithme, de peur d'affaiblir la concurrence et de   les êtres humains et le processus décisionnel, com-
            compromettre l'investissement initial.             plique la vérification des règles établies. Il est donc
               Pour  ce  qui  est  de  l'utilisation des  algorithmes,   difficile de leur demander des comptes lorsque les
            ces facteurs posent des difficultés importantes en   règles ou leurs résultats ne répondent pas aux objec-
            matière de responsabilité envers les usagers . En   tifs politiques, ou vont même à l'encontre des lois en
                                                     179
            particulier, la difficulté d'expliquer à un usager la rela-  vigueur, notamment en matière de discrimination.
            tion entre les données d'entrée et les données de sor-  En effet, non seulement les personnes ordinaires ne
            tie empêche celui-ci de contester les décisions prises   comprennent pas les modèles d'apprentissage auto-
            à son sujet. Néanmoins, même si des explications   matique, mais souvent, même ceux qui les ont éla-
            sont actuellement difficiles à produire, il se pourrait   borés sont incapables d'expliquer pourquoi ils sont
            bien que l'on mette en œuvre les efforts nécessaires   efficaces.



           42    Mégadonnées, apprentissage automatique, protection des usagers et confidentialité
   39   40   41   42   43   44   45   46   47   48   49