Page 45 - Mégadonnées, apprentissage automatique, protection des usagers et confidentialité
P. 45

Toutefois, dans de nombreux secteurs, il est inac-  ment de l'individu pour un prêt d'un certain montant
            ceptable dans la pratique que les modèles d'appren-  sur une certaine période est trop élevé pour justi-
            tissage automatique soient compris seulement par   fier le prêt. En général, les lois sur la protection des
            les spécialistes des données et les programmeurs   données ne prévoient pas de dispositions contre les
            informatiques. Dans le secteur médical, bancaire   déductions déraisonnables, laissant ces questions à
            ou des assurances, par exemple, les chercheurs     des lois sectorielles spécifiques, à supposer qu'elles
            et même les praticiens doivent comprendre les      existent.  En  effet,  la  plupart  des  lois  sur  la  protec-
            modèles  d'apprentissage automatique  sur  lesquels   tion des données n'exigent pas du responsable du
            ils s'appuient s'ils veulent avoir confiance en eux et   contrôle des données qu'il fournisse une explication
            en leurs résultats. Il peut s'avérer nécessaire de trou-  pour  chaque  décision  automatisée  qui  a  été  prise.
            ver un compromis entre, d'une part, le maintien de la   Tout au plus, elles exigent généralement d'avertir les
            transparence et de l'interprétabilité des modèles et   personnes concernées qu'une décision future sera
            des processus de modélisation (ce qui suppose de   automatisée, et éventuellement, de leur donner la
            réduire la complexité autant que possible) et, d'autre   possibilité de s'y opposer .
                                                                                     183
            part, le développement de modèles d'apprentissage    Certains pays vont un peu plus loin. Par exemple,
            automatique évolutifs à des fins de précision et d'ef-  la loi brésilienne de 2018 sur la protection des don-
            ficacité (ce qui les rend plus complexes et plus diffi-  nées donne au consommateur le droit de demander
            ciles à expliquer).                                un réexamen des décisions prises uniquement sur
               En outre, la précision de l'apprentissage auto-  la base d'un traitement automatisé de données à
            matique dépend de la manière dont les données      caractère personnel qui affectent ses intérêts. Il peut
            utilisées pour entraîner et valider les modèles d'ap-  notamment s'agir des décisions visant à définir son
            prentissage automatique sont sélectionnées et      profil ou à évaluer certains aspects de sa personnali-
            conservées. Elle dépend également de la bonne arti-  té, et du droit de demander des informations claires
            culation de la tâche du modèle, de la possibilité de   et pertinentes au sujet des critères et des procédures
            formuler des hypothèses bien définies et de la sélec-  sur lesquels repose une décision automatisée .
                                                                                                      184
            tion de paramètres d'efficacité pertinents. En fin de   Certains décideurs politiques penchent pour un
            compte, si l'on dispose de suffisamment de temps et   examen plus approfondi des décisions automati-
            de ressources, un programme informatique doit pou-  sées dans le cadre de la législation sur la protection
            voir être expliqué, sinon il n'y a aucune raison d'avoir   des données et de la vie privée. Le Groupe de tra-
            confiance dans l'exactitude de ses conclusions .   vail "Article 29"de l'Union européenne sur la protec-
                                                     181
               Alors que certains avancent que la complexité   tion des données, par exemple, a conseillé aux res-
            défie toute explication, d'autres affirment qu'une   ponsables du contrôle des données d'éviter de trop
            telle vision dissimule la facilité de compréhension des   se fier aux corrélations et de fournir des informations
            algorithmes, et que plutôt que d'écarter les systèmes   significatives à la personne concernée sur la logique
            qui produisent de mauvais résultats en les considé-  impliquée dans la prise de décisions automatisée  (à
                                                                                                         185
            rant comme fondamentalement impénétrables et       savoir, par exemple, les principales caractéristiques
            donc incontrôlables, nous devrions simplement qua-  prises en compte pour prendre telle ou telle décision,
            lifier l'application d'une technologie inadéquate pour   l'origine de ces informations, leur pertinence). Dans
            ce  qu'elle  est:  une  faute  professionnelle, commise   le même ordre d'idées, les responsables du contrôle
            par le responsable du contrôle d'un système . Il n'en   des données peuvent être tenus de démontrer que
                                                   182
            reste pas moins qu'il est difficile de fournir des expli-  leurs modèles sont fiables en vérifiant leur précision
            cations sur les décisions automatisées qui puissent   statistique et en corrigeant les inexactitudes, notam-
            être facilement comprises par des individus inexpé-  ment pour éviter de prendre des décisions discrimi-
            rimentés.                                          natoires .
                                                                      186
                                                                 D'après le Future of Privacy Forum, l'explication
            Une réglementation qui permet des explications     des modèles d'apprentissage automatique doit ren-
            adéquates                                          seigner sur la manière dont le modèle a été choisi,
            Lorsqu'un fournisseur de services financiers prend   analyse juridique et technique à l'appui. Il s'agirait
            une décision en fonction de données d'entrée (par   notamment de déterminer les compromis à effec-
            exemple, les niveaux de revenu, le patrimoine, le   tuer entre explicabilité et précision. Cette démarche
            code  postal),  celle-ci  repose  en  fin  de  compte  sur   permettrait d'enregistrer les décisions visant à com-
            les déductions faites à partir de ces sources d'infor-  plexifier un modèle au détriment de l'explicabilité, et
            mation, par exemple si le risque de défaut de paie-  de tenir compte de la matérialité des résultats pour



                                             Mégadonnées, apprentissage automatique, protection des usagers et confidentialité  43
   40   41   42   43   44   45   46   47   48   49   50