Page 49 - Mégadonnées, apprentissage automatique, protection des usagers et confidentialité
P. 49

plus en plus souvent admis que le risque même de   cause précise d'un préjudice et d'identifier la partie
            préjudice – c'est-à-dire lorsque le dommage ne s'est   responsable.
            pas encore matérialisé, mais que le risque existe  –   La section 6.2 a abordé les différentes mesures que
            devrait être considéré comme un préjudice légitime   les opérateurs de systèmes d'apprentissage auto-
            aux fins des réclamations des usagers.             matique pouvaient prendre pour réduire le risque
               De tels préjudices peuvent être évalués en fonc-  de biais. En outre, certains ont suggéré d'exiger de
            tion de la probabilité et de l'ampleur du préjudice   certaines entreprises ayant recours à l'intelligence
            éventuel, de la sensibilité des données exposées,   artificielle et à l'apprentissage automatique qu'elles
            de la possibilité d'atténuer le préjudice et du carac-  souscrivent une assurance ou d'autres garanties de
            tère raisonnable des mesures préventives . Les tri-  responsabilité financière, afin de fournir un moyen
                                                 205
            bunaux avaient tendance à être plus favorables aux   de recours aux personnes lésées . Bien que cela
                                                                                             209
            plaignants en cas d'usurpation d'identité, en raison   puisse paraître plus évident en cas  de dommages
            du risque de fraude , ou de publication d'informa-  corporels impliquant des équipements tels que des
                              206
            tions inexactes à leur sujet .                     véhicules autonomes qu'en cas de réclamation pour
                                   207
               Il existe plusieurs types de préjudices potentiels   perte d'opportunité, une telle approche pourrait être
            dans le cadre d'une prise de décisions automati-   envisagée lorsque les préjudices découlent d'une
            sée . Les décisions de ce type peuvent faire subir   violation  des  données  par  des  processeurs  traitant
               208
            une perte économique à une personne. On peut par   de grands ensembles de données.
            exemple refuser un bien ou un service à un individu   Il a également été suggéré aux tribunaux et aux
            (ou les lui proposer à un prix plus élevé) parce qu'il   législateurs de s'inspirer du riche corpus de lois
            a été classé dans groupe particulier (notamment en   sur la responsabilité du fait des produits lorsqu'ils
            raison du quartier dans lequel il réside, une pratique   traitent des réclamations pour une certaine forme
            parfois qualifiée de "redlining"). Les personnes qui   de préjudice résultant de l'intelligence artificielle et
            souhaitent obtenir un prêt, demandent une augmen-  de l'apprentissage automatique. Dans certains cas,
            tation de la limite de crédit ou envisagent de sous-  cela pourrait revenir à appliquer une responsabi-
            crire un contrat d'assurance peuvent subir une perte   lité stricte, c'est-à-dire sans qu'il soit nécessaire de
            d'opportunité lorsqu'elles sont filtrées en fonction de   démontrer un lien de causalité, un acte de négli-
            leur appartenance ethnique, ou de leurs informations   gence ou une faute (et encore moins une intention).
            génétiques ou de santé.                            Là encore, les dispositifs de recours devraient inciter
               Dans les pays où ils impliquent une discrimination   les fournisseurs à s'attaquer aux problèmes avant et
            liée à l'appartenance ethnique, à la religion, au casier   après leur apparition. Par exemple, la législation sur
            judiciaire ou à la santé, certains préjudices sont illé-  la responsabilité du fait des produits cherche sou-
            gaux. Dans ces cas, les lois en vigueur protégeront   vent à éviter de compromettre les mesures visant à
            spécifiquement certaines catégories de personnes   inciter fabricants à corriger les défauts de leurs pro-
            et pourront interdire les résultats discriminatoires.   duits à la suite d'un préjudice, de peur que cela ne
            Cependant, lorsque l'appartenance à une catégorie   soit considéré comme une reconnaissance de la res-
            protégée n'entre pas en jeu, il peut s'avérer difficile   ponsabilité du préjudice. Dans ce cas, la loi dispose
            de démontrer un préjudice.                         que ces démarches ne sont pas admissibles comme
               Une  autre  difficulté  rencontrée  par  les  usagers   preuve de la faute .
                                                                               210
            lésés par les systèmes reposant sur les mégadon-     Dans l'ensemble, il reste beaucoup à faire dans la
            nées et l'apprentissage automatique est d'identifier   plupart des juridictions pour offrir aux usagers des
            qui doit être tenu responsable des préjudices causés:   recours efficaces en cas d'atteinte à leur vie privée et
            l'entreprise qui emploie le système, celle qui a codé   de risques liés aux mégadonnées et à l'apprentissage
            les algorithmes ou celle qui a fourni les données? Il   automatique.
            peut être impossible, pour l'usager, de démontrer la


            6  GESTION DES RISQUES, CONCEPTION ET ÉTHIQUE

            Les sections précédentes ont abordé la protection   entoure ces questions représente un risque pour les
            des usagers et la confidentialité des données, en   entreprises, qui pourraient être tenues responsables
            mettant l'accent sur le processus de traitement et les   du non-respect des lois contre la discrimination ou
            recours juridiques et réglementaires. L'incertitude qui   encourir une lourde responsabilité en matière de



                                             Mégadonnées, apprentissage automatique, protection des usagers et confidentialité  47
   44   45   46   47   48   49   50   51   52   53   54