Page 35 - Mégadonnées, apprentissage automatique, protection des usagers et confidentialité
P. 35

lisateur qu'une personne a des problèmes de liquidi-  ciale sous-optimale pour le fournisseur de services.
            tés financières, les prêteurs sur salaire peuvent être   Si le code postal d'un demandeur de prêt affecte son
            en mesure de cibler les personnes vulnérables avec   score et entraîne le rejet de sa demande de prêt alors
            des publicités et des offres de prêts à des taux d'in-  qu'il dispose d'un revenu sain, d'un faible niveau d'en-
            térêt et des frais élevés. La concurrence d'entreprises   dettement et d'autres attributs positifs, le prêteur a
            comme ZestFinance peut effectivement faire bais-   manqué une occasion d'accorder un prêt rentable.
            ser le coût des prêts octroyés à ces groupes, mais   Sur un marché statique idéal où les fournisseurs
            si une sélection discriminatoire entraîne des résultats   sont en concurrence pour le même service et sont à
            négatifs pour un individu, cela pourrait soulever des   même de l'améliorer pour accroître leur part de mar-
            inquiétudes .                                      ché, on pourrait s'attendre à ce que les développeurs
                       137
                                                               améliorent les algorithmes au fil du temps pour élimi-
            La lutte contre les tendances à la discrimination  ner les biais. Toutefois, sur un marché dynamique où
            L'une des manières d'aborder la tendance potentielle   de nouveaux modèles et services sont constamment
            de l'apprentissage automatique à la discrimination   mis au point et de nouvelles données sont ajoutées
            consiste à prendre en compte le caractère aléatoire   en permanence, il se peut que les biais soient corri-
            des données . Par exemple, un algorithme d'appren-  gés, mais qu'un modèle soit mis à jour ou remplacé
                       138
            tissage automatique employé pour l'octroi de crédits   par un nouveau qui reflétera peut-être un autre biais,
            peut être entraîné grâce à des données initiales qui   ce qui répète le problème. Les entreprises peuvent
            indiquent qu'un certain groupe (défini en fonction,   également se concentrer davantage sur une crois-
            par exemple, du code postal, du genre ou de l'ap-  sance rapide pour conquérir le nouveau marché,
            partenance ethnique des personnes) a tendance à    tout en considérant l'impact discriminatoire sur les
            rassembler des débiteurs moins fiables. Si le modèle   groupes protégés comme un aspect de moindre
            permettait d'octroyer un crédit à d'autres groupes,   importance. Même si l'on peut s'attendre à ce que le
            il pourrait en résulter une prophétie autoréalisatrice   marché affine avec le temps les algorithmes afin de
            selon laquelle les caractéristiques des personnes   réduire les biais, dans de nombreux cas, il est tout
            qui règlent leurs dettes sont liées à leur non-appar-  simplement inacceptable, socialement et politique-
            tenance au groupe protégé. L'incorporation d'un    ment parlant, d'autoriser les biais liés à l'apparte-
            élément aléatoire dans le modèle, de sorte que     nance ou à l'origine ethnique, ou encore au genre.
            certains individus qui, d'après les déductions tirées,   Une question clé est de savoir dans quelle mesure
            ne seraient généralement pas considérés comme des   l'industrie doit assumer la responsabilité et le coût
            débiteurs fiables bénéficient néanmoins d'un crédit,   liés à l'identification des biais, en utilisant les données
            pourrait permettre au modèle de vérifier la validité   à sa disposition pour repérer toute discrimination
            des hypothèses initiales. L'introduction de données   éventuelle. Lorsque la prise de décisions automati-
            évolutives reflétant mieux le monde réel peut contri-  sée est à l'origine de discriminations et de préjudices
            buer à améliorer l'équité et la précision globales du   illicites en vertu des lois en vigueur, les entreprises
            système.                                           qui recourent à un tel processus peuvent utiliser des
               Une autre approche proposée consiste à sélec-   outils (et, selon certaines lois, en avoir l'obligation),
            tionner ou à modifier les données d'entrée de      afin de s'assurer que l'utilisation des données n'exa-
            manière à ce que le produit réponde aux critères   cerbera pas les préjugés historiques, ainsi que des
            d'équité appliqués par le système. Pour ce qui est   méthodes de traitement des données qui évitent
            des groupes minoritaires, des échantillons d'appren-  d'utiliser des variables de substitution pour les caté-
            tissage  supplémentaires  peuvent  être  sélectionnés   gories protégées. En outre, il peut s'avérer nécessaire
            afin d'éviter de trop mettre en avant leur statut de   de faire examiner les résultats des algorithmes par
            minorité. D'autres méthodes peuvent être adoptées   des êtres humains. Il est également possible d'utiliser
            pour garantir la parité statistique entre les groupes ;   les données disponibles pour repérer les discrimina-
                                                        139
            l'important est de veiller à ce qu'elles soient incor-  tions, et d'obliger les entreprises à le faire par voie
            porées au modèle à l'étape de conception, même en   réglementaire.
            utilisant l'intelligence artificielle pour surveiller l'utili-  Même si les résultats n'enfreignent pas les lois
            sation de l'intelligence artificielle.             interdisant la discrimination fondée sur l'apparte-
               Dans certains cas, on pourrait s'attendre à ce qu'il y   nance ethnique, la religion ou tout autre facteur
            ait une incitation commerciale à éliminer les biais. La   propre à une catégorie protégée, le préjudice injuste
            partialité ne nuit pas seulement à la réputation d'un   causé aux personnes peut amener les entreprises à
            service, elle peut instaurer une économie commer-  adopter des cadres déontologiques et de "bonnes



                                             Mégadonnées, apprentissage automatique, protection des usagers et confidentialité  33
   30   31   32   33   34   35   36   37   38   39   40