Page 51 - Mégadonnées, apprentissage automatique, protection des usagers et confidentialité
P. 51
sation. Si les données de sortie risquent d'enfreindre le cadre d'un recours entrepris par un usager, mais
la protection des usagers, la confidentialité des infor- dans le cadre du processus décisionnel à proprement
mations, les lois contre la discrimination ou autres, parler. Une implication humaine de ce type doit être
les entreprises doivent être prêtes à mettre en place étudiée de manière réfléchie.
une stratégie pour coopérer avec les autorités. Par
exemple, les directives de l'État de Californie sur les 6�2 Intégrer la confidentialité des données à la
permis relatifs aux véhicules autonomes contiennent conception
des dispositions particulières sur la manière dont une Pour aborder efficacement les questions de protec-
entreprise doit interagir avec les forces de l'ordre en tion des consommateurs et de confidentialité des
cas d'accident ou de tout autre imprévu. données dans le cadre des mégadonnées et de l'ap-
Le bon fonctionnement des algorithmes, y com- prentissage automatique, il ne faudra pas se conten-
pris la prévention des préjudices, passe en partie par ter du strict minimum en ce qui concerne le respect
une maintenance continue. Certains en appellent à des lois en vigueur, mais aller au-delà de ce cadre
une obligation légale permanente consistant à sur- réglementaire. Il s'agira notamment de concevoir des
veiller les résultats des algorithmes, à instaurer des produits et des services dans l'optique de réduire
mécanismes de retour d'informations (de dépôt de au maximum les atteintes à la vie privée. Les sept
plaintes, par exemple), à procéder à des inspections principes liés à l'intégration du principe de confiden-
et à corriger les modèles . Des questions aussi tialité au processus de conception, élaborés sous la
219
complexes ne sont pas à la portée des usagers, qui houlette d'Ann Cavoukian sont les suivants:
220
manquent d'expertise et de ressources. Il importera
parfois de favoriser une intervention humaine dans 1) Être proactif plutôt que réactif, et privilégier les
le processus de contrôle, non pas simplement dans mesures préventives par rapport aux mesures
Principes FEAT de l'Autorité monétaire de Singapour
4. Les décisions axées sur le modèle AIDA sont régulièrement réexaminées afin de s'assurer que les
modèles se comportent comme prévu.
5. L'utilisation du système AIDA est conforme aux normes déontologiques, aux valeurs et aux codes
de conduite de l'entreprise.
6. Les décisions axées sur le modèle AIDA doivent respecter au moins les mêmes normes déontolo-
giques que les décisions humaines.
Version préliminaire de Digital Credit Standards (normes relatives au crédit numérique) de la
Smart Campaign
Indicateur 2�1�3�0
Si l'analyse de la capacité de remboursement est automatisée (par exemple, grâce à l'utilisation d'un
algorithme), l'efficacité du système à prédire la capacité de remboursement des clients est évaluée par
un service indépendant de l'équipe chargée de l'élaboration de l'algorithme au sein de l'organisation
(par exemple, le service d'audit interne, la direction générale ou un autre département). Des recom-
mandations sont ensuite formulées pour améliorer les résultats de l'algorithme, puis rapidement mises
en œuvre.
Indicateur 2�1�10�0
Le fournisseur dispose d'un processus de contrôle interne rigoureux pour vérifier l'application uniforme
des politiques et procédures relatives à la souscription de crédit, qu'il soit automatisé ou non (inter-
vention du personnel).
Indicateur 2�1�10�1
Les critères guidant l'algorithme sont documentés, y compris les facteurs/types de variables utilisés et
la justification du recours à ces facteurs. Un service indépendant au sein de l'organisation évalue régu-
lièrement la cohérence et la conformité de la logique appliquée, de l'algorithme et de ses résultats.
Il existe des preuves documentées des tests effectués et des mesures correctives qui ont été prises.
Mégadonnées, apprentissage automatique, protection des usagers et confidentialité 49