Page 48 - Mégadonnées, apprentissage automatique, protection des usagers et confidentialité
P. 48
Ce droit relève des notions de procédure régulière, ticulières), ainsi que contre l'utilisation de données
qui peuvent être compromises si les décisions sont inexactes ou incomplètes dans la prise de décisions
prises par un ordinateur sans autre recours. Il part automatisée les concernant, elles sont peu protégées
également de l'idée que traiter les personnes avec lorsqu'il s'agit de la manière dont les décisions sont
respect et dignité implique de veiller à ce que les effectivement prises.
décisions importantes qui affectent leur vie ne soient
pas prises par un simple ordinateur, mais par un autre 5�4 Évaluer les préjudices et la responsabilité à
être humain. Cette préoccupation est exacerbée par l'égard des usagers
le risque que les ordinateurs produisent des résultats Le principe de responsabilité repose en définitive
erronés ou discriminatoires . sur le fait d'être tenu pour responsable devant la loi,
200
La possibilité de contester une décision automa- y compris en matière de réparation des préjudices
tisée ne consiste pas simplement à cliquer sur une causés. L'une des difficultés de l'élaboration de poli-
demande de réexamen et à recevoir une autre déci- tiques, d'obligations légales et de recours en faveur
sion automatisée définitive, ce qui ne ferait que pro- des usagers dans le domaine de la protection des
duire une autre décision automatisée soumise à un données tient à la nature intangible du préjudice
droit de contestation. En fin de compte, si une déci- contre lequel les usagers doivent être protégés ou
sion automatisée doit être révisée, il est nécessaire pour lequel ils doivent être indemnisés.
de s'assurer qu'elle est soumise à une certaine forme Cette difficulté peut compromettre la réclamation
d'intervention humaine, dans le cadre de laquelle la d'un usager dès le départ. Pour avoir la possibilité de
personne concernée a la possibilité de présenter son soumettre une demande d'indemnisation au tribunal,
point de vue à un autre être humain, qui déterminera il est généralement nécessaire d'affirmer que l'on a
si la décision automatisée doit être révisée. subi un préjudice. Les tribunaux ont rencontré des
Ladite intervention humaine peut varier dans son difficultés à identifier les préjudices causés en cas de
degré d'implication, allant d'un plein droit d'appel non-respect des lois sur la protection des données et
sur l'ensemble de l'affaire, à une simple vérification de la vie privée, parvenant souvent à des points de
de l'algorithme, en vue de s'assurer que les données vue juridiques très différents. De nombreuses récla-
d'entrée sont exactes, mais pas d'évaluer son fonc- mations ont été rejetées parce que les usagers n'ont
tionnement. Dans l'ensemble, il est toutefois probable pas réussi à démontrer le préjudice qu'ils avaient
que les droits de contestation des décisions prises subi.
dans le cadre d'une intervention humaine se limite- La question de savoir si une personne a subi ou
ront aux cas de violation des principes de protection non un préjudice est souvent examinée au regard
des données (les données d'entrée sont incorrectes d'un élément contrefactuel. Il s'agira donc de déter-
ou incomplètes, le consentement requis de la part miner si la personne se trouve dans une situation plus
de la personne concernée n'a pas été obtenu, etc.). inconfortable que si l'événement ne s'était pas pro-
Il s'agirait donc davantage de questions de procé- duit . Il est particulièrement difficile de démontrer
202
dure que de questions de fond. Le "raisonnement" un préjudice lorsqu'il n'y a pas encore eu de perte
qui sous-tend le fond des décisions et qui oriente la pécuniaire ou physique, par exemple lorsqu'il y a eu
conception et le fonctionnement des algorithmes ne violation d'un système et que des données ont été
serait probablement pas sujet à contestation en ver- obtenues sans autorisation, mais qu'elles n'ont pas
tu des lois sur la protection des données. (encore) été utilisées pour voler de l'argent. Le pré-
Cette situation ne signifie pas que les lois, régle- judice peut être considéré comme conjectural, alors
mentations et normes sectorielles ne peuvent pas que dans certains systèmes juridiques, les plaignants
exiger des fournisseurs qu'ils modifient ou annulent doivent démontrer qu'ils ont effectivement subi un
leurs décisions lorsqu'elles sont générées par des préjudice .
203
modèles d'apprentissage automatique pour des rai- Les théories du préjudice causé par l'obtention
sons de fond, mais plutôt qu'en l'absence de telles illégale de données à caractère personnel incluent
lois, réglementations ou normes, les consommateurs notamment le risque de fraude ou d'usurpation
disposent d'un recours limité pour contester une d'identité, et l'anxiété que l'individu peut éprouver
décision automatisée . face à ces risques. Si les préjudices immatériels sont
201
Alors que les personnes peuvent être protégées plus difficiles à reconnaître et à évaluer, ils peuvent
contre la collecte, l'utilisation et le partage prescrits être tout aussi réels et concrets que les dommages
de leurs données personnelles (en particulier les don- pécuniaires . En effet, non seulement les préjudices
204
nées sensibles ou appartenant à des catégories par- immatériels peuvent être bien réels, mais il est de
46 Mégadonnées, apprentissage automatique, protection des usagers et confidentialité