Gouvernance et évaluation des systèmes d'IA pour une prestation de services fiable
EY (Ernst & Young LLP)
Session 177
Les outils et produits d'IA sont de plus en plus adoptés dans les aspects critiques de la prestation de services, tant dans le secteur public que privé. Pour gérer les risques potentiels liés à cette utilisation de l'IA, les décideurs politiques, la société civile et les dirigeants d'entreprise soulignent la nécessité d'une mise en œuvre fiable des processus de gouvernance de l'IA. Ce besoin est particulièrement important pour les systèmes d'IA dont une défaillance aurait un impact négatif significatif sur les droits humains. Les bonnes pratiques en matière de gouvernance des systèmes critiques dans d'autres domaines (par exemple, la cybersécurité et la sécurité informatique) ont établi la nécessité d'associer l'utilisation de normes et de cadres de gestion à des procédures d'évaluation fiables qui vérifient la bonne mise en œuvre des processus de gouvernance et identifient les lacunes ou les améliorations potentielles.
Dans cet atelier, nous discuterons du domaine de la gouvernance et des évaluations des systèmes d'IA, en identifiant les éléments politiques nécessaires pour garantir que la gouvernance et l'évaluation de l'IA peuvent fournir de manière fiable les garanties souhaitées pour une utilisation confiante de l'IA nécessaire pour les cas d'utilisation à fort impact.
Nous passerons en revue :
- Approches politiques actuelles (à la fois obligatoires et volontaires) concernant l'utilisation de la gouvernance de l'IA et ses évaluations
- Progrès dans l’établissement de normes et d’exigences minimales pour une vérification fiable des systèmes d’IA, y compris les compétences, la formation et l’expertise nécessaires des prestataires d’évaluation
- Défis particuliers à prendre en compte lors de l’établissement de cadres de gouvernance et d’évaluation pour l’utilisation de l’IA dans les pays du Sud.
Dans notre discussion, nous aborderons des questions politiques centrées sur :
- Quelles sont les exigences politiques minimales pour que les évaluations de l’IA fournissent des informations fiables sur la fiabilité des systèmes d’IA utilisés dans les applications à haut risque/impact ?
- Comment les cadres d’évaluation de l’IA peuvent-ils soutenir l’adoption de l’IA comme outil pour atteindre les Objectifs de développement durable à l’horizon 2030 ?
- Comment les normes de gouvernance et d’évaluation de l’IA peuvent-elles contribuer à réduire la fracture numérique mondiale ?
La session se déroulera en deux parties de trente minutes chacune. Durant les 30 premières minutes, l'intervenant partagera ses réflexions avec les participants et répondra aux questions. Durant la seconde partie, les rôles seront inversés : le public sera invité à partager ses expériences et ses cas d'utilisation, sur la base desquels les intervenants formuleront des recommandations préliminaires.





-
C3. L'accès à l'information et au savoir
-
C4. Le renforcement des capacités
-
C5. Etablir la confiance et la sécurité dans l'utilisation des TIC
-
C6. Créer un environnement propice
-
C10. Dimensions éthiques de la société de l'information
-
Objectif 8: Promouvoir croissance économique soutenue, plein emploi productif et travail décent pour tous
-
Objectif 9: Bâtir une infrastructure résiliente, promouvoir une industrialisation durable et encourager l’innovation