Gouvernance responsable de l'IA et défis de l'IA à usage général
EY
Session 262
Comment appliquer la gestion des risques de l'IA lorsque le contexte de l'application est défini de manière minimale
En nous appuyant sur notre panel d'ateliers de 2022 qui s'est concentré sur l'assurance et l'évaluation de la conformité des produits et services numériques émergents, tels que l'IA, nous poursuivrons le thème de la discussion autour de considérations pratiques pour les réglementations, les normes et les directives de gouvernance d'entreprise, mais nous concentrerons cette fois sur les défis spécifiques posés par les grands modèles d'IA générative (par exemple Chat GPT, DALL-E 2, Synthesia, Stable Diffusion). Plus précisément, nous discuterons de la manière d'intégrer ces systèmes dans les cadres de gestion des risques de l'IA à la lumière du manque de spécificité des cas d'utilisation dans le modèle de base, associé à un manque de contrôle sur ce modèle par ceux qui spécifient le cas d'utilisation. À la lumière de ces défis, nous nous demanderons comment les efforts existants en faveur d'une gouvernance responsable de l'IA pourraient être adaptés pour intégrer les exigences des grands modèles d'IA générative.

Le Dr Ansgar Koene est Global AI Ethics and Regulatory Leader chez EY (Ernst & Young) où il dirige l'équipe de politique publique liée à l'IA et contribue aux travaux sur la gouvernance de l'IA et le cadre Trusted AI d'EY. Dans le cadre de ce travail, il représente EY au sein du Groupe de travail de l'OCDE sur l'IA et la gouvernance et le Comité des entreprises de l'OCDE sur la politique économique numérique (BIAC CDEP).
Ansgar a présidé le groupe de travail IEEE P7003 Standard for Algorithmic Bias Considerations et est co-organisateur des travaux du comité CEN-CENELEC JTC21 "AI" sur l'évaluation de la conformité de l'IA. Il est administrateur de la fondation 5Rights pour les droits des jeunes en ligne et conseille sur l'IA et l'éthique des données pour l'ONG panafricaine AfroLeadership et la start-up de mobilité intelligente Hayden AI .
Ansgar a une formation de recherche multidisciplinaire, ayant travaillé et publié sur des sujets allant de la politique et de la gouvernance des systèmes algorithmiques (IA), de la confidentialité des données, de l'éthique de l'IA, des normes de l'IA, de la robotique bio-inspirée, de l'IA et des neurosciences computationnelles au comportement humain expérimental. /Études de perception. Il est titulaire d'une maîtrise en génie électrique et d'un doctorat en neurosciences computationnelles.

Le Dr Ahmed Imran est chercheur en systèmes d'information à l'Université de Canberra et dirige le groupe de recherche interdisciplinaire sur l'inégalité numérique et le changement social (Rc-disc). Les intérêts de recherche d'Ahmed incluent l'utilisation stratégique de l'informatique, l'e-gouvernement, l'ICT4D et l'impact socioculturel des TIC et la transformation organisationnelle impactée par les TIC. Le Dr Imran a accumulé plus d'une décennie d'expérience universitaire dans deux des principales universités australiennes (ANU et UNSW) avant de rejoindre l'UC et a publié dans des revues de premier plan. Sa vaste expérience en tant que responsable informatique ainsi que son travail dans les pays en développement sont devenus inestimables pour la recherche, ainsi que pour comprendre et fournir un aperçu riche du contexte socioculturel à travers de multiples lentilles, ce qui a donné lieu à des opportunités de recherche interdisciplinaire. La recherche du Dr Imran s'est avérée apporter des applications dans le monde réel, ce qui a renforcé son importance et sa pertinence aux yeux de la communauté des chercheurs.
-
C5. Etablir la confiance et la sécurité dans l'utilisation des TIC
-
C7. Les applications TIC et leur apport dans tous les domaines — Commerce électronique
-
C10. Dimensions éthiques de la société de l'information
-
Objectif 8: Promouvoir croissance économique soutenue, plein emploi productif et travail décent pour tous
-
Objectif 11: Faire en sorte que les villes et les établissements humains soient ouverts à tous, sûrs, résilients et durables
-
Objectif 16: Promouvoir l’avènement de sociétés pacifiques, l’accès de tous à la justice et des institutions efficaces
This session builds on the outcomes of out panel last year on "Assurance and conformity assessment of digital products and services" (session 410) and our report on AI Risk Assessment methodologies.