Assurance et évaluation de la conformité des produits et services numériques
Ernst et Young
Session 410
Le panel discutera des défis qui se posent lors de l'exécution de l'assurance ou de l'évaluation de la conformité des produits et services numériques. Nous passerons en revue ce que l'on peut apprendre de la profession d'audit existante et du travail que font divers gouvernements, associations de normalisation, organismes techniques et ONG pour fournir des méthodologies qui donneront aux citoyens et aux gouvernements la confiance dont ils ont besoin pour savoir où, quand et comment utiliser ces technologies d'une manière qui maximise leurs avantages et minimise les impacts négatifs.

Le Dr Ansgar Koene est Global AI Ethics and Regulatory Leader chez EY (Ernst & Young) où il dirige l'équipe de politique publique liée à l'IA et contribue aux travaux sur la gouvernance de l'IA et au cadre Trusted AI d'EY. Il est également chercheur principal à l'Université de Nottingham, préside le groupe de travail IEEE P7003 Standard for Algorithmic Bias Considerations et est organisateur des travaux du comité CEN-CENELEC JTC21 "AI" sur l'évaluation de la conformité de l'IA. Il est administrateur de la fondation 5Rights pour les droits des jeunes en ligne et conseille sur l'IA et l'éthique des données pour AfroLeadership, une ONG panafricaine.
Ansgar a une formation de recherche multidisciplinaire, ayant travaillé et publié sur des sujets allant de la politique et de la gouvernance des systèmes algorithmiques (IA), de la confidentialité des données, de l'éthique de l'IA, des normes de l'IA, de la robotique bio-inspirée, de l'IA et des neurosciences computationnelles au comportement humain expérimental. /Études de perception. Il est titulaire d'une maîtrise en génie électrique et d'un doctorat en neurosciences computationnelles.

Kai Zenner est chef de bureau et conseiller en politique numérique pour le député européen Axel Voss (groupe du Parti populaire européen) au Parlement européen. Se décrivant comme un passionné du numérique, il se concentre sur les technologies émergentes, le partage de données et la transition numérique de l'UE. Actuellement, il est impliqué dans les négociations politiques sur la loi sur l'IA et le règlement sur la confidentialité ainsi que sur la prochaine directive sur la responsabilité en matière d'IA. Il est diplômé en politique (Université d'Édimbourg) et en droit (Université de Münster). Avant de rejoindre le Parlement européen, il a travaillé comme chercheur associé au bureau européen de la Fondation Konrad Adenauer à Bruxelles.

Ghazi Ahamat est chef d'équipe au Centre pour l'éthique et l'innovation des données (CDEI), une équipe d'experts au sein du gouvernement britannique qui travaille à permettre une innovation responsable dans l'IA et les technologies axées sur les données. Ghazi dirige les travaux du CDEI sur l'assurance de l'IA et élabore actuellement une feuille de route sur l'assurance de l'IA, qui expose le point de vue du CDEI sur l'écosystème actuel de l'assurance de l'IA au Royaume-Uni. Il était auparavant co-auteur de la revue du CDEI sur les biais dans la prise de décision algorithmique.
Ghazi a précédemment fondé le Victorian Center for Data Insights, une équipe d'analyse centrale du gouvernement de l'État en Australie, et en tant que consultant auprès du BCG, il a conseillé les gouvernements d'Australie et du Moyen-Orient sur la science des données, la stratégie et la transformation. Il est titulaire d'une maîtrise en politique technologique (avec distinction) de l'Université de Cambridge, où il s'est concentré sur les implications politiques et stratégiques de l'IA. Il a également étudié l'économie et les mathématiques pures à l'Université de Melbourne.

Ashley Casovan est actuellement directrice exécutive du Responsible AI Institute (RAII), une organisation à but non lucratif multipartite dédiée à l'atténuation des dommages et des conséquences imprévues des systèmes d'IA. L'objectif actuel de RAII est de compléter l'architecture de la première certification indépendante et accréditée au monde pour les systèmes d'IA responsables. Auparavant, Ashley a été directrice des données et du numérique pour le gouvernement du Canada, où elle a dirigé l'élaboration de la première politique gouvernementale nationale pour une IA responsable.
Travaillant activement pour influencer le changement, Ashley est membre du réseau d'experts de l'OCDE sur le conseil en politique d'IA, présidente du programme de certification de l'IA responsable avec la Global AI Action Alliance du Forum économique mondial, membre du conseil exécutif du Centre international d'expertise de Montréal sur l'Intelligence Artificielle (CEIMIA), et membre du Global Industry Council (GIC) IFIP/IP3 au sein de l'ONU. Elle prête également son temps en tant que membre du comité consultatif d'experts pour le Global Index on Responsible AI.

Aurélie travaille sur des initiatives mondiales de premier plan pour la mise en œuvre de l'IA responsable. Pour n'en citer que quelques-uns, elle est
- Le président du comité des normes représentant l'Australie aux normes internationales sur l'IA ;
- Le coprésident du premier programme mondial de certification accrédité pour l'IA développé dans le cadre de la Global AI Action Alliance for the World Economic
Forum; et - Un expert de l'Institute of Electrical and Electronics Engineers (IEEE) travaillant avec eux sur diverses initiatives de normalisation de l'IA.
En tant que consultante, elle conseille les entreprises ASX 20 sur la mise en œuvre responsable de l'IA et elle travaille également en tant que consultante principale en recherche sur l'IA responsable pour CSIRO-DATA61, l'agence scientifique nationale australienne.
-
C5. Etablir la confiance et la sécurité dans l'utilisation des TIC
-
C10. Dimensions éthiques de la société de l'information
-
C11. Coopération internationale et régionale
Des méthodologies bien définies et mises en œuvre de manière cohérente pour la réalisation de l'assurance et de l'évaluation de la conformité des services numériques fournissent une infrastructure de gouvernance permettant d'établir que les services numériques sont conformes aux attentes de qualité définies dans les normes ou les réglementations. Ces mécanismes de sauvegarde de la qualité sont essentiels pour renforcer la confiance et la sécurité du public dans l'utilisation des TIC (C5) et, lors de l'évaluation par rapport aux normes et réglementations fondées sur l'éthique, soutiennent les dimensions éthiques de la société de l'information (C10). En raison de la nature internationale de la plupart des prestations de services numériques, les meilleures pratiques réussies pour l'assurance et l'évaluation de la conformité des services numériques soutiennent et dépendent de la coopération internationale et régionale (C11).
-
Objectif 8: Promouvoir croissance économique soutenue, plein emploi productif et travail décent pour tous
-
Objectif 9: Bâtir une infrastructure résiliente, promouvoir une industrialisation durable et encourager l’innovation
-
Objectif 16: Promouvoir l’avènement de sociétés pacifiques, l’accès de tous à la justice et des institutions efficaces
Survey of AI Risk Assessment Methodologies (EY and Trilateral Research)
REPORT on artificial intelligence in a digital age (europa.eu)
The roadmap to an effective AI assurance ecosystem - GOV.UK (www.gov.uk)
AI assurance guide (cdeiuk.github.io)
Responsible AI Institute - RAII Certification
An Artificial Intelligence Standards Roadmap: Making Australia’s Voice Heard
Pragmatic digital policy | Brussels | Digitizing Europe (kaizenner.eu)