Il s'agit d'une traduction automatique générée par DeepL Traduction. La traduction automatique est une traduction littérale du contenu d'origine dans une autre langue. Elle est entièrement automatisée et ne fait appel à aucune intervention humaine. La qualité et la fidélité de la traduction automatique peuvent varier considérablement d'un texte à l'autre et entre différentes paires de langues. L'UIT ne garantit pas l'exactitude et décline toute responsabilité en cas d'erreurs éventuelles. En cas de doutes quant à l'exactitude des informations présentées dans les versions traduites de nos pages web, veuillez vous reporter au texte officiel en anglais. Certains contenus (tels que des images, des vidéos, des fichiers, etc.) peuvent ne pas être traduits en raison des limitations techniques du système.

Assurance et évaluation de la conformité des produits et services numériques


Ernst et Young

Session 410

jeudi, 2 juin 2022 11:00–12:45 (UTC+02:00) Salle C2, Bâtiment de la Tour de l'UIT (avec participation à distance) Atelier thématique

Le panel discutera des défis qui se posent lors de l'exécution de l'assurance ou de l'évaluation de la conformité des produits et services numériques. Nous passerons en revue ce que l'on peut apprendre de la profession d'audit existante et du travail que font divers gouvernements, associations de normalisation, organismes techniques et ONG pour fournir des méthodologies qui donneront aux citoyens et aux gouvernements la confiance dont ils ont besoin pour savoir où, quand et comment utiliser ces technologies d'une manière qui maximise leurs avantages et minimise les impacts négatifs.


Ansgar Koene
Ansgar Köne Leader mondial de l'éthique et de la réglementation en matière d'IA Royaume-Uni Modérateur

Le Dr Ansgar Koene est Global AI Ethics and Regulatory Leader chez EY (Ernst & Young) où il dirige l'équipe de politique publique liée à l'IA et contribue aux travaux sur la gouvernance de l'IA et au cadre Trusted AI d'EY. Il est également chercheur principal à l'Université de Nottingham, préside le groupe de travail IEEE P7003 Standard for Algorithmic Bias Considerations et est organisateur des travaux du comité CEN-CENELEC JTC21 "AI" sur l'évaluation de la conformité de l'IA. Il est administrateur de la fondation 5Rights pour les droits des jeunes en ligne et conseille sur l'IA et l'éthique des données pour AfroLeadership, une ONG panafricaine.

Ansgar a une formation de recherche multidisciplinaire, ayant travaillé et publié sur des sujets allant de la politique et de la gouvernance des systèmes algorithmiques (IA), de la confidentialité des données, de l'éthique de l'IA, des normes de l'IA, de la robotique bio-inspirée, de l'IA et des neurosciences computationnelles au comportement humain expérimental. /Études de perception. Il est titulaire d'une maîtrise en génie électrique et d'un doctorat en neurosciences computationnelles.


Kai Zenner
Kai Zenner Chef de cabinet du député européen Axel Voss Parlement européen, Belgique

Kai Zenner est chef de bureau et conseiller en politique numérique pour le député européen Axel Voss (groupe du Parti populaire européen) au Parlement européen. Se décrivant comme un passionné du numérique, il se concentre sur les technologies émergentes, le partage de données et la transition numérique de l'UE. Actuellement, il est impliqué dans les négociations politiques sur la loi sur l'IA et le règlement sur la confidentialité ainsi que sur la prochaine directive sur la responsabilité en matière d'IA. Il est diplômé en politique (Université d'Édimbourg) et en droit (Université de Münster). Avant de rejoindre le Parlement européen, il a travaillé comme chercheur associé au bureau européen de la Fondation Konrad Adenauer à Bruxelles.


Ghazi Ahamat
Ghazi Ahamat [R] Responsable de l'assurance IA Centre pour l'éthique et l'innovation des données, Royaume-Uni

Ghazi Ahamat est chef d'équipe au Centre pour l'éthique et l'innovation des données (CDEI), une équipe d'experts au sein du gouvernement britannique qui travaille à permettre une innovation responsable dans l'IA et les technologies axées sur les données. Ghazi dirige les travaux du CDEI sur l'assurance de l'IA et élabore actuellement une feuille de route sur l'assurance de l'IA, qui expose le point de vue du CDEI sur l'écosystème actuel de l'assurance de l'IA au Royaume-Uni. Il était auparavant co-auteur de la revue du CDEI sur les biais dans la prise de décision algorithmique.

Ghazi a précédemment fondé le Victorian Center for Data Insights, une équipe d'analyse centrale du gouvernement de l'État en Australie, et en tant que consultant auprès du BCG, il a conseillé les gouvernements d'Australie et du Moyen-Orient sur la science des données, la stratégie et la transformation. Il est titulaire d'une maîtrise en politique technologique (avec distinction) de l'Université de Cambridge, où il s'est concentré sur les implications politiques et stratégiques de l'IA. Il a également étudié l'économie et les mathématiques pures à l'Université de Melbourne.


Ashley Casovan
Ashley Casovan Directeur exécutif Institut d'IA responsable, Canada

Ashley Casovan est actuellement directrice exécutive du Responsible AI Institute (RAII), une organisation à but non lucratif multipartite dédiée à l'atténuation des dommages et des conséquences imprévues des systèmes d'IA. L'objectif actuel de RAII est de compléter l'architecture de la première certification indépendante et accréditée au monde pour les systèmes d'IA responsables. Auparavant, Ashley a été directrice des données et du numérique pour le gouvernement du Canada, où elle a dirigé l'élaboration de la première politique gouvernementale nationale pour une IA responsable.

Travaillant activement pour influencer le changement, Ashley est membre du réseau d'experts de l'OCDE sur le conseil en politique d'IA, présidente du programme de certification de l'IA responsable avec la Global AI Action Alliance du Forum économique mondial, membre du conseil exécutif du Centre international d'expertise de Montréal sur l'Intelligence Artificielle (CEIMIA), et membre du Global Industry Council (GIC) IFIP/IP3 au sein de l'ONU. Elle prête également son temps en tant que membre du comité consultatif d'experts pour le Global Index on Responsible AI.


Aurélie Jacquet
Aurélie Jacquet [R] Président des normes d'IA Normes Australie, Australie

Aurélie travaille sur des initiatives mondiales de premier plan pour la mise en œuvre de l'IA responsable. Pour n'en citer que quelques-uns, elle est

  • Le président du comité des normes représentant l'Australie aux normes internationales sur l'IA ;
  • Le coprésident du premier programme mondial de certification accrédité pour l'IA développé dans le cadre de la Global AI Action Alliance for the World Economic
    Forum; et
  • Un expert de l'Institute of Electrical and Electronics Engineers (IEEE) travaillant avec eux sur diverses initiatives de normalisation de l'IA.

En tant que consultante, elle conseille les entreprises ASX 20 sur la mise en œuvre responsable de l'IA et elle travaille également en tant que consultante principale en recherche sur l'IA responsable pour CSIRO-DATA61, l'agence scientifique nationale australienne.


Sujets
Apprentissage automatique Blockchain Cybersécurité Données importantes Économie numérique Éthique Informatique en nuage (Cloud Computing) Intelligence artificielle Transformation numérique
Lignes d'action du SMSI
  • GO C5 logo C5. Etablir la confiance et la sécurité dans l'utilisation des TIC
  • GO C10 logo C10. Dimensions éthiques de la société de l'information
  • GO C11 logo C11. Coopération internationale et régionale

Des méthodologies bien définies et mises en œuvre de manière cohérente pour la réalisation de l'assurance et de l'évaluation de la conformité des services numériques fournissent une infrastructure de gouvernance permettant d'établir que les services numériques sont conformes aux attentes de qualité définies dans les normes ou les réglementations. Ces mécanismes de sauvegarde de la qualité sont essentiels pour renforcer la confiance et la sécurité du public dans l'utilisation des TIC (C5) et, lors de l'évaluation par rapport aux normes et réglementations fondées sur l'éthique, soutiennent les dimensions éthiques de la société de l'information (C10). En raison de la nature internationale de la plupart des prestations de services numériques, les meilleures pratiques réussies pour l'assurance et l'évaluation de la conformité des services numériques soutiennent et dépendent de la coopération internationale et régionale (C11).

Objectifs de développement durable
  • Objectif 8 logo Objectif 8: Promouvoir croissance économique soutenue, plein emploi productif et travail décent pour tous
  • Objectif 9 logo Objectif 9: Bâtir une infrastructure résiliente, promouvoir une industrialisation durable et encourager l’innovation
  • Objectif 16 logo Objectif 16: Promouvoir l’avènement de sociétés pacifiques, l’accès de tous à la justice et des institutions efficaces