Aseguramiento y evaluación de la conformidad de productos y servicios digitales
Ernst & Young
Sesión 410
El panel discutirá los desafíos que surgen al realizar el aseguramiento o la evaluación de la conformidad de los productos y servicios digitales. Revisaremos lo que se puede aprender de la profesión de auditoría existente y el trabajo que varios gobiernos, asociaciones de estándares, organismos técnicos y ONG están haciendo para proporcionar metodologías que brinden a los ciudadanos y gobiernos la confianza que necesitan para saber dónde, cuándo y cómo. usar estas tecnologías de una manera que maximice su beneficio y minimice los impactos negativos.
El Dr. Ansgar Koene es líder global de ética y regulación de la IA en EY (Ernst & Young), donde dirige el equipo de políticas públicas relacionadas con la IA y contribuye al trabajo sobre la gobernanza de la IA y el marco de IA de confianza de EY. También es investigador sénior en la Universidad de Nottingham, preside el grupo de trabajo IEEE P7003 Standard for Algorithmic Bias Considerations y es coordinador del trabajo del comité CEN-CENELEC JTC21 "AI" sobre evaluación de conformidad de IA. Es fideicomisario de la fundación 5Rights para los derechos de los jóvenes en línea y asesora sobre inteligencia artificial y ética de datos para AfroLeadership, una ONG panafricana.
Ansgar tiene antecedentes de investigación multidisciplinarios, habiendo trabajado y publicado sobre temas que van desde la política y la gobernanza de los sistemas algorítmicos (IA), la privacidad de los datos, la ética de la IA, los estándares de la IA, la robótica bioinspirada, la IA y la neurociencia computacional hasta el comportamiento humano experimental. /Estudios de percepción. Tiene una Maestría en Ingeniería Eléctrica y un Doctorado en Neurociencia Computacional.
Kai Zenner es jefe de oficina y asesor de política digital del eurodiputado Axel Voss (Grupo del Partido Popular Europeo) en el Parlamento Europeo. Se describe a sí mismo como un entusiasta digital y se centra en las tecnologías emergentes, el intercambio de datos y la transición digital de la UE. Actualmente, está involucrado en las negociaciones políticas sobre la Ley de IA y el Reglamento de privacidad electrónica, así como la próxima directiva de responsabilidad de IA. Se graduó en política (Universidad de Edimburgo) y en derecho (Universidad de Münster). Antes de pasar al Parlamento Europeo, trabajó como investigador asociado en la oficina europea de la Fundación Konrad Adenauer en Bruselas.
Ghazi Ahamat es líder de equipo en el Centro de ética e innovación de datos (CDEI), un equipo de expertos dentro del gobierno del Reino Unido que trabaja para permitir la innovación responsable en IA y tecnologías basadas en datos. Ghazi lidera el trabajo del CDEI sobre garantía de IA y actualmente está desarrollando una hoja de ruta de garantía de IA, que establece la visión de CDEI sobre el ecosistema de garantía de IA actual en el Reino Unido. Anteriormente fue coautor de la Revisión del sesgo en la toma de decisiones algorítmicas del CDEI.
Ghazi fundó anteriormente el Victorian Center for Data Insights, un equipo de análisis central del gobierno estatal en Australia, y como consultor de BCG, asesoró a los gobiernos de Australia y Medio Oriente sobre ciencia de datos, estrategia y transformación. Tiene una Maestría en Política Tecnológica (con Distinción) en la Universidad de Cambridge, donde se centró en las implicaciones políticas y estratégicas de la IA. También estudió Economía y Matemáticas Puras en la Universidad de Melbourne.
Ashley Casovan actualmente se desempeña como Directora Ejecutiva del Instituto de IA Responsable (RAII), una organización sin fines de lucro de múltiples partes interesadas dedicada a mitigar el daño y las consecuencias no deseadas de los sistemas de IA. El objetivo actual de RAII es completar la arquitectura para la primera certificación acreditada e independiente del mundo para sistemas de IA responsables. Anteriormente, Ashley se desempeñó como Directora de Datos y Digital del Gobierno de Canadá, donde dirigió el desarrollo de la primera política gubernamental nacional para la IA responsable.
Trabajando activamente para influir en el cambio, Ashley es miembro de la Red de Expertos de la OCDE en el Asesoramiento sobre Políticas de IA, Presidenta del Programa de Certificación de IA Responsable con la Alianza de Acción de IA Global del Foro Económico Mundial, miembro de la junta ejecutiva del Centro Internacional de Experiencia en Montreal on Artificial Intelligence (CEIMIA), y miembro del IFIP/IP3 Global Industry Council (GIC) dentro de la ONU. También presta su tiempo como miembro del comité asesor de expertos para el Índice global sobre IA responsable.
Aurelie trabaja en iniciativas globales líderes para la implementación de IA responsable. Por citar algunas, ella es
- El presidente del comité de estándares que representa a Australia en los estándares internacionales sobre IA;
- El copresidente del primer programa de certificación global acreditado para IA desarrollado bajo la Alianza de Acción Global de IA para la Economía Mundial.
Foro; y - Un experto del Instituto de Ingenieros Eléctricos y Electrónicos (IEEE) que trabaja con ellos en varias iniciativas de estándares de IA.
Como consultora, asesora a empresas ASX 20 sobre la implementación responsable de IA y también trabaja como consultora principal de investigación sobre IA responsable para CSIRO-DATA61, la agencia científica nacional de Australia.
- C5. Crear confianza y seguridad en la utilización de las TIC
- C10. Dimensiones éticas de la sociedad de la información
- C11. Cooperación internacional y regional
Metodologías bien definidas e implementadas de manera consistente para realizar la evaluación de la garantía y la conformidad de los servicios digitales proporcionan una infraestructura de gobierno para establecer que los servicios digitales cumplen con las expectativas de calidad definidas en las normas o reglamentos. Este mecanismo de salvaguarda de la calidad es clave para generar confianza y seguridad públicas en el uso de las TIC (C5) y, cuando se evalúa frente a normas y reglamentos basados en la ética, respalda las dimensiones éticas de la sociedad de la información (C10). Debido a la naturaleza internacional de la mayoría de la provisión de servicios digitales, las mejores prácticas exitosas para el aseguramiento y la evaluación de la conformidad de los servicios digitales respaldan y dependen de la cooperación internacional y regional (C11).
- Objetivo 8: Promover el crecimiento económico sostenido, inclusivo y sostenible, el empleo pleno y productivo y el trabajo decente para todos
- Objetivo 9: Construir infraestructuras resilientes, promover la industrialización inclusiva y sostenible y fomentar la innovación
- Objetivo 16: Promover sociedades pacíficas e inclusivas para el desarrollo sostenible, facilitar el acceso a la justicia para todos y crear instituciones eficaces, responsables e inclusivas a todos los niveles
Survey of AI Risk Assessment Methodologies (EY and Trilateral Research)
REPORT on artificial intelligence in a digital age (europa.eu)
The roadmap to an effective AI assurance ecosystem - GOV.UK (www.gov.uk)
AI assurance guide (cdeiuk.github.io)
Responsible AI Institute - RAII Certification
An Artificial Intelligence Standards Roadmap: Making Australia’s Voice Heard
Pragmatic digital policy | Brussels | Digitizing Europe (kaizenner.eu)