La presente es una traducción automática generada por DeepL Translate. La traducción automática es una traducción literal del contenido original a otro idioma. Está totalmente automatizada y no implica ninguna intervención humana. La calidad y la fidelidad de la traducción automática pueden variar considerablemente de un texto a otro y entre diferentes pares de idiomas. La UIT no garantiza la fidelidad de las traducciones y no asume ninguna responsabilidad en caso de error. Si tiene alguna duda acerca de la exactitud de la información presentada en las versiones traducidas de nuestras páginas web, remítase al texto oficial en inglés. Puede que algunos contenidos (como imágenes, vídeos, archivos, etc.) no sean traducidos debido a las limitaciones técnicas del sistema.

Líneas de acción de la CMSI C10: Ética: la recomendación de la UNESCO sobre la ética de la inteligencia artificial: poner la ética en el centro de los sistemas de IA


Sector de Ciencias Sociales y Humanas de la UNESCO

Sesión 237

jueves, 16 marzo 2023 15:15–16:15 (UTC+01:00) Sala E, CICG, 3rd Floor Reunión de facilitación de la línea de acción interactiva

La inteligencia artificial (IA) continúa siendo un área candente de rápido desarrollo tecnológico e innovación. Además de los beneficios evidentes, las tecnologías de IA conllevan grandes riesgos. Para tomar un ejemplo reciente, en los últimos meses, una gama de nuevas y potentes aplicaciones de IA se ha puesto a disposición de usuarios no profesionales de todo el mundo, incluidos modelos de lenguaje grandes como ChatGPT y herramientas de generación de imágenes como DALL·E 2. y medio viaje. La súbita disponibilidad de estas herramientas ha desencadenado un frenesí en los medios y las redes sociales, con un entusiasmo público generalizado por las nuevas posibilidades que se han abierto, pero también ha suscitado profundas y crecientes preocupaciones éticas y legales sobre una amplia gama de cuestiones, incluida la potencial de desinformación a escala, reproducción de estereotipos dañinos y sesgos en los textos e imágenes que se generan, plagio, autoría y trabajo creativo humano, nuevos vectores de ataques cibernéticos, así como preguntas sobre el uso legítimo y legal de datos y obras de arte en línea por empresas que producen modelos de IA. Estas herramientas también contribuyen a los desafíos inmediatos y directos, pero también a las oportunidades potenciales, para las industrias creativas y la educación, que se ven obligadas a adaptarse rápidamente en respuesta. Mientras tanto, los desarrollos y despliegues de IA de menos perfil pero igualmente importantes continúan en todos los sectores.

En muchos sentidos, estas herramientas destacadas sirven simplemente como los últimos ejemplos de por qué los enfoques éticos y responsables de la IA son tan vitales para el despliegue responsable de sistemas de alto impacto que probablemente remodelarán nuestro trabajo y nuestra vida cotidiana en los próximos años y décadas. . A menudo desarrollado en Silicon Valley y presentado como lanzamientos "experimentales", aunque para un público global, parece que ha habido poca evaluación corporativa efectiva de los impactos éticos o el compromiso de múltiples partes interesadas con los usuarios finales potencialmente afectados. Estos casos recientes sirven para resaltar la importancia vital de la Recomendación de la UNESCO sobre la ética de la IA y la necesidad de que los Estados miembros comiencen a implementar sus valores, pasando de los principios a la práctica.

La Recomendación se adoptó en 2021 y sirve como un marco integral y procesable para el desarrollo ético y el uso de la IA que abarca todo el espectro de los derechos humanos. Su objetivo es proporcionar la base para identificar, pensar y comenzar a abordar los tipos de preocupaciones éticas mencionadas anteriormente, así como muchas otras. A medida que avanza hacia la fase de puesta en práctica, la UNESCO está trabajando para desarrollar y poner a prueba herramientas para ayudar a los Estados Miembros a implementar los valores y principios contenidos en la Recomendación, incluida una Metodología de Evaluación de la Preparación y una Evaluación del Impacto Ético.

Con referencia a los desarrollos recientes, este panel se centra en la necesidad de incorporar la ética en cada etapa del ciclo de vida del sistema de IA y utilizar la Recomendación de la UNESCO sobre la ética de la IA para garantizar un enfoque responsable y basado en los derechos humanos para la gobernanza ética de la IA que abarque diseño, desarrollo, despliegue y adquisición. de una manera mutuamente solidaria, inclusiva y holística.


Ms. Jayne Stancavage 【R】
Sra. Jayne Stancavage 【R】 Vicepresidente, Política y Asuntos Regulatorios Corporación Intel

Jayne Stancavage es la Vicepresidenta de Política y Asuntos Regulatorios de Intel Corporation, dirige un equipo responsable de desarrollar e implementar una estrategia para promover las posiciones de política técnica y regulatoria de Intel a nivel mundial en áreas que incluyen inteligencia artificial y datos, vehículos autónomos, conectividad (5G, 6G, Wi-Fi, etc.), ciberseguridad, propiedad intelectual, fabricación y sostenibilidad, estándares y cadena de suministro. Jayne se unió a Intel en 2000 y se centró en la política de comunicaciones. Además de su trabajo en políticas, también ha trabajado dentro de las unidades comerciales de Intel, donde coordinó los esfuerzos internos de Intel para incorporar capacidades Wi-Fi en plataformas de computadoras portátiles.
Jayne tiene más de una década de experiencia en el UIT-R, incluidos los roles de presidente del trabajo a nivel de subgrupos de trabajo y delegado en múltiples Conferencias Mundiales de Radiocomunicaciones. También preside el grupo del Comité Asesor WRC-19 de la FCC de EE. UU. para servicios terrestres. Además, Jayne actualmente es miembro de la Junta Directiva del Instituto de Capacitación de Telecomunicaciones de EE. UU., la Coalición de Políticas de RAN Abierta y la Asociación para la Educación de Vehículos Automatizados (PAVE); también forma parte del equipo de gestión de Spectrum Group de proveedores móviles globales (GSA) y de la junta de líderes de la industria de la Consumer Technology Association (CTA). Anteriormente ha servido en varios términos en la Junta Directiva de Wi-Fi Alliance.
Jayne recibió su licenciatura y maestría en Ciencias Políticas del Instituto de Tecnología de Massachusetts.


Ms. Moira De Roche
Sra. Moira De Roche vicepresidente Federación Internacional para el Procesamiento de la Información (IFIP) (socio de apoyo)

Moira es Vicepresidenta de IFIP (Federación Internacional para el Procesamiento de la Información) y Presidenta de IFIP IP3. Fue galardonada con el IFIP Silver Core en 2016 por su servicio. Ella cree que el comportamiento ético y el liderazgo son la piedra angular de cualquier profesión y trabaja para desarrollar la comprensión de la ética y el valor del Código de Ética de la IFIP.

Moira es una oradora consumada y se ha presentado en conferencias en todo el mundo. Cabe destacar que ha asistido y presentado en los foros de la CMSI desde 2012. Moira es consultora independiente. Su trabajo actual se centra en el diseño instruccional y el desarrollo de cursos en línea. Moira es miembro profesional y miembro del IITPSA (Instituto de Profesionales de TI de Sudáfrica). Recibió el Premio al Servicio Distinguido en TIC del IITPSA en 2009. También es miembro de ACM e IODSA.

Moira es miembro del Consejo del Museo Nacional en Bloemfontein, Sudáfrica.


Mr. Gilles Bach
Sr. Gilles Bach Instructor en Ética Cibernética y Consultor Empresarial Globoética

Gilles es un consultor de estrategia francés en el espacio de datos, IA y digital. Es instructor en los cursos de Ética Cibernética y Liderazgo Responsable de Globethics.net, y miembro del Grupo de Expertos en Ética.


Mr Irakli Khodeli
Sr. Irakli Jodeli Especialista del programa Sección de Bioética y Ética de la Ciencia y la Tecnología, Sector de Ciencias Sociales y Humanas, UNESCO Moderador

Irakli dirigió el programa de Ciencias Sociales y Humanas en la Oficina Regional de Ciencias de Asia y el Pacífico de Yakarta de la UNESCO (2014-2020), donde se comprometió directamente con los gobiernos y la sociedad civil de la región para construir sociedades inclusivas y fomentar el desarrollo humano equitativo, basado en sobre los marcos universales de derechos humanos. Actualmente en la Sede de la UNESCO en París, Irakli se está enfocando en promover la reflexión ética global sobre tecnologías emergentes y convergentes como la inteligencia artificial, IoT, neurotecnología e ingeniería climática. También está coordinando la implementación de instrumentos normativos globales, como la Declaración Universal sobre Bioética y Derechos Humanos (2005) y la Recomendación sobre la Ética de la Inteligencia Artificial (2021), mediante el diseño y la ejecución de programas multifacéticos de desarrollo de capacidades en todo el mundo.


Temas
Aprendizaje automático Big Data Ciberseguridad Computación en la nube Diversidad cultural Economía digital Educación Ética Inclusión digital Infraestructura Inteligencia Artificial La brecha digital Medio Ambiente Medios Salud Transformación digital
Líneas de acción de la CMSI
  • LA C1 logo C1. La función de los gobiernos y de todas las partes interesadas en la promoción de las TIC para el desarrollo
  • LA C3 logo C3. Acceso a la información y al conocimiento
  • LA C4 logo C4. Creación de capacidades
  • LA C6 logo C6. Entorno habilitador
  • LA C7 E–GOV logo C7. Aplicaciones de las TIC: ventajas en todos los aspectos de la vida — Gobierno electrónico
  • LA C7 E–ENV logo C7. Aplicaciones de las TIC: ventajas en todos los aspectos de la vida — Ciberecología
  • LA C10 logo C10. Dimensiones éticas de la sociedad de la información
  • LA C11 logo C11. Cooperación internacional y regional

Esta sesión pone en el centro la Línea de acción c10 Ética, ya que tiene como objetivo discutir la necesidad de gobernar la IA con una brújula ética en mente. Además, debido a la naturaleza general de las tecnologías de IA, la sesión también está directamente vinculada con otras líneas de acción, como la creación de capacidad, el desarrollo y la gobernanza, el entorno propicio y el desarrollo internacional y regional.

Objetivos de desarrollo sostenible
  • Objetivo 1 logo Objetivo 1: Poner fin a la pobreza en todas sus formas en todo el mundo
  • Objetivo 3 logo Objetivo 3: Garantizar una vida sana y promover el bienestar para todos en todas las edades
  • Objetivo 4 logo Objetivo 4: Garantizar una educación inclusiva, equitativa y de calidad y promover oportunidades de aprendizaje durante toda la vida para todos
  • Objetivo 5 logo Objetivo 5: Lograr la igualdad entre los géneros y empoderar a todas las mujeres y niñas
  • Objetivo 7 logo Objetivo 7: Garantizar el acceso a una energía asequible, segura, sostenible y moderna para todos
  • Objetivo 8 logo Objetivo 8: Promover el crecimiento económico sostenido, inclusivo y sostenible, el empleo pleno y productivo y el trabajo decente para todos
  • Objetivo 9 logo Objetivo 9: Construir infraestructuras resilientes, promover la industrialización inclusiva y sostenible y fomentar la innovación
  • Objetivo 10 logo Objetivo 10: Reducir la desigualdad en y entre los países
  • Objetivo 13 logo Objetivo 13: Adoptar medidas urgentes para combatir el cambio climático y sus efectos
  • Objetivo 16 logo Objetivo 16: Promover sociedades pacíficas e inclusivas para el desarrollo sostenible, facilitar el acceso a la justicia para todos y crear instituciones eficaces, responsables e inclusivas a todos los niveles
  • Objetivo 17 logo Objetivo 17: Fortalecer los medios de ejecución y revitalizar la alianza mundial para el desarrollo sostenible

la gobernanza ética de la inteligencia artificial garantizaría que la tecnología que se utiliza en una amplia gama de dominios sea beneficiosa para todos, inclusiva y sostenible. Por lo tanto, la IA ética se cruza con muchos de los ODS, como por ejemplo, para reducir la pobreza, es importante garantizar que todas las personas en todo el mundo puedan disfrutar de los beneficios de la tecnología y utilizarla para oportunidades laborales, oportunidades educativas, etc. .