Верен идее соединить мир

SDG

Искусственный интеллект во благо

​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​5G BCKGROUNDERPhoto by Shutterstock

Общий обзор

Перспективы ИИ


За последние годы программное обеспечение стало гораздо "умнее".

Происходящее в настоящее время распространение ИИ является результатом прогресса в области, известной как машинное обучение. Машинное обучение предусматривает использование алгоритмов, которые позволяют компьютерам учиться самостоятельно, просматривая данные и выполняя задания, основанные на примерах, а не полагаться на подробное программирование человеком[1].

Методом машинного обучения, именуемым глубинным обучением и работающим по образцу биологических нейронных сетей, обнаруживаются и запоминаются схемы в больших массивах данных. Системы глубинного обучения выполняют задания путем рассмотрения примеров, обычно без программирования, и превышают показатели традиционных алгоритмов машинного обучения[2].

Большие данные, которые представляют собой чрезвычайно большие комплексы данных, которые можно анализировать с помощью вычислений для установления схем, тенденций и ассоциаций[3], вместе с мощью ИИ и вычислениями высокого уровня производят новые формы информации и знаний, имеющие огромную ценность для решения сложнейших задач человечества.

Ниже приводятся несколько примеров того, как можно использовать ИИ во благо:

Проблемы

 

Перспективы ИИ огромны, но они и сопряжены с рисками.

Ряды данных и алгоритмы могут отражать или усиливать гендерную, расовую и идеологическую дискриминацию[4]. Если ряды данных (вводимые человеком) неполны или смещены, они могут привести к предвзятым выводам ИИ.

Люди все чаще используют технологии глубинного обучения для решения о том, кто получит ссуду или рабочее место. Но действия алгоритмов глубинного обучения непрозрачны и не дают людям возможности понять, почему ИИ приходит к тем или иным ассоциациям или выводам, когда может произойти сбой и когда и как ИИ может воспроизводить предубеждение[5].

ИИ может усугублять неравенство, автоматизируя выполнение шаблонных задач и ликвидируя рабочие места.

У программного обеспечения, в том числе в сотовых телефонах, камерах наблюдения и электросетях, могут быть дефекты защиты[6]. Это может приводить к хищениям денег и идентичности или сбоям в работе интернета и электричества.

Прогресс в технологиях ИИ может также создавать новые угрозы международному миру и безопасности. Так, машинное обучение может использоваться для производства поддельных ("фейковых") видео- и аудиоматериалов с целью оказания влияния на выборы, выработку политики и государственное управление[7].

Решения: обеспечение использования ИИ во благо


Разработка и принятие соответствующих международных стандартов и наличие программного обеспечения с открытым исходным кодом обеспечат общий язык и инструмент для координации, которые будут способствовать участию многих независимых сторон в разработке приложений ИИ. Это может помочь донести преимущества разработок ИИ до всего мира, смягчая при этом воздействие его отрицательных сторон.

Крайне необходимо, чтобы широкий круг разнообразных заинтересованных сторон ориентировали проектирование, развитие и применение систем ИИ. Для получения точных и представительных выводов ИИ нужны точные и представляющие всё ряды данных. Наряду с этим требуется установить гарантии для содействия законному, этическому, конфиденциальному и безопасному использованию ИИ и больших данных.

Повышение прозрачности ИИ для обоснования принятия правовых или медицинских решений позволит людям понимать, почему ИИ приходит к тем или иным ассоциациям или выводам. Это, в свою очередь, будет стимулировать людей использовать свои знания, опыт и интуицию для подтверждения выводов или принятия решения, отличного от предложенного машиной. Машина анализирует и делает выводы гораздо быстрее и точнее, чем раньше, но правом ставить выводы машины под сомнение и принимать окончательные решения обладают люди.

Чтобы уравновесить воздействие ИИ на занятость и получить пользу от новых возможностей создания рабочих мест, которые предлагает ИИ, необходимо создать условия, способствующие приобретению цифровых навыков, будь то формальное образование или подготовка на рабочем месте. В частности, ИИ откроет перспективы занятости для людей, обладающих углубленными цифровыми навыками, необходимыми для создания ИКТ, управления ими, их испытаний и анализа.

Необходимо прилагать усилия для защиты безопасности, конфиденциальности, идентичности, денежных средств и имущества конечных пользователей с целью решения связанных с ИИ проблем безопасности в таких различных областях, как электронные финансы, электронное государственное управление, "умные" устойчивые города и соединенные автомобили.


Вклад МСЭ в ИИ во благо



Содействие стимулирующей политике и регулированию

Как специализированное учреждение Организации Объединенных Наций в области информационно-коммуникационных технологий МСЭ объединяет заинтересованные стороны, представляющие правительства, отрасли, академические организации и группы гражданского общества со всего мира, чтобы лучше понять возникающую область – ИИ во благо.

Опираясь на успех первого проведенного МСЭ Всемирного саммита "ИИ во благо", Саммит 2018 года привлек 32 учреждения системы ООН и другие заинтересованные стороны глобального масштаба для определения стратегий обеспечения того, чтобы технологии ИИ развивались надежным, безопасным и всеохватывающим образом, при справедливом доступе к их преимуществам. На Саммите были представлены свыше 30 инновационных предложений по проектам "ИИ во благо" по расширению и совершенствованию здравоохранения, совершенствованию мониторинга сельского хозяйства и биоразнообразия с использованием получаемых со спутников изображений, развития "умных" городов и доверия к ИИ.

МСЭ поддерживает хранилище данных по ИИ, в которое каждый, работающий в сфере искусственного интеллекта, может представить важную информацию о том, как применять ИИ во благо. Это единственное глобальное хранилище данных, в котором определяются связанные с ИИ проекты, исследовательские инициативы, научно-исследовательские центры и организации, которые ставят перед собой задачу ускорить продвижение к достижению 17 Целей Организации Объединенных Наций в области устойчивого развития (ЦУР).

МСЭ регулярно проводит встречи глав регуляторных органов в области ИКТ из разных стран мира для обмена мнениями и информацией по ИИ и другим актуальным вопросам регулирования, решения проблем управления и укрепления сотрудничества для использования ИИ во благо.

Установление стандартов

При продвижении вперед международные стандарты – технические спецификации и требования, которые ИИ и другие технологии должны выполнять, чтобы работать удовлетворительно, – могут помочь избежать связанных с ИИ рисков, делая машинное обучение этическим, предсказуемым, надежным и эффективным.

Оперативная группа МСЭ по машинному обучению для будущих сетей, включая 5G, изучает вопрос о том, как техническая стандартизация может поддерживать возникающие приложения машинного обучения в таких областях, как аналитика больших данных, а также безопасность и защита данных в наступающую эпоху 5G. Группа разработает спецификации, для того чтобы сети ИКТ и их компоненты могли автономно адаптировать свой образ действий в интересах этики, эффективности, безопасности и оптимального восприятия пользователем.

На Всемирном саммите "ИИ во благо" прозвучал призыв уделять больше внимания стандартизации в здравоохранении, в силу чего была создана Оперативная группа по искусственному интеллекту для здравоохранению (ОГ-AI4H), которая намеревается, в том числе, разработать стандартизованные контрольные показатели для оценки алгоритмов искусственного интеллекта, используемых в приложениях здравоохранения.


[1] https://www.wired.com/story/guide-artificial-intelligence/
[2] https://www.wired.com/story/new-theory-deep-learning/
[3] https://en.oxforddictionaries.com/definition/big_data
[4] https://www.wired.com/story/machines-taught-by-photos-learn-a-sexist-view-of-women/
[5] https://www.technologyreview.com/s/604087/the-dark-secret-at-the-heart-of-ai
[6] https://www.wired.com/story/as-artificial-intelligence-advances-here-are-five-projects-for-2018/
[7] https://maliciousaireport.com/