التزام بتوصيل العالم

الذكاء الاصطناعي من أجل الصالح العام

​​​​​​​​​​​​​​​​​​​​5G BCKGROUNDERPhoto by Shutterstock

نظرة عامة

​ ​

الإمكانات الواعدة للذكاء الاصطناعي

أصبحت البرمجيات أكثر ذكاءً إلى حد كبير في السنوات الأخيرة.

والتوسع الحالي في الذكاء الاصطناعي هو نتاج لأوجه التقدم في مجال يعرف بالتعلم الآلي. ويشمل التعلم الآلي استعمال خوارزميات تسمح لأجهزة الحاسوب التعلم ذاتياً بالبحث في البيانات والقيام بمهام استناداً إلى أمثلة بدلاً من الاعتماد على البرمجة الصريحة التي يقوم بها الإنسان.[1]

وهناك تقنية للتعلم الآلي تسمى التعلم العميق، مستوحاة من الشبكات العصبية البيولوجية، تتوصل إلى الأنماط وتتذكرها في كميات ضخمة من البيانات. وتنفذ أنظمة التعلم العميق المهام بدراسة أمثلة، بدون برمجة عادة وتفوق خوارزميات التعلم الإلكتروني التقليدية.[2]

والبيانات الضخمة، إشارة إلى مجموعات البيانات الضخمة جداً التي يمكن تحليلها حاسوبياً للكشف عن الأنماط والاتجاهات والروابط،[3] جنباً إلى جنب مع قدرة الذكاء الاصطناعي وحوسبة ذات أداء عال، تولد أشكال جديدة من المعلومات والرؤى بقيمة هائلة لمواجهة أعظم ما تواجهه الإنسانية من تحديات.

وفيما يلي، مجرد أمثلة قليلة تبين كيفية تطبيق الذكاء الاصطناعي لتحقيق الصالح العام:


التحديات

بالرغم من فرص الذكاء الاصطناعي العظمية، تحوطه أيضاً مخاطر جمة.
يمكن لقواعد البيانات والخوارزميات أن تعكس أو تفاقم من حوالات التحيز الجنساني أو العرقي أو الإيدولوجي.[4]  وعندما تكون مجموعات البيانات (التي يغذيها الإنسان) يعتمد عليها الذكاء الاصطناعي غير مكتملة أو متحيزة، فإنها قد تفضي إلى استنتاجات متحيزة للذكاء الاصطناعي.
ويستعمل الإنسان بصورة متزايدة تكنولوجيات التعلم العميق لتحديد من يحصل على قرض أو وظيفة. بيد أن أعمال خوارزميات التعلم العميق مبهمة ولا تزود الإنسان برؤية عن سبب توصل الذكاء الاصطناعي إلى روابط أو استنتاجات بعينها، ومتى يمكن أن تحدث الأعطاب ومتى وكيف يمكن للذكاء الاصطناعي أن ينتج تحيزاً مجدداً.[5]
ويمكن للذكاء الاصطناعي أن يفاقم من حالات عدم المساواة من خلال أتمتة المهام الروتينية وفقدان الوظائف.
والبرمجيات، بما في ذلك تلك التي تشغل الهواتف الخلوية وكاميرات الأمن وشبكات الطاقة الكهربائية، يمكن أن تكون لها تدفقات أمنية.[6] ويمكن لهذه التدفقات أن تفضي إلى سرقات للأموال والهويات أو أعطاب للإنترنت وشبكة الطاقة الكهربائية.
ويمكن أن تبرز تهديدات جديدة للسلام والأمن الدوليين أيضاً من أوجه التقدم في تكنولوجيات الذكاء الاصطناعي. فمثلاً، يمكن استعمال التعلم الآلي لإنتاج تسجيلات فيديوية وصوتية مزيفة يمكن أن تؤثر على عمليات التصويت ووضع السياسات والإدارة.[7]


 

الحلول: التأكد من استعمال الذكاء الاصطناعي لتحقيق الصالح العام

 

ومن شأن وضع المعايير الدولية المطلوبة واعتمادها وتيسر برمجيات مفتوحة المصدر أن يساعد في توفير لغة مشتركة وأداة للتنسيق ستساعد على مشاركة العديد من الأطراف المستقلة في تطوير تطبيقات الذكاء الاصطناعي ويمكن لذلك أن يجلب فوائد أوجه التقدم في الذكاء الاصطناعي للعالم أجمع، مع التخفيف من آثاره السلبية.

وفي الواقع، من الأمور الحيوية أن تقوم طائفة متنوعة من أصحاب المصلحة بتوجيه عمليات التصميم وتطوير وتطبيق أنظمة الذكاء الاصطناعي. وتتطلب استنتاجات الذكاء الاصطناعي الدقيقة والتمثيلية مجموعات بيانات تكون دقيقة وممثلة للجميع. وعلاوةً على ذلك، يتعين وضع ضوابط للنهوض بالاستعمال الشرعي والأخلاقي والمتسم بالخصوصية والأمن للذكاء الاصطناعي والبيانات الضخمة.

وزيادة الشفافية في الذكاء الاصطناعي بغية تنوير صناع القرارات القانونية أو الطبية ستمكن الإنسان من فهم سبب توصل الذكاء الاصطناعي لروابط أو استنتاجات بعينها. وهذا بدوره سيشجع الأفراد على استخدام تجاربهم وخبراتهم وتعليمهم في التحقق من الاستنتاجات أو اتخاذ قرار مختلف عن ذلك المقترح من جانب الآلة. وعلى الرغم من أن الآلة تقوم بالتحليل والتوصل إلى استنتاجات بسرعة ودقة أكبر كثيراً من ذي قبل، فلا يزال الإنسان هو الذي يملك القدرة على تمحيص استنتاجات الآلة واتخاذ القرارات النهائية.

ولتحقيق التوازن في تبعات الذكاء الاصطناعي على التوظيف والاستفادة من فرص العمل الجديدة التي يوفرها الذكاء الاصطناعي. من الضروري تهيئة بيئات مؤاتية لاكتساب المهارات الرقمية من خلال التعليم الرسمي أو التدريب في مكان العمل. وسيوفر الذكاء الاصطناعي، بشكل خاص فرص عمل للأشخاص ذوي المهارات الرقمية المتقدمة اللازمة لاستحداث تكنولوجيات المعلومات والاتصالات وإدارتها واختبارها وتحليلها.

ويتعين بذل جهود لحماية سلامة وخصوصية وهوية وأموال وملكيات المستعمل النهائي لمواجهة التحديات الأمنية المتعلقة بالذكاء الاصطناعي في مجالات متنوعةمثل المعاملات المالية الإلكترونية والإدارة الإلكترونية والمدن الذكية المستدامة.

مساهمة الاتحاد في مجال الذكاء الاصطناعي لتحقيق الصالح العام

تسهيل وضع سياسات ولوائح مؤاتية
يجمع الاتحاد، بوصفه وكالة الأمم المتحدة المتخصصة في مجال تكنولوجيا المعلومات والاتصالات أصحاب مصلحة يمثلون حكومات وصناعات وهيئات أكاديمية ومجموعات من المجتمع المدني من جميع أنحاء العالم للتوصل إلى فهم أفضل للمجال الناشئ الخاص بالذكاء الاصطناعي لتحقيق الصالح العام.
واعتماداً على نجاح القمة العالمية الأولى بشأن الذكاء الاصطناعي لتحقيق الصالح العام للاتحاد، تعاونت قمة 2018 مع 32 وكالة من عائلة الأمم المتحدة وأصحاب مصلحة آخرين في العالم لتحديد الاستراتيجيات التي تضمن تطوير تكنولوجيات الذكاء الاصطناعي بصورة موثوقة وآمنة وشاملة للجميع مع الاستفادة المتساوية من منافعه - وقد أفرزت القمة أكثر من 30 مقترحاً بمشاريع رائدة بشأن "الذكاء الاصطناعي لتحقيق الصالح العام" بخصوص الرعاية الصحية الموسعة والمحسنة والمراقبة المعززة للزراعة والتنوع البيولوجي باستخدام التصوير الساتلي والتنمية الحضرية الذكية والثقة في الذكاء الاصطناعي.
ويرعى الاتحاد مستودع الذكاء الاصطناعي حيث يمكن لكل من يعمل في مجال الذكاء الاصطناعي أن يسهم بمعلومات رئيسية عن كيفية الاستفادة من الذكاء الاصطناعي لتحقيق الصالح العام. وهذا المستودع هو الوحيد في العالم الذي يحدد المشاريع ذات الصلة بالذكاء الاصطناعي والمبادرات البحثية ومراكز التفكير والمنظمات التي ترمي إلى تسريع وتيرة التقدم المحرز في تحقيق أهداف التنمية المستدامة السبعة عشر للأمم المتحدة.
ويجمع الاتحاد بانتظام رؤساء هيئات تنظيم تكنولوجيا المعلومات والاتصالات من شتى أنحاء العالم لتبادل الآراء والتطورات بشأن الذكاء الاصطناعي وغير ذلك من القضايا التنظيمية الملحة ومعالجة مسائل الإدارة وتعزيز التعاون من أجل استخدام الذكاء الاصطناعي لتحقيق الصالح العام.
وضع المعايير
المضي قدماً في وضع المعايير الدولية - المواصفات والمتطلبات التقنية التي يحتاج إليها الذكاء الاصطناعي والتكنولوجيات الأخرى لتحقيق الأداء الجيد - يمكن أن يساعد في مواجهة مخاطر الذكاء الاصطناعي من خلال جعل التعلم الآلي يقسم بالأخلاق والقدرة على التنبؤ والموثوقية والكفاءة.
يقوم الفريق المتخصص التابع للاتحاد الدولي للاتصالات المعني بالتعلم الآلي في شبكات المستقبل بما في ذلك شبكات الجيل الخامس بدراسة الكيفية التي يمكن بها للتقييس التقني أن يدعم التطبيقات الناشئة للتعلم الآلي في مجالات مثل تحليلات البيانات الضخمة وكذلك حماية الأمن والبيانات في العصر القادم لتكنولوجيا الجيل الخامس. وسيقوم الفريق بصياغة مواصفات لتمكين شبكات تكنولوجيا المعلومات والاتصالات ومكوناتها من تكييف سلوكها بشكل مستقل لصالح الأخلاق والكفاءة والأمن والتجربة المثلى للمستعمل.
وخرجت من القمة بشأن الذكاء الاصطناعي لتحقيق الصالح العام لعام 2018 دعوة إلى مزيد من أعمال التقييس للصحة في شكل الفريق الذي تأسس مؤخراً،الفريق المتخصص التابع للاتحاد الدولي للاتصالات المعني بالذكاء الاصطناعي لأغراض الصحة (FG‑AI4H)، الذي يهدف إلى عدة أمور من بينها وضع مؤشرات قياسية موحدة لتقييم خوارزميات الذكاء الاصطناعي المستخدمة في تطبيقات الرعاية الصحية.


 

[1]          https://www.wired.com/story/guide-artificial-intelligence/

[2]          https://www.wired.com/story/new-theory-deep-learning/

[3]          https://en.oxforddictionaries.com/definition/big_data

[4]          https://www.wired.com/story/machines-taught-by-photos-learn-a-sexist-view-of-women/

[5]          https://www.technologyreview.com/s/604087/the-dark-secret-at-the-heart-of-ai

[6]          https://www.wired.com/story/as-artificial-intelligence-advances-here-are-five-projects-for-2018/

[7]          https://maliciousaireport.com/