تقييم ضمان ومطابقة المنتجات والخدمات الرقمية
ارنست ويونغ
410 الجلسة
ستناقش اللجنة التحديات التي تنشأ عند إجراء تقييم التأكيد أو المطابقة للمنتجات والخدمات الرقمية. سنراجع ما يمكن تعلمه من مهنة التدقيق الحالية والعمل الذي تقوم به مختلف الحكومات وجمعيات المعايير والهيئات الفنية والمنظمات غير الحكومية لتوفير منهجيات من شأنها أن تمنح المواطنين والحكومات الثقة التي يحتاجون إليها لمعرفة أين ومتى وكيف لاستخدام هذه التقنيات بطريقة تزيد من فوائدها وتقلل من الآثار السلبية.

الدكتور أنسجار كوين هو القائد العالمي لأخلاقيات الذكاء الاصطناعي والتنظيم في EY (إرنست ويونغ) حيث يقود فريق السياسة العامة المتعلق بالذكاء الاصطناعي ويساهم في العمل على حوكمة الذكاء الاصطناعي وإطار عمل الذكاء الاصطناعي الموثوق به في EY. وهو أيضًا زميل أبحاث أول في جامعة نوتنغهام ، ويترأس معيار IEEE P7003 لمجموعة عمل اعتبارات التحيز الخوارزمي وهو منظم لعمل لجنة CEN-CENELEC JTC21 "AI" بشأن تقييم المطابقة للذكاء الاصطناعي. وهو عضو في مجلس أمناء مؤسسة 5Rights لحقوق الشباب عبر الإنترنت ويقدم المشورة بشأن الذكاء الاصطناعي وأخلاقيات البيانات للقيادة الأفريقية ، وهي منظمة غير حكومية أفريقية.
يتمتع Ansgar بخلفية بحثية متعددة التخصصات ، حيث عمل ونشر في موضوعات تتراوح من السياسة وحوكمة الأنظمة الخوارزمية (AI) ، وخصوصية البيانات ، وأخلاقيات الذكاء الاصطناعي ، ومعايير الذكاء الاصطناعي ، والروبوتات المستوحاة من الحياة ، والذكاء الاصطناعي ، وعلم الأعصاب الحسابي ، والسلوك البشري التجريبي. / دراسات التصور. وهو حاصل على ماجستير في الهندسة الكهربائية ودكتوراه في علم الأعصاب الحسابي.

كاي زينر هو رئيس المكتب ومستشار السياسة الرقمية لـ MEP Axel Voss (مجموعة حزب الشعب الأوروبي) في البرلمان الأوروبي. يصف نفسه بأنه متحمس رقمي ، ويركز على التقنيات الناشئة ومشاركة البيانات والتحول الرقمي في الاتحاد الأوروبي. حاليًا ، يشارك في المفاوضات السياسية حول قانون الذكاء الاصطناعي ولائحة الخصوصية الإلكترونية بالإضافة إلى توجيه المسؤولية المرتقب لمنظمة العفو الدولية. تخرج في السياسة (جامعة إدنبرة) وفي القانون (جامعة مونستر). قبل انتقاله إلى البرلمان الأوروبي ، عمل كباحث مشارك في المكتب الأوروبي لمؤسسة كونراد أديناور في بروكسل.

غازي أحمد هو رئيس فريق في مركز أخلاقيات البيانات والابتكار (CDEI) ، وهو فريق من الخبراء داخل حكومة المملكة المتحدة يعمل على تمكين الابتكار المسؤول في الذكاء الاصطناعي والتقنيات القائمة على البيانات. يقود غازي عمل CDEI بشأن ضمان الذكاء الاصطناعي ويعمل حاليًا على تطوير خارطة طريق لضمان الذكاء الاصطناعي ، والتي تحدد وجهة نظر CDEI للنظام البيئي الحالي لضمان الذكاء الاصطناعي في المملكة المتحدة. كان سابقًا مؤلفًا مشاركًا لمراجعة CDEI's حول التحيز في اتخاذ القرار الحسابي.
أسس غازي سابقًا المركز الفيكتوري لرؤى البيانات ، وهو فريق تحليلات مركزي لحكومة الولاية في أستراليا ، وكمستشار مع BCG ، قدم المشورة للحكومات في أستراليا والشرق الأوسط بشأن علوم البيانات والاستراتيجيات والتحول. حصل على درجة الماجستير في سياسة التكنولوجيا (بامتياز) من جامعة كامبريدج ، حيث ركز على السياسات والآثار الاستراتيجية للذكاء الاصطناعي. كما درس الاقتصاد والرياضيات البحتة في جامعة ملبورن.

يشغل آشلي كاسوفان حاليًا منصب المدير التنفيذي لمعهد الذكاء الاصطناعي المسؤول (RAII) ، وهو مؤسسة غير ربحية متعددة أصحاب المصلحة مكرسة للتخفيف من الأضرار والعواقب غير المقصودة لأنظمة الذكاء الاصطناعي. يتمثل الهدف الحالي لـ RAII في استكمال بنية أول شهادة مستقلة ومعتمدة في العالم لأنظمة الذكاء الاصطناعي المسؤولة. في السابق ، شغلت آشلي منصب مدير البيانات والرقمية لحكومة كندا ، حيث قادت عملية تطوير أول سياسة حكومية وطنية للذكاء الاصطناعي المسؤول.
تعمل آشلي بنشاط للتأثير على التغيير ، وهي عضو في شبكة خبراء منظمة التعاون الاقتصادي والتنمية في مجال استشارات سياسات الذكاء الاصطناعي ، ورئيس برنامج شهادة الذكاء الاصطناعي المسؤول مع تحالف العمل العالمي للذكاء الاصطناعي التابع للمنتدى الاقتصادي العالمي ، وعضو مجلس إدارة تنفيذي لمركز الخبرة الدولي في مونتريال. في الذكاء الاصطناعي (CEIMIA) ، وعضو في مجلس الصناعة العالمي IFIP / IP3 (GIC) داخل الأمم المتحدة. كما أنها تقضي وقتها كعضو خبير في اللجنة الاستشارية للمؤشر العالمي للذكاء الاصطناعي المسؤول.

تعمل Aurelie على المبادرات العالمية الرائدة لتنفيذ الذكاء الاصطناعي المسؤول. على سبيل المثال لا الحصر ، هي
- رئيس لجنة المعايير التي تمثل أستراليا في المعايير الدولية للذكاء الاصطناعي ؛
- الرئيس المشارك لأول برنامج اعتماد عالمي معتمد للذكاء الاصطناعي تم تطويره في إطار تحالف العمل العالمي للذكاء الاصطناعي من أجل الاقتصاد العالمي
المنتدى ؛ و - خبير في معهد مهندسي الكهرباء والإلكترونيات (IEEE) يعمل معهم في مختلف مبادرات معايير الذكاء الاصطناعي.
بصفتها مستشارة ، تقدم المشورة لشركات ASX 20 بشأن التنفيذ المسؤول للذكاء الاصطناعي ، كما أنها تعمل أيضًا كمستشار أبحاث رئيسي حول الذكاء الاصطناعي المسؤول لـ CSIRO-DATA61 ، وكالة العلوم الوطنية الأسترالية.
-
ج 5. بناء الثقة والأمن في استخدام تكنولوجيا المعلومات والاتصالات
-
ج 10. الأبعاد الأخلاقية لمجتمع المعلومات
-
ج 11. التعاون الدولي والإقليمي
توفر المنهجيات المحددة جيدًا والمنفذة باستمرار لإجراء تقييم ضمان ومطابقة الخدمات الرقمية بنية تحتية للحوكمة لإثبات أن الخدمات الرقمية متوافقة مع توقعات الجودة المحددة في المعايير أو اللوائح. تعد آليات حماية الجودة هذه مفتاحًا لبناء ثقة الجمهور وأمنه في استخدام تكنولوجيا المعلومات والاتصالات (C5) ، وعند التقييم مقابل المعايير واللوائح المستندة إلى الأخلاقيات ، فإنها تدعم الأبعاد الأخلاقية لمجتمع المعلومات (C10). نظرًا للطبيعة الدولية لمعظم تقديم الخدمات الرقمية ، فإن أفضل الممارسات الناجحة للتأكيد وتقييم التوافق لدعم الخدمات الرقمية وتعتمد على التعاون الدولي والإقليمي (C11).
-
الهدف 8: تعزيز النمو الاقتصادي الشامل والمستدام والعمالة والعمل اللائق للجميع
-
الهدف 9: بناء بنية تحتية مرنة ، وتعزيز التصنيع المستدام وتعزيز الابتكار
-
الهدف 16: تعزيز مجتمعات عادلة وسلمية وشاملة
Survey of AI Risk Assessment Methodologies (EY and Trilateral Research)
REPORT on artificial intelligence in a digital age (europa.eu)
The roadmap to an effective AI assurance ecosystem - GOV.UK (www.gov.uk)
AI assurance guide (cdeiuk.github.io)
Responsible AI Institute - RAII Certification
An Artificial Intelligence Standards Roadmap: Making Australia’s Voice Heard
Pragmatic digital policy | Brussels | Digitizing Europe (kaizenner.eu)