بطاقات نقاشية لتدريب مستقبل الإنترنت
- عدة الاستكشاف الأخلاقي
- مجموعة بطاقات "النقاط العمياء للذكاء الاصطناعي التوليدي"
- بطاقات نماذج المشروعات المسؤولة للفضاءات الرقمية العامة
1- عدة الاستكشاف الأخلاقي
عدة الاستكشاف الأخلاقي هي مجموعة من البطاقات تساعد المشاركين والمشاركات في التدريب على اكتشاف المخاطر المختلفة التي تنشأ عن المنصات والتطبيق الرقمية بأن نتخيل رحلتنا في البيئة التكنولوجية الحالية مثل الرحلات الاستكشافية. تفتح "عدة الاستكشاف الأخلاقي" آفاقا جديدة للتفكير خارج نطاق المخاطر المعتادة للمشروعات التكنولوجية من خلال طرح أسئلة تفتح النقاش حول ماهية تلك المخاطر وما يجب فعله حيالها. "عدة الاستكشاف الأخلاقي" نموذج مصغر من مجموعة بطاقات "المستكشف الأخلاقي" التي ابتكرتها شبكة أوميديار Omidyar وشركة آرتيفاكت Artefact في 2020 القائمة على بحث "معهد المستقبل" (IFTF) حول مناطق الخطر الثمانية في عالم التكنولوجيا الرقمية في 2018.
تتكون عدة الاستكشاف الأخلاقي من "الدليل الميداني" (مرفق في الملحق ج) الذي يقدم طرقًا متعددة لاستخدام البطاقات في التدريب ومجموعة بطاقات "مناطق الخطر التكنولوجي الثمانية"، التي توضح جميعها خطرًا محتملاً للتكنولوجيا الرقمية في عصرنا الحالي. كل "منطقة خطر تكنولوجي" لها بطاقة واحدة بوجهين: الأول يحتوي على مقدمة إلى المنطقة وسؤال رئيسي عنها، والثاني يحفز النقاش داخل المجموعة بناء على أسئلة إضافية مختلفة لدراسة هذا الخطر وتأثيره على المجتمع. تسعى "عدة الاستكشاف الأخلاقي" إلى طرح الأسئلة الأخلاقية بشأن المنتجات الرقمية وإلى دفع تفكيرنا نحو الاهتمام بجعلها أكثر مسؤولية تجاه المجتمع، كما تهدف إلى فهم مخاطر الرقمية بشكل أفضل، وهي كذلك أداة مفيدة لمن يرغب في تطوير مشروعات تكنولوجية مسؤولة.
يمكنكم تنزيل مجموعة بطاقات "عدة الاستكشاف الأخلاقي" من هنا:
2- مجموعة بطاقات "النقاط العمياء للذكاء الاصطناعي التوليدي"
يمثل الصعود السريع للذكاء الاصطناعي التوليدي GenAI موجة جديدة في مجال الذكاء الاصطناعي، حيث تعد برفع الكفاءة وتعزيز الإبداع وزيادة الإنتاجية في مختلف الصناعات. ومع إتاحة أدوات الذكاء الاصطناعي التوليدي، أصبح بإمكان أي شخص الآن –من الأفراد إلى الشركات الكبرى– تسخير هذه التقنيات بأقل قدر من العوائق. ورغم ذلك، تثير هذه السهولة مخاوف أخلاقية ملحة، حيث إن التبني الواسع النطاق للذكاء الاصطناعي التوليدي يغير بالفعل قطاعات مثل الإعلام والتعليم والعمل الإبداعي، وغالبًا ما يثير "ذعرًا أخلاقيًا" بشأن عواقبه المحتملة على التوظيف والبيئة والخصوصية وحقوق الملكية الفكرية وغيرهم. بوضع كل هذا في الاعتبار، طور "مركز المعرفة للبيانات والمجتمع" Knowledge Centre Data & Society مجموعة بطاقات "النقاط العمياء للذكاء الاصطناعي التوليدي"، التي تضم العديد من الجوانب التي غالبًا ما يجري تجاهلها أثناء استخدامه. تتراوح هذه الجوانب "النقاط العمياء" من الأخطاء المتولدة عن استخدام الذكاء الاصطناعي بشكل غير مسؤول إلى تأثيره المباشر على الوظائف والمجتمع ككل. تقدم كل بطاقة نقطة عمياء محددة عن طريق طرح سؤال عنها، ووصفها بشكل موجز، وتقديم مثال ملموس عليها. تقدم البطاقة أيضًا عددًا من الأسئلة التأملية لمساعدة المجموعة على تحديد جوانب القصور في استعمالنا للذكاء الاصطناعي التوليدي ودراسة استراتيجيات الإصلاح المُمكنة. وبالتالي، تُحفّز البطاقات المُستخدمين على وضع استراتيجية أو خطة عمل لمُعالجتها. كذلك تُساعد البطاقات على اكتشاف المخاطر الأخلاقية الفريدة لتقنيات الذكاء الاصطناعي التوليدي، فتصبح بمثابة نقطة انطلاق لصياغة مبادئ توجيهية حول كيفية التعامل مع هذه القضايا. لذلك يمكن استخدام مجموعة البطاقات هذه من أجل تحقيق أهداف مختلفة، ليس لزيادة الوعي بالمشكلات المحتملة عند استخدام الذكاء الاصطناعي التوليدي أو تطويره فحسب، بل لاقتراح اتفاقيات دولية بشأنه أو وضع "مدونة سلوك" له.
تحتوي هذه البطاقات على أربع أنواع من النقاط العمياء:
التطبيق: نقاط قوة تتعلق بتصميم تطبيقات الذكاء الاصطناعي التوليدي وتدريبها وتطويرها.
الاستخدام: اعتبارات عند تطبيق الذكاء الاصطناعي التوليدي في الممارسة العملية.
النتائج: المخاطر المحتملة المتعلقة بالنصوص أو الصور أو الأصوات أو الرؤى أو أي محتوى آخر يولده الذكاء الاصطناعي التوليدي.
الفرد والمجتمع: التأثير الأوسع للذكاء الاصطناعي التوليدي على الفرد وعلى المجتمع ككل.
يمكنكم تنزيل مجموعة بطاقات "النقاط العمياء للذكاء الاصطناعي التوليدي" من هنا:
طور "مركز المعرفة للبيانات والمجتمع" (Kenniscentrum Data & Maatschappij) هذه الأداة في عام 2025 بمساعدة Chat GPT 4o لتحسين الصياغة وتوليد أمثلة على النقاط العمياء، وهي متاحة بموجب ترخيص "المشاع الإبداعي" (Creative Commons) الإصدار 4.0، كما أنها مستوحاة من مجموعة بطاقات "النقاط العمياء للذكاء الاصطناعي" (AI Blindspot) التي صممها أنيا كالديرون، ودان تابر، وهونغ كو، وجيف وين، التي طُوّرت خلال "برنامج التجمع" (Assembly programme) لعام 2019 التابع لمركز بيركمان كلاين (Berkman Klein Center) ومختبر الوسائط في معهد ماساتشوستس للتكنولوجيا (MIT Media Lab). يستند محتوى هذه المجموعة من البطاقات إلى رؤية المركز وأفكار الزملاء في أكاديمية جي بي تي GPT والأكاديمية الفلمنكية للذكاء الاصطناعي (VAIA) ونتائج ورش العمل المتخصصة والمهنية التي أقامها المركز، والورقة الأكاديمية: ‘Al-kfairy, M., Mustafa, D., Kshetri, N., Insiew, M., Alfandi, O. (2024). Ethical Challenges and Solutions of Generative AI: An Interdisciplinary Perspective. Informatics 2024, 11, 58. https://doi.org/10.3390/informatics11030058’.
3- بطاقات نماذج المشروعات المسؤولة للفضاءات الرقمية العامة
يتضمن تدريب مستقبل الإنترنت جلسة مخصصة لتأسيس نموذج مشروع مسؤول من خلال استخدام بطاقات نماذج المشروعات المسؤولة للفضاءات الرقمية العامة وبطاقات التفكير في المكدس العام وبطاقات القيم كأداة لإثارة نقاشات مهمة حول التأثير الحقيقي للتكنولوجيا والمنتجات التي نصممها من خلالها. تشجع البطاقات المتدربين والمتدربات على التفكير في القيم التي يمكن أن تقوم عليها التكنولوجيا، ومن خلال اتباع البطاقات، وعبر طرح الإشكاليات الموجودة في بطاقات التفكير والقيم والتفكير فيها، ستتشكل رؤية المجموعة عن المشروع الذي ترغب في فحصه. يدعو المدرب أو المدربة المشاركين والمشاركات لاختيار شركة أو خدمة تقنية يستخدمها معظمهم لكن يعانون من الجوانب الاقتصادية فيها (أوبر مثلًا). يعرض المدرب أو المدربة البطاقات، ويدعى المشاركين والمشاركات لتخيل شركة بديلة أكثر عدالةً تقدم الخدمة نفسها، ويعمل المشاركون والمشاركات على تصميم نموذج مشروع لهذه الشركة يضمن استمراريتها واستدامتها ويمكنها من تقديم خدماتها وحلولها التقنية بطريقة إنسانية هادفة لحل مشاكل وليس لتحقيق أقصى قدر ممكن من الأرباح.