حوار | الذكاء الاصطناعي: أخلاقياته والتحديات التي يواجهها وفرص التقدم في المستقبل
أظهرت دراسات حديثة أن بعض أنظمة الذكاء الاصطناعي تتخذ قرارات متحيزة استنادًا إلى البيانات التي تم تدريبها عليها، يشهد العالم تحولاً جذريًا بفضل الذكاء الاصطناعي، الذي يمتد تأثيره إلى شتى مناحي الحياة، فمن السيارات ذاتية القيادة إلى روبوتات الدردشة المتطورة، أصبح الذكاء الاصطناعي جزءًا لا يتجزأ من حياتنا اليومية، محدثًا تحولات جذرية في مختلف القطاعات، بما في ذلك الرعاية الصحية والتعليم والطاقة والنقل والتمويل.
ومع توسع تطبيقاته وانتشارها، يصبح من الضروري التوقف عند الجوانب الأخلاقية لهذا التطور المتسارع، والتأمل في التحديات والفرص التي ترافقه، وبدأت مسيرة التفكير الأخلاقي في مجال الذكاء الاصطناعي منذ منتصف القرن العشرين، بالتزامن مع ظهور أولى الأفكار حول الحواسيب الذكية.
ومع تطور وقدرته المتزايدة على اتخاذ قرارات مستقلة، ظهرت على السطح قضايا أخلاقية متعددة. إحدى القضايا البارزة هي التحيز في الخوارزميات، حيث أظهرت دراسات حديثة أن بعض أنظمة الذكاء الاصطناعي تتخذ قرارات متحيزة استنادًا إلى البيانات التي تم تدريبها عليها. تثير هذه المشكلة تساؤلات حول عدالة هذه الأنظمة ومدى تمثيلها لمختلف شرائح المجتمع.
وتشير الدراسات إلى أنه يمكن أن يساهم في نمو الاقتصاد العالمي بمقدار 15.7 تريليون دولار بحلول عام 2030، وأن 85% من الشركات تعتقد أن الذكاء الاصطناعي سيعطيها ميزة تنافسية. ومع ذلك، يثير هذا التطور السريع تساؤلات أخلاقية هامة حول كيفية استخدام هذه التقنية وضمان عدم إساءة استخدامها.
تتضمن المخاوف الأخلاقية المتعلقة بالذكاء الاصطناعي فقدان الوظائف بسبب الأتمتة، والتحيز الخوارزمي، وانتهاكات الخصوصية، والمساءلة والشفافية في عملية صنع القرار، والتأثير على الفئات الضعيفة في المجتمع.
نستعرض فيما يلي حوار مع ماغدالينا كونيغ، المستشار العام في “AIQ”، الشركة المتخصصة في مجال الذكاء الاصطناعي في الشرق الأوسط، حول أخلاقياته والتحديات التي يواجهها المجتمع والشركات والحكومات في هذا المجال.
ما هي الخطوات التي يمكن أن تتخذها الشركات لضمان احترام أنظمة الذكاء الاصطناعي التي تطورها لخصوصية البيانات الشخصية وأنظمة الأمان؟
- من وجهة نظري، يجب أن تُطوّر أنظمة الذكاء الاصطناعي وفقاً لجميع اللوائح المعمول بها، لكنني أوافق على ضرورة منح اهتمام خاص لخصوصية البيانات والأمن، حيث تعتبر البيانات تقريباً جزءاً لا يتجزأ من كافة جوانب حياتنا، وكي تضمن الشركات احترام الأنظمة لديها للوائح الخصوصية وأمن البيانات، يتعيّن عليها أولاً أن تسعى لفهم اللوائح مثل GDPR وCCPA وHIPAA.
- ومع أخذ اللائحة العامة لحماية البيانات (GDPR) في الاعتبار، أجد نهج “الخصوصية حسب التصميم” مثالاً رائعاً فهو يشجع على دمج مبادئ الخصوصية من البداية وفي كل جانب من دورة حياة الذكاء الاصطناعي، بحيث تكون ميزات الخصوصية مبنية ضمن النظام وليست مجرد فكرة لاحقة. إضافةً إلى ذلك، يجب أن تُصمم أنظمة الذكاء الاصطناعي لتفضيل الخصوصية عن طريق إخفاء بيانات الأفراد وتجميعها كلما كان ذلك ممكناً وضمان تبني حوكمة بيانات مناسبة، تشمل تقليل البيانات وإخفاء البيانات واستخدام التشفير.
- يتعين أن تمتلك الشركات سياسات خصوصية واضحة (يتم نشرها بفعالية) وتشجع على تقييم تأثير الخصوصية ومراجعة ومراقبة أنظمة الذكاء الاصطناعي. ولا بدّ أيضاً من اعتماد برامج تدريبية لرفع مستوى الوعي بين الموظفين وتطبيق هذه السياسات إلى جانب تدابير الأمان المناسبة. على سبيل المثال، تجمع أنظمة إدارة الطاقة كميات هائلة من المعلومات الحساسة حول عادات استهلاك الطاقة لدى الأفراد، والتي يجب التعامل معها بعناية شديدة، وتضم التشفير والتخزين الآمن وفرض ضوابط الوصول الصارمة.
- يقال إن المعرفة قوة، لكن الشفافية في استخدام البيانات والحصول على موافقة من المستخدمين هو أمر أساسي أيضاً لتتمكن الشركات من بناء الثقة ومعالجة القضايا المتعلقة بالخصوصية. كما يتعين عليها إدارة الأطراف الثالثة من خلال العناية الواجبة وصياغة بنود حماية البيانات الآمنة والصارمة في العقود مع الشركاء، ستتمكن الشركات من خلال إعطاء الأولوية لهذه الخطوات من تطوير أنظمة الذكاء الاصطناعي التي تحترم لوائح خصوصية وأمن البيانات بشكل فعال.
كيف يمكن تعزيز الشفافية في أنظمة الذكاء الاصطناعي بحيث يفهم المستخدمون كيفية اتخاذ القرارات؟
- يتعيّن أن تكون أنظمة الذكاء الاصطناعي شفافة في عمليات اتخاذ القرارات لضمان المساءلة. ويعتبر فهم كيفية وصول الذكاء الاصطناعي إلى الاستنتاجات أمر حيوي لاستخدامه بشكل أخلاقي ولمساعدة المستخدمين في هذا الصدد، يتعيّن على المطورين توفير الذكاء الاصطناعي القابل للتفسير (XAI).
- قابلية التفسير (أي عملية إظهار كيفية وصول الخوارزمية إلى حلها، رياضياً أو غير ذلك) يمكن أن تلعب دوراً كبيراً في تعزيز الشفافية في الذكاء الاصطناعي. ويمكن تحقيق ذلك من خلال استخدام الخوارزميات والتقنيات التي تتيح لنماذج الذكاء الاصطناعي تقديم تفسيرات واضحة ومفهومة للقرارات (مثل شجرة القرار، الأنظمة القائمة على القواعد) وتنفيذ الأدوات التي تفسر النماذج “الصندوق الأسود” بعد اتخاذ القرارات.
- تطرح أنظمة الذكاء الاصطناعي أسئلة حول من يكون مسؤولاً أو محاسَباً عن تصميم النظام وتطويره ونشره واستخدامه وتأثيره. ويتسبب ذلك بغموض في توزيع الأدوار والواجبات بين الكيانات المختلفة في نظام الذكاء الاصطناعي.
- ولمعالجة هذا، رأينا عالمياً أن الجهات التنظيمية تسعى لتشجيع القرارات المتخذة بواسطة الذكاء الاصطناعي لتكون شفافة وقابلة للتفسير، بهدف تعزيز الثقة. وقد ترغب الجهات التنظيمية في النظر في متطلبات نشر ومشاركة تقارير الشفافية التي تشمل وصف النماذج ومقاييس الأداء أو مطالبة المطورين بتبني إرشادات الذكاء الاصطناعي الأخلاقي وإطلاق التزامات علنية و/أو تطوير وثائق سهلة الفهم للمستخدم تشرح كيفية عمل نظام الذكاء الاصطناعي (تضم مصادر البيانات وطرق معالجتها ومعايير اتخاذ القرارات).
- لا تزال الجهات التنظيمية بحاجة إلى العمل لجعل قابلية التفسير أداة فعالة وتطوير عمليات للاعتراف بهذه التحديات وتقديم حلول بديلة كي لا تتعرض الشركات الناشئة في اقتصاد الذكاء الاصطناعي للضرر.
- وفي الوقت نفسه، يمكن للشركات النظر في تطوير آليات التغذية الراجعة مثل إجراءات معالجة شكاوى المستخدمين والمراجعات الخارجية والشهادات التي تقدم طرقاً للتحقق من شفافية الذكاء الاصطناعي واستخدام أدوات الشفافية التفاعلية، إلى جانب ممارسات البيانات الشفافة، كاستراتيجيات لتعزيز الشفافية في أنظمة الذكاء الاصطناعي وبناء ثقة المستخدمين من خلال عمليات اتخاذ قرارات مفهومة وقابلة للتفسير.
ما هي التحديات الأخلاقية الرئيسية التي تواجه تطبيقات الذكاء الاصطناعي في القطاعات الحيوية مثل الطاقة والرعاية الصحية والتعليم؟
- تتمحور المساءلة والوصول والخصوصية في صميم الذكاء الاصطناعي الأخلاقي في جميع القطاعات. وعلى وجه الخصوص، إذا فكرنا في البيانات، على سبيل المثال، فإن عبارة “إذا كانت المدخلات غير جيدة، فالمخرجات ستكون غير جيدة أيضاً” هي ذات أهمية كبيرة عندما يتعلق الأمر بقطاعات مثل الرعاية الصحية. ويمكن أن تزيد من تفاقم الفجوات والأنشطة التمييزية بين المجموعات الديموغرافية.
- إذا فكرنا في المساءلة وخصوصاً في مثل هذه الأنواع من القطاعات كالرعاية الصحية والطاقة والتعليم، وعندما تضع اتخاذ القرارات في أيدي الذكاء الاصطناعي، على سبيل المثال، فإنك تتحدث عن قرارات حاسمة تؤثر على البشر وحياتهم. إذاً، أين تقع المسؤولية عندما تسوء الأمور؟
- نفكر في الذكاء البشري أو الاصطناعي، لكن هناك غالباً الكثير من الغباء الاصطناعي والبشري في المقابل. أين تقع المسؤولية في هذه الحالة؟ أين تقع المساءلة عن الأخطاء أو الهلوسات، كما يمكن القول؟ ثم ذكرت الخصوصية أيضاً.
- عندما تفكر في الرعاية الصحية والبيانات الشخصية الحساسة، فإن حماية هويات المرضى وضمان الحفاظ على بياناتهم الصحية بأمان هو جزء لا يتجزأ من تطوير أنظمة الذكاء الاصطناعي بطريقة أخلاقية. لذلك، يتعيّن على مطوري الذكاء الاصطناعي أن يضمنوا حصولهم على موافقة كاملة من المرضى فيما يتعلق بجمع البيانات واستخدامها وإدارتها.
ما هي الخطوات التي يمكن اتخاذها لضمان أن يكون للذكاء الاصطناعي تأثير إيجابي على سوق العمل وليؤدي إلى توفير وظائف جديدة؟
- يوفر الذكاء الاصطناعي بالفعل فرصاً إيجابية في سوق العمل لم تكن موجودة سابقاً. ويتم تمكين الأفراد من خلال نمو القطاعات الجديدة التي أوجدها الذكاء الاصطناعي، لإنشاء مسارات عمل وأدوات جديدة وإكمال المهام بسرعة أكبر. ويتم أيضاً أتمتة المهام المملة أو المتكررة و/أو توجيهها نحو الذكاء الاصطناعي، مما يترك للأفراد وقتاً أكبر لتخيّل وإنشاء منتجات وخدمات وطرق جديدة للقيام بالأشياء. وبالنسبة لي، أنظر إلى الذكاء الاصطناعي كعامل محفز لتعزيز سوق العمل وتوفير فرص توظيف جديدة.
- ومن المتوقع أن يسهم الذكاء الاصطناعي التوليدي بدعم الأفراد في القوى العاملة لفحص ورفع مهامهم والنظر في طرق جديدة للتعاون لإكمال المهام (أي التعاون البشري-الذكاء الاصطناعي) بطرق جديدة وأكثر فعالية.
- نشهد اليوم حديث واسع ومنتشر حول التخلص من وظائف معينة بسبب الذكاء الاصطناعي، لكني أرى أنه بينما قد يقوم الذكاء الاصطناعي والأتمتة بتبسيط بعض المهام، من غير المرجح أن يستبدل القوى العاملة البشرية بالكامل.
- ومع ذلك، يجب أن نكون واعيين للاعتبارات الأخلاقية حول فرص إعادة التدريب والتأثيرات الاقتصادية على المجتمعات وضمان الانتقال العادل. على سبيل المثال، الاستثمار في برامج إعادة التأهيل والتعليم ضروري لتزويد الأفراد بالمهارات اللازمة للنجاح في اقتصاد الذكاء الاصطناعي.
- لضمان أن يكون للذكاء الاصطناعي تأثير إيجابي على سوق العمل وأن يؤدي إلى توفير وظائف جديدة، أدعم اتباع نهج متعدد الأوجه، حيث يمكن لأصحاب المصلحة استغلال إمكانات الذكاء الاصطناعي لدفع عجلة الابتكار والكفاءة وتحفيز توفير الوظائف من خلال ثقافة التعلم المستمر.
هل هناك طرق فعالة لمراقبة استخدام الذكاء الاصطناعي وضمان الامتثال للمعايير الأخلاقية؟
- أشجع داخل الشركات على تطوير وتنفيذ إرشادات الذكاء الاصطناعي الأخلاقي وحوكمته، مع اتباع آليات الرقابة لتنظيم ومراقبة وتقييم مبادرات الذكاء الاصطناعي، ويمكن استخدام تقنيات مثل النماذج التنبؤية لسلوك النماذج الأخرى (النماذج الفوقية) لمراقبة الذكاء الاصطناعي، حيث تحلل هذه الأنظمة الأنماط والمخرجات لنظام الذكاء الاصطناعي التشغيلي لاكتشاف حالات الأخطاء والتحيزات أو الفشل المحتمل قبل أن تصبح حرجة.
- لمراقبة الذكاء الاصطناعي، من الضروري موازنة الأتمتة مع الرقابة البشرية، فالأخطاء التي يرتكبها الذكاء الاصطناعي، سواء كانت هلوسات أو اتخاذ قرارات مشكوك فيها، يمكن أن تسبب نتائج كارثية. وهي أحد الأسباب التي تتطلب من الإنسان على دراية بأحدث التقنيات. على سبيل المثال، يمكن للشركات تبني أنظمة مراقبة وإشراف مستقل (مثل المراجعات الخارجية، مجالس مراجعة الأخلاقيات) والقيام بمراجعات التحيز والتخفيف.
- ومع ذلك، يمكن للذكاء الاصطناعي للمراقبة أن يعمل بسرعات ونطاقات لا يمكن للبشر الوصول إليها بينما يظهر حالات تتطلب مراجعة وإشراف بشري. ويساعد هذا النوع من الشراكة على ضمان قيام الذكاء الاصطناعي بعمله بشكل صحيح.
- تشمل فوائد مراقبة الذكاء الاصطناعي مستوى توسع لا يمكن للبشر تحقيقه ومستوى أعلى من الاتساق، حيث لا يحتاج الذكاء الاصطناعي إلى الراحة ويوفر عمق تحليل بناءً على أنماط وارتباطات أعمق قد يتم تجاهلها من قبل المحللين البشريين.
- تُشجع هذه الأنشطة الرقابية من منظور الحكومة والسياسة والتنظيم عبر زيادة التشريعات الصارمة والمرنة وتوفير المزيد من وزراء الذكاء الاصطناعي والجهات التنظيمية للذكاء الاصطناعي وهيئات الامتثال، لتحفيز الشركات على الالتزام بالمعايير الأخلاقية للذكاء الاصطناعي.
- ومن المحتمل أيضاً أن نرى المزيد من الإرشادات الأخلاقية وبنود السلوك ومعايير القطاع مع تطور المنظومات الشاملة للذكاء الاصطناعي. لكن لا يزال مدى تأثير هذه المعايير وقدرتها على الردع غير واضح، حيث مازلنا نفتقر إلى نهج عالمي تعاوني و”تأثير بروكسل” لقانون الذكاء الاصطناعي في الاتحاد الأوروبي لم يتجسد بعد.