الذكاء الاصطناعي تحت مقصلة الغباء الطبيعي
لنتخيل سيناريوهات ثلاثة:
تخيل أننا في المستقبل وقد بدأ القطاع الطبي في تعميم استخدام أجهزة روبوت صغيرة جداً (نانو روبوت) يتم حقنها داخل الجسم البشري وتعيش بداخله بشكل دائم لتتبع أي خلل منذ البداية وتتعامل معه، تعمل تلك الروبوتات طبعا عن طريق برمجيات ذكاء اصطناعي متقدمة تقوم بتحليل البيانات الحيوية عن الجسم البشري الذي تعيش فيه الروبوتات وتقوم باتخاذ القرارات التي من شأنها منع المشكلات الصحية قبل حدوثها أو استفحالها، هذا شيء مبهر ومن شأنه أن ينهى الحاجة إلى الجراحة. تخيل أن تلك الروبوتات تعيش داخل سيدة حامل وبرمجيات الذكاء الاصطناعي وجدت أن هناك احتمالا كبيرا أن يخرج الجنين مشوها أو مريضا بمرض لا يرجى شفاؤه لذلك اتخذت قرارا بإنهاء حياة الجنين دون الرجوع لأهله، الآن يتحول الانبهار إلى رعب.
برمجيات المحادثة مثل: (ChatGPT) من شركة OpenAI و(Bard) من شركة جوجل و(Bing) من شركة مايكروسوفت والكثير غيرها تمثل الآن شيئا مسليا، لكن في المستقبل القريب ستكون تلك البرمجيات جزءا من الأدوات الأساسية التي نستخدمها في الأبحاث العلمية والمقالات الإخبارية، بل وفى شتى فروع الأدب. هذا من شأنه أن يجعل مهمة الكتاب والباحثين أسهل كثيرا، لكن ماذا لو بدأت تلك البرمجيات في «تأليف» معلومات خاطئة؟ وهذا يحدث الآن ويسميه خبراء الذكاء الاصطناعي (hallucinations) أي هلوسة؟ مثلما حدث عندما اتهمت تلك البرمجيات أحد أساتذة القانون بإحدى الجامعات الأمريكية بأنه قد أدين في قضية تحرش جنسي بإحدى الطالبات، بل و«ألفت» تلك البرمجيات مقالا بأكمله «زعمت» أنه نشر في جريدة نيويورك تايمز الشهيرة عن تلك القضية. تأثير تلك الهلوسة سيكون مدمرا ما لم نأخذ الحذر.
نحن في عصر بدأ استخدام الطائرات المسيرة (drones) على نطاق واسع في العمليات الحربية، الذكاء الاصطناعي يمكنه التحكم في تلك الطائرات والتنسيق فيما بينها إذا كان هناك أكثر من طائرة حتى تقوم بهجوم ناجح، ماذا لو حدث خطأ ما وبدأت هذه المسيرات في مهاجمة أهداف خاطئة أو مهاجمة بعضها البعض؟ ستكون كارثة.
ماذا تقول لنا تلك السيناريوهات؟ تطبيقات الذكاء الاصطناعي مبهرة والخطأ في استخدامها كارثي.
هنا الخوف الحقيقي من الذكاء الاصطناعي وليس الخوف من تمرد الأجهزة أو احتلال كوكب الأرض وكل هذا الكلام الذى يصلح فقط لأفلام الخيال العلمي. برمجيات الذكاء الاصطناعي لن تشعر بجنون العظمة أو الازدراء، لن تشعر بأي شيء لأن المشاعر لا يمكن «ميكنتها» لأننا لا نفهمها.
الخوف من استخدام تلك البرمجيات يأتي من الاستخدام الخاطئ لها وهذا الاستخدام الخاطئ يأتي من طريقين:
إعطاء تلك البرمجيات مساحة للتحكم أكثر مما ينبغي دون رقيب، واستخدامها على نطاق واسع في بعض المجالات قبل أن يكون الإنسان مستعدا لها.
ما الذى نحتاجه كي نقلل من تلك المخاطر؟
أولاً: يجب أن تكون هناك دائما وسيلة يتمكن بها الانسان من إيقاف برمجيات الذكاء الاصطناعي والسماح بالتدخل البشري، وهذا من حسن حظنا لأن الضغط على زر لإطلاق السلاح النووي هو خطوة بلا رجعة، لكن إطلاق برمجيات الذكاء الاصطناعي للقيام بمهمة ما يمكن إيقافه والسماح للبشر بالتدخل.
ثانياً: يتعين وجوب تشريع دقيق لاستخدام تلك التكنولوجيا وعقوبات صارمة لمن يتجاوز في ذلك، مثلا إذا صدمت سيارة ذاتية القيادة شخصا ما فمن يتحمل المسئولية؟ هذا سؤال صعب للغاية، هذه التشريعات لا تشمل الأفراد فقط، بل والدول أيضا. الأمم المتحدة تعكف على اصدار توصيات بخصوص الاستخدام الآمن للذكاء الاصطناعي، لكن هذه خطوة أولى تنتظر ما بعدها.
ثالثاً: يجب أن تتحمل الشركات الكبرى المسئولية وتبطئ من استخدام تلك التكنولوجيا المتقدمة على نطاق واسع قبل أن تدرس بدقة التأثيرات السلبية لها على المجتمع، عادة ما تسرع تلك الشركات إلى إطلاق المنتجات التكنولوجية إلى السوق حتى لا تسبقها شركات أخرى مثلما أطلقت جوجل تطبيق (Bard) للرد على (ChatGPT) وحتى لا تستأثر شركة OpenAI بالسوق ولم يكن (Bard) جاهزا، إذا هناك نهم للمكاسب وهناك عدم ثقة بين تلك الشركات الكبرى وبعضها، هناك مسئولية أخلاقية كبرى تقع على عاتق تلك الشركات الكبرى.
رابعاً: يجب أن يكون هناك تعاون بين البشر وتلك البرمجيات وليس منافسة، البشر لهم قدرات مختلفة عن الآلة فالتكامل أفضل من التنافس، وهذا موضوع بحثى مازال فى مهده: ما هى الطريقة المثلى للتعاون بين الآلة والإنسان فى مختلف المجالات لما فيه الخير للبشر؟
هناك فروع بحثية أتمنى وجودها على نطاق واسع:
علم المستقبليات وكيف ستكون التكنولوجيا والعلاقات بين البشر والدول فى المستقبل القريب والمتوسط والبعيد.
كيفية التعاون بين الانسان والبرمجيات.
قياس التأثير النفسي والاجتماعي لاستخدام الذكاء الاصطناعي في مختلف مجالات الحياة.
د. محمد زهران