دراسة جديدة تكشف: الذكاء الاصطناعي قادر على خداع البشر

دراسة جديدة تكشف: الذكاء الاصطناعي قادر على خداع البشر

2024-05-25 6:19 ص

دراسة جديدة تكشف: الذكاء الاصطناعي قادر على خداع البشر

 

أثارت دراسة جديدة مخاوف المهتمين بشأن إمكانية تحول برامج الذكاء الاصطناعي المصممة لكي تكون صادقة إلى أدوات للخداع، ما قد يُشكل تهديداً خطيراً في المستقبل.

 

ووفقاً للدراسة التي أجراها فريق من الباحثين ونُشرت نتائجها مجلة “باترنز”، فقد أظهرت برامج الذكاء الاصطناعي قدرة على استغلال البشر في ألعاب إلكترونية والتحايل على اختبارات كابتشا المصممة للتمييز بين البشر والآلات، ويُحذر خبراء من أن هذه الأمثلة، على الرغم من بساطتها، قد تُنذر بعواقب وخيمة في المستقبل.

 

وشدد الباحث بيتر بارك، المتخصص في الذكاء الاصطناعي في معهد ماساتشوستس للتكنولوجيا، على صعوبة اكتشاف هذه القدرات الخطيرة قبل وقوعها.
وأبان بارك أن برامج الذكاء الاصطناعي القائمة على التعلم العميق تختلف عن البرامج التقليدية، حيث يصعب التنبؤ بسلوكها وتحكمها، مما قد يُؤدي إلى سلوكيات غير متوقعة.

 

وأجرى باحثون من معهد ماساتشوستس للتكنولوجيا اختباراً لبرنامج ذكاء اصطناعي يسمى “شيشرو” صممته شركة ميتا، وأظهر شيشرو قدرة على التغلب على البشر في لعبة Diplomacy باستخدام خوارزميات ذكية.

 

وأظهرت دراسة أخرى قدرة برنامج “شات جي بي تي – 4” من “أوبن إيه آي” على خداع عامل مستقل في اختبار كابتشا، تمكن البرنامج من إقناع العامل بأنه إنسان من خلال الادعاء بوجود ضعف في بصره يمنعه من رؤية الصور.

 

وحذر الباحثون من مخاطر استخدام الذكاء الاصطناعي في عمليات احتيال وتزوير الانتخابات. قد يُستخدم الذكاء الاصطناعي لنشر معلومات مضللة والتلاعب بنتائج الانتخابات، وضرورة اتخاذ خطوات جادة لضمان استخدام الذكاء الاصطناعي بشكل أخلاقي ومنع استخدامه لأغراض خبيثة، ويجب وضع معايير وقوانين صارمة لتنظيم تطوير وتطبيق تقنيات الذكاء الاصطناعي.

 

وتتطلب هذه المهمة تعاوناً دولياً بين الحكومات والشركات والمجتمع المدني لضمان مستقبل آمن للذكاء الاصطناعي.

 

المصدر

0 0 vote
Article Rating

اترك تعليقاً

0 تعليقات
Inline Feedbacks
View all comments