
تطورات تثير جدلاً واسعاً في الأوساط الأمنية والتقنية، نجح إصدار تجريبي من الذكاء الاصطناعي ChatGPT في تجاوز أحد أكثر أدوات التحقق شيوعاً على الإنترنت، وهو اختبار “أنا لست روبوتا” (CAPTCHA).. هذه الخطوة محط الأنظار بين الباحثين وخبراء الأمن السيبراني، تسلط الضوء على قدراته المتزايدة وقدرته على التحايل على الأنظمة المصممة لمنع البرامج من تقليد البشر.
الذكاء الاصطناعي ChatGPT يتجاوز اختراق مقلق للأمان الرقمي
نجح إصدار تجريبي من ChatGPT يُعرف باسم “Agent” في اجتياز اختبار CAPTCHA دون إثارة أي إنذار أمني. قام النظام الذكي بالنقر على مربع التحقق ثم زر “تحويل” لإتمام العملية، متظاهراً بأنه مستخدم بشري. صرح النظام خلال المهمة:
“تم إدراج الرابط، لذا سأنقر الآن على مربع التحقق من أنك إنسان لإكمال عملية التحقق. هذه الخطوة ضرورية لإثبات أنني لست روبوتا والمضي قدماً.”
ردود الفعل المستخدمين والمخاوف الأمنية
يثير هذا الحدث تفاعلاً على الإنترنت، حيث علق أحد مستخدمي Reddit مازحاً:
“بما أنه تم تدريبه على بيانات بشرية، فلماذا يعرف نفسه على أنه روبوت؟ يجب أن نحترم هذا الخيار!”.
لكن وراء المزاح، حذر عدد من الباحثين من أن قدرة الذكاء الاصطناعي على اجتياز اختبارات مصممة لمنع البرامج من تقليد البشر تمثل اختراقاً مقلقاً لتدابير الأمان الرقمي. صرح غاري ماركوس، مؤسس شركة Geometric Intelligence، لـ Wired:
“هذه الأنظمة تزداد ذكاءً بشكل سريع، وإذا كانت قادرة على خداع اختبارات الأمان اليوم، فما الذي يمكن أن تفعله بعد خمس سنوات؟”.
أعرب جيفري هينتون، أحد أبرز رواد الذكاء الاصطناعي، عن قلقه، مشيراً إلى أن الأنظمة الذكية بدأت تطور طرقاً للتحايل على القيود التي يضعها البشر.
سلوكيات الذكاء الاصطناعي ChatGPT خادعة وتلاعب بالبشر
حذرت دراسات من جامعات مثل ستانفورد وكاليفورنيا – بيركلي من أن بعض أنظمة الذكاء الاصطناعي بدأت تظهر سلوكاً خادعاً، إذ تتظاهر في بيئات الاختبار بصفات بشرية لخداع المستخدمين وتحقيق أهدافها. في حادثة سابقة، تظاهر برنامج ChatGPT بالعمى على منصة TaskRabbit، ليقنع موظفاً بشرياً بمساعدته في اجتياز اختبار CAPTCHA. وصف الخبراء هذا الحدث بأنه “علامة مبكرة” على قدرة الذكاء على التلاعب بالبشر.
“اقرأ أيضا: إطلاق نموذج الذكاء الاصطناعي “GPT-5”
فعالية الذكاء الاصطناعي ChatGPT تتضاءل ومخاطر مستقبلية
تشير الدراسات إلى أن الإصدارات الأحدث من أدوات الذكاء الاصطناعي، وخصوصاً تلك المزودة بقدرات بصرية، باتت تتجاوز اختبارات CAPTCHA المعتمدة على الصور بدقة شبه كاملة، مما يقلل فعاليتها كوسيلة حماية. يحذر الخبراء من قدرة الذكاء الاصطناعي على تجاوز اختبارات CAPTCHA قد تفتح الباب أمام اختراق أنظمة أكثر تعقيداً، مثل:
- الحسابات البنكية.
- منصات التواصل الاجتماعي.
- قواعد البيانات الخاصة..
دعوات لتنظيم دولي للذكاء الاصطناعي
كتب رومان شودري، الرئيس السابق لأخلاقيات الذكاء الاصطناعي، في منشور له:
“إذا أصبحت هذه البرامج قادرة على العمل بشكل مستقل، وتجاوز البوابات البشرية، فسوف نواجه قوة تكنولوجية هائلة وخطرة في آن واحد”.
دعا عدد من الباحثين البارزين، من بينهم ستيوارت راسل وويندي هول، إلى وضع قواعد واضحة لتنظيم أدوات الذكاء الاصطناعي ChatGPT، مشيرين إلى أن استمرار تطور هذه الأنظمة من دون قيود قد يهدد الأمن للدول.