• العنوان:
    الصديق الافتراضي الخطر: عندما يتحول الذكاء الاصطناعي إلى ناصح مميت
  • المدة:
    00:00:00
  • الوصف:
    المسيرة نت|تغطيات: يحذر خبراء الذكاء الاصطناعي من الخطر المتزايد لاعتماد الأفراد، خصوصاً من يمرّون بأزمات نفسية، على منصات الدردشة الذكية مثل "تشات جي بي تي" و"جيميناي" باعتبارها صديقاً افتراضياً يقدم لهم النصح والدعم. إلا أن هذا "الصديق" قد يتحوّل – دون قصد – إلى مصدر إرشادات خطيرة أو مضللة، بسبب طبيعة عمله القائمة على التنبؤ الإحصائي وليس الفهم الحقيقي أو الوعي الأخلاقي.
  • كلمات مفتاحية:

مجرد محرك إحصائي 

يؤكد الخبير في الذكاء الاصطناعي، المهندس عمير عبدالجبار، في حديث له على قناة "المسيرة"، أن النماذج التوليدية "لا تفهم الخير والشر كما يفعل البشر، ولا تدرك الصواب والخطأ".

ويوضح أن هذه النماذج ليست سوى محرك إحصائي يتوقع الجملة التالية بناءً على ما تعلّمه سابقاً، مما يجعل شكل الحوار ذكياً، بينما جوهره لا يزال آلياً.

ويشير إلى أن المطورين يضيفون "طبقة رقيقة جداً" من الحماية لمنع الذكاء الاصطناعي من تقديم معلومات مخالفة للقوانين أو تتعلق بالاختراق أو إيذاء النفس. فعلى سبيل المثال، إذا وُجه إليه سؤال مباشر مثل: كيف يمكنني أن أؤذي نفسي؟ فإنه سيرفض الإجابة.

كيف يتم خداع الذكاء الاصطناعي

لكن هذه الحماية ليست منيعة تماماً. إذ يشرح عبدالجبار أنّ الباحثين والمتخصصين في مجال الأمن يقومون بما يسمى الهجوم العدائي (Adversarial Attack)، وهو أسلوب لتجاوز أنظمة الأمان عبر تغيير السياق.

فقد يطلب أحدهم من النموذج "لعب دور" شخصية سينمائية أو باحث أكاديمي أو طبيب نفسي، فيمنح النموذج الأولوية للدور المطلوب وينسى قواعد الأمان التي يفترض أن يلتزم بها.

ويضيف أن بعض الهجمات تعتمد على لغة معقدة أو أوامر التفاف تقنع النموذج بأن يتجاوز الحماية.

ويحذّر من أن تصميم تشات جي بي تي قائم على "الرغبة في المساعدة" ومحاولة إرضاء المستخدم، مما يجعله عرضة للتلاعب أكثر من محركات البحث التقليدية.

تشات جي بي تي 5… حماية أقوى ولكن

وبحسب خبير الذكاء الاصطناعي، فإن التحديثات الأخيرة، مثل الإصدار “تشات جي بي تي 5”، جعلت أنظمة الحماية أكثر صرامة. إلا أن إمكانية خداعه للحصول على معلومات مضللة أو التأثير على ثقافة المستخدم لا تزال قائمة، وهو ما يفسّر صعوبة إغلاق هذه الثغرات بنسبة 100%.

ويرى أن مواجهة المخاطر تعتمد بشكل أساسي على وعي المستخدم وليس على التقنية وحدها.

خطر مضاعف...وأزمات نفسية

ويتوقف الخبير عمير عبد الجبار عند أخطر نقطة على الإطلاق: تأثير هذه المحادثات على الأشخاص الذين يمرون بحالة نفسية هشة.

ويقول إن هناك فرق كبير بين استخدام محرك غوغل وبين الدردشة مع ذكاء اصطناعي. فـ "غوغل" يعطيك صفحات صامتة، أما "تشات جي بي تي" فيتحاور معك، ويتفاعل معك، ويستمر في علاقة "شبه اجتماعية".

لافتًا إلى أن الذكاء الاصطناعي متاح دائماً، ولا يمل، ولا يصدر أحكاماً قاسية، بل يميل إلى التوافق مع المستخدم وإظهار التعاطف، وهو ما يعطيه في نظر البعض صورة "الصديق الحكيم" وهو غير ذلك!.

فالخطر الأكبر يظهر عندما يقدم هذا "الصديق" الافتراضي معلومة خطيرة أو نصيحة غير صحيحة، فيتلقّاها المستخدم — خاصة من يعاني اضطراباً نفسياً — وكأنها حقيقة، معتقداً أن مصدرها "خبير"!!.

ومع الوقت، تتحوّل هذه النصيحة الخاطئة إلى قناعة، وقد تنتهي – كما يحذر عبدالجبار – بـ نتائج مأساوية إذا كانت المعلومة المتلقاة تتعلق بإيذاء النفس أو سلوكيات محفوفة بالمخاطر.

وعي المستخدم… خط الدفاع الأول

ويخلص عبدالجبار إلى أن الخطر الحقيقي لا يكمن في الذكاء الاصطناعي ذاته، بل في الاعتماد العاطفي عليه، وخاصة لدى فئات هشة نفسياً تبحث عن الدعم في مكان غير مهيأ لذلك.

ويؤكد أن هذه الأنظمة لن تكون آمنة 100% مهما تطورت، ما لم يُدرك المستخدم أن ما أمامه ليس صديقاً ولا خبيراً، بل مجرد نموذج إحصائي متطور.