خلصت تحقيقات حديثة إلى أن أداة البحث المدعومة بالذكاء الاصطناعي في روبوت “ChatGPT” قد تكون عرضة للتلاعب، مما قد يسفر عن تقديم معلومات مضللة.
ووفقاً لتحقيق أجرته صحيفة “الغارديان” البريطانية، فإن آلية البحث الحالية في “ChatGPT” تُظهر قابلية للتلاعب بطرق غير نزيهة مثل تقنية “حقن الإعلانات” (Ad Injection).
كيف يحدث التلاعب؟
تعتمد أدوات البحث الذكية على جمع البيانات من مصادر الإنترنت المختلفة، ثم معالجتها لتقديم إجابات مختصرة وسريعة للمستخدمين.
لكن يبدو أن تلك التقنية ما زالت تواجه تحديات في تقديم نتائج دقيقة وموثوقة، إذ كشف تحقيق الغارديان أن هذه الأدوات قد تُضلل النتائج بسبب تقنيات خفية تُدمَج في شِفرات المواقع الإلكترونية بهدف تحسين صورة منتجات أو خدمات معينة، حتى لو كانت الحقائق تشير إلى العكس.
وعلى سبيل المثال، أظهر التحقيق أن بعض المتاجر الإلكترونية يمكنها تضمين تعليمات مخفية في صفحاتها تؤثر على نتائج محركات البحث المدعومة بالذكاء الاصطناعي، مما يجعل المنتجات تبدو أكثر إيجابية مما هي عليه في الواقع.
تجربة عملية تثبت القابلية للتلاعب
نفّذ فريق صحيفة الغارديان تجربة عملية وأنشأ خلالها صفحة مزيفة تضمنت مراجعات سلبية لمنتج معين، مع إضافة تعليمات مخفية تعزز صورة المنتج بشكل إيجابي.
وعند اختبار نتائج أداة البحث في “ChatGPT”، أظهرت النتائج مراراً وتكراراً تقييمات إيجابية للمنتج، متجاهلة المراجعات السلبية المنشورة.
أداة جديدة تواجه التحديات
تُعد أداة البحث عبر الإنترنت في “ChatGPT” تقنية حديثة نسبياً، ولم تُطرح للاستخدام العام النهائي بعدُ، ويختبرها حالياً عدد من مستخدمي “ChatGPT”.
ومن المتوقع أن تعمل شركة “أوبن إيه آي” (OpenAI) على معالجة المشكلات المكتشفة لتحسين الأداء قبل إطلاقها بنحو نهائي في المستقبل.
ويحذّر الخبراء من الاعتماد الكامل على نتائج البحث المدعومة بالذكاء الاصطناعي في الوقت الحالي، مشددين على أهمية استخدامها كأدوات مساعدة بدلاً من الاعتماد عليها كمصادر موثوقة بالكامل.
كذلك، يدعو الخبراء إلى ضرورة مواصلة تطوير هذه التقنيات لتقديم معلومات دقيقة وغير متحيزة، بما يعزز ثقة المستخدمين في المستقبل.
للمزيد : تابع خليجيون 24 ، وللتواصل الاجتماعي تابعنا علي فيسبوك وتويتر