تقنية

العثور على صور لاعتداء جنسى على أطفال داخل قاعدة بيانات الذكاء الاصطناعى

العثور على صور لاعتداء جنسى على أطفال داخل قاعدة بيانات الذكاء الاصطناعى

العثور على صور لاعتداء جنسى على أطفال داخل قاعدة بيانات الذكاء الاصطناعى     

كشف تقرير حديث أن مجموعة البيانات المستخدمة لتدريب مولدات صور الذكاء الاصطناعي تحتوي على آلاف الصور للاعتداء الجنسي على الأطفال، حيث وجد تحقيق أجراه مركز السياسة السيبرانية في جامعة ستانفورد أن قاعدة بيانات LAION-5B، التي تم استخدامها لتدريب العديد من مولدات الصور بالذكاء الاصطناعي. الاصطناعي، بما في ذلك Stable Diffusion، يحتوي على أكثر من 3200 صورة لإساءة معاملة الأطفال المشتبه بها.

وفقًا لموقع Business Insider، تم التأكد من أن ما يزيد قليلاً عن 1000 من هذه الصور هي مواد اعتداء جنسي على الأطفال، مع تحذير التقرير من أن وجودها في مجموعة البيانات قد يسمح باستخدام أدوات الذكاء الاصطناعي المبنية على هذه البيانات لإنشاء محتوى جديد. لإساءة معاملة الأطفال.

LAION-5B عبارة عن أرشيف عام ضخم يضم حوالي خمسة مليارات صورة تم التقاطها من الويب المفتوح.

وقد تم استخدامه من قبل مجموعة متنوعة من شركات الذكاء الاصطناعي، والتي تتطلب كميات هائلة من البيانات لتدريب نماذج الذكاء الاصطناعي التوليدية التي يمكنها إنتاج صور جديدة في ثوانٍ.

لقد حذر الخبراء منذ فترة طويلة من أن مولدات صور الذكاء الاصطناعي تخاطر بإصدار صور واقعية للغاية للاعتداء الجنسي على الأطفال، مع تحذير مؤسسة مراقبة الإنترنت (IWF) من أن مثل هذه الصور منتشرة بالفعل على شبكة الإنترنت المظلمة.

وفي الوقت نفسه، دعا منظمو السلامة عبر الإنترنت في المملكة المتحدة إلى اتخاذ “إجراءات عاجلة” بشأن حالات الأطفال الذين يستخدمون مولدات صور الذكاء الاصطناعي في المدرسة لإنشاء محتوى غير مناسب لزملائهم التلاميذ.

وتشهد تطبيقات الذكاء الاصطناعي التي تستخدم تقنية مشابهة لـ “خلع ملابس” النساء في الصور عن طريق إنشاء صور عارية مزيفة لهن، ارتفاعًا في شعبيتها أيضًا، وفقًا لبيانات من Graphika.

المثال الأكثر شيوعًا لاستخدام قاعدة بيانات LAIONK هو Stable Diffusion، حيث أصبحت الأداة، التي طورتها شركة Stability AI ومقرها المملكة المتحدة، واحدة من أكثر أدوات إنشاء الصور انتشارًا وشعبية منذ إطلاقها في عام 2022.

وقال متحدث باسم منظمة LAION الألمانية غير الهادفة للربح، والتي تقف وراء مجموعة البيانات، لبلومبرج إن المجموعة كانت تزيل مجموعات البيانات الخاصة بها مؤقتًا من الإنترنت بينما تقوم بتنظيف المحتوى غير القانوني.

وفي الوقت نفسه، قال متحدث باسم Stability AIK إن الشركة قدمت مرشحات لمنع المستخدمين من إنشاء محتوى غير قانوني باستخدام Stable Diffusion وأن نماذج Stability AI تم تدريبها فقط على مجموعة فرعية تمت تصفيتها من LAION-5B.

أصدرت الشركة Stable Diffusion 2.0، الذي يفرض ضوابط أكثر صرامة على المحتوى الجنسي الصريح، في العام الماضي، ولكن الإصدار 1.5، الذي ينشئ محتوى صريحًا، لا يزال متاحًا على شبكة الإنترنت المفتوحة.

للمزيد : تابع خليجيون 24 ، وللتواصل الاجتماعي تابعنا علي فيسبوك وتويتر

مصدر المعلومات والصور : youm7

مقالات ذات صلة

اترك تعليقاً

زر الذهاب إلى الأعلى

اكتشاف المزيد من خليجيون 24

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading

Open chat
Scan the code
مرحباً هل يمكننا مساعدتك؟