يتقلص الفرق بين الذكاء الاصطناعي والأنماط البشرية أكثر فأكثر، وفي المقابل، قامت شركة ديلويت الاستشارية مؤخرًا بتعويض الحكومة الأسترالية جزئيًا بعد أن تضمن تقرير نشرته أخطاءً ناتجة عن الذكاء الاصطناعي.
كما واجه محامٍ مؤخرًا إجراءات تأديبية بعد اكتشاف اقتباسات زائفة ناتجة عن الذكاء الاصطناعي في وثيقة محكمة رسمية، وتشعر العديد من الجامعات بالقلق بشأن كيفية استخدام طلابها للذكاء الاصطناعي.
وفي ظل هذه الأمثلة، ظهرت مجموعة من أدوات "كشف الذكاء الاصطناعي" في محاولة لتلبية حاجة الناس إلى تحديد محتوى دقيق وموثوق.
كيف تعمل أجهزة كشف الذكاء الاصطناعي؟
توجد عدة مناهج، وتعتمد فعاليتها على أنواع المحتوى المعني، وغالبًا ما تحاول كاشفات النصوص استنتاج تدخل الذكاء الاصطناعي من خلال البحث عن أنماط "التوقيع" في بنية الجملة، وأسلوب الكتابة، وسهولة التنبؤ بكلمات أو عبارات معينة مستخدمة.
على سبيل المثال، ازداد استخدام "التعمق" و"العرض" بشكل كبير منذ تزايد توفر أدوات الكتابة بالذكاء الاصطناعي.
ومع ذلك، يتضاءل الفرق بين أنماط الذكاء الاصطناعي والأنماط البشرية أكثر فأكثر، وهذا يعني أن الأدوات القائمة على التوقيع قد تكون غير موثوقة للغاية.
وتعمل كاشفات الصور أحيانًا من خلال تحليل البيانات الوصفية المضمنة التي تضيفها بعض أدوات الذكاء الاصطناعي إلى ملف الصورة.
على سبيل المثال، تتيح أداة فحص بيانات اعتماد المحتوى للمستخدمين الاطلاع على كيفية تعديل المستخدم لمحتوى ما، شريطة أن يكون قد تم إنشاؤه وتحريره باستخدام برنامج متوافق، وكما هو الحال مع النصوص، يمكن أيضًا مقارنة الصور بمجموعات بيانات مُتحقق منها لمحتوى مُنشأ بواسطة الذكاء الاصطناعي (مثل التزييف العميق).
وأخيرًا، بدأ بعض مطوري الذكاء الاصطناعي بإضافة علامات مائية إلى مخرجات أنظمة الذكاء الاصطناعي الخاصة بهم. هذه أنماط مخفية في أي نوع من المحتوى، لا يدركها البشر، ولكن يمكن لمطور الذكاء الاصطناعي اكتشافها.
ما مدى فعالية أجهزة كشف الذكاء الاصطناعي؟
وتعتمد فعالية كاشفات الذكاء الاصطناعي على عدة عوامل، منها الأدوات المستخدمة لإنشاء المحتوى، وما إذا كان قد تم تحريره أو تعديله بعد إنشائه، كما يمكن أن تؤثر بيانات تدريب الأدوات على النتائج.
على سبيل المثال، لا تحتوي مجموعات البيانات الرئيسية المستخدمة للكشف الصور المُولّدة بالذكاء الاصطناعي على عدد كافٍ من صور الجسم الكاملة للأشخاص أو صور لأشخاص من ثقافات معينة، وهذا يعني أن نجاح الكشف محدودٌ بالفعل من نواحٍ عديدة.
يمكن أن يكون الكشف القائم على العلامات المائية فعالًا للغاية في الكشف المحتوى الذي تُنتجه أدوات الذكاء الاصطناعي من نفس الشركة، وعلى سبيل المثال، إذا كنت تستخدم أحد نماذج الذكاء الاصطناعي من جوجل، مثل Imagen، فإن أداة SynthID للعلامات المائية من جوجل تدّعي قدرتها على اكتشاف النتائج.
لكن SynthID غير متاحة للعامة بعد، كما أنها لا تعمل، على سبيل المثال، إذا كنت تُنشئ محتوى باستخدام ChatGPT، وهو ليس من إنتاج جوجل، حيث تُعد قابلية التشغيل البيني بين مطوري الذكاء الاصطناعي مشكلةً رئيسية.
يمكن أيضًا خداع كاشفات الذكاء الاصطناعي عند تعديل المُخرجات. على سبيل المثال، إذا استخدمت تطبيقًا لاستنساخ الصوت ثم أضفتَ تشويشًا أو قللتَ جودته (بتصغيره)، فقد يُعيق ذلك كاشفات الذكاء الاصطناعي الصوتية. وينطبق الأمر نفسه على كاشفات صور الذكاء الاصطناعي.
إلى أين نتجه؟
الاعتماد على أداة واحدة أمرٌ إشكالي ومحفوف بالمخاطر، فمن الأفضل والأسلم عمومًا استخدام مجموعة متنوعة من الطرق لتقييم صحة أي محتوى.
ويمكنك القيام بذلك من خلال مراجعة المصادر والتحقق من صحة الحقائق في المحتوى المكتوب، أما بالنسبة للمحتوى المرئي، فيمكنك مقارنة الصور المشبوهة بصور أخرى يُزعم أنها التُقطت في نفس الوقت أو المكان، كما يمكنك طلب أدلة أو تفسيرات إضافية إذا بدا شيء ما مشبوهًا.
ولكن في النهاية، ستظل العلاقات القائمة على الثقة مع الأفراد والمؤسسات أحد أهم العوامل عند تقصير أدوات الكشف أو عدم توفر خيارات أخرى.
إخلاء مسؤولية إن موقع بالبلدي يعمل بطريقة آلية دون تدخل بشري،ولذلك فإن جميع المقالات والاخبار والتعليقات المنشوره في الموقع مسؤولية أصحابها وإداره الموقع لا تتحمل أي مسؤولية أدبية او قانونية عن محتوى الموقع.
"جميع الحقوق محفوظة لأصحابها"
المصدر :" النبأ "

















0 تعليق