لسنوات، تم التحذير من المخاطر التي تشكلها الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي؟ والمعروفة أيضًا باسم “التزييف العميق”. ولكن، حتى وقت قريب جدًا، كان من السهل نسبيًا تمييز الصورة التي تم إنشاؤها بواسطة الذكاء الاصطناعي عن الصورة العادية.
كان هذا حتى عطلة نهاية الأسبوع، عندما انتشرت على الإنترنت صورة تم إنشاؤها بواسطة الذكاء الاصطناعي للبابا فرانسيس وهو يرتدي سترة منفوخة وأزياء جعلته شبيها بنجوم موسيقى الراب، واشتهرت باسم Balenciaga Pope، مما أدى إلى خداع العديد من مستخدمي الإنترنت.
يشير تقرير حديث لمجلة تايم/ TIME، الأمريكية إلى أنه في غضون أشهر قليلة، نمت أدوات إنشاء صور الذكاء الاصطناعي المتاحة للجمهور بما يكفي لتوليد صور واقعية. مشيرا إلى أنه في حين أن الصورة المتداولة للبابا تحتوي بالفعل على بعض علامات التزوير، إلا أنها كانت مقنعة بما يكفي لخداع العديد من مستخدمي الإنترنت – بما في ذلك المشاهير.
يقول التقرير: على الرغم من أن الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي أصبحت تنتشر انتشارا فيروسيا، إلا أن أيا منها لم يخدع الكثير من الناس بسرعة مثل صورة البابا. كانت الصورة غريبة الأطوار، وبالتأكيد، فإن الكثير من انتشارها يعود إلى الأشخاص الذين يشاركونها عن قصد من أجل الضحك.
لكن التاريخ قد يعتبر صورة البابا هي أول صورة منتشرة تغذيها تقنية التزييف العميق، وعلامة على الأسوأ في المستقبل.
اقرأ أيضا: تفاصيل الحرب “السيبرانية” بين روسيا والغرب
في الأشهر الأخيرة أصبحت أدوات إنشاء الصور أكثر سهولة وقوة، مما ينتج صورًا ملفقة ذات جودة أفضل من أي شيء يمكنك أن تراه. ومع تقدم قوة الذكاء الاصطناعي بسرعة، سيكون من الصعب فقط تمييز ما إذا كانت الصورة أو الفيديو حقيقيًا أم مزيفًا.
ينوه التقرير إلى أنه “يمكن أن يكون لذلك تأثير كبير على تعرض الجمهور لعمليات التأثير الأجنبي، والمضايقات المستهدفة للأفراد، وتشكيك الثقة في الأخبار”.
كيف تكتشف الصورة التي تم إنشاؤها بواسطة الذكاء الاصطناعي؟
ذكر تقرير المجلة الأمريكية بعض النصائح للمساعدة في اكتشاف الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي، وتجنب الانخداع بأجيال أكثر إقناعًا بالتكنولوجيا في المستقبل.
يقول: إذا ألقيت نظرة فاحصة على صورة البابا، ستظهر بعض الإشارات الدالة على الذكاء الاصطناعي. يُرفع الصليب المعلق عند صدره عالياً لسبب غير مفهوم، مع سترة بيضاء منفوخة.
ولاكتشاف صورة تم إنشاؤها بالذكاء الاصطناعي، غالبًا ما يكون من المفيد إلقاء نظرة على التفاصيل المعقدة للصورة.
يوضح التقرير أن مولدات الصور بالذكاء الاصطناعي هي في الأساس مكررات للأنماط “لقد تعلموا كيف يبدو البابا، وكيف يمكن أن تبدو السترة المنتفخة، وهم قادرون بأعجوبة على مزج الاثنين معًا. لكنهم -حتى الآن- لا يفهمون قوانين الفيزياء. ليس لديهم أي فكرة عن سبب عدم قدرة الصليب على التحليق في الهواء دون وجود سلسلة تدعمه”
يضيف: في هذه الأجزاء من الصورة غالبًا ما يكون البشر قادرين، بشكل حدسي، على اكتشاف التناقضات التي لا يستطيع الذكاء الاصطناعي القيام بها.
لكن، لن يمر وقت طويل قبل أن تتحسن تقنية الذكاء الاصطناعي لتصحيح هذه الأنواع من الأخطاء.
قبل أسابيع فقط، كانت Midjourney-أداة الذكاء الاصطناعي المستخدمة في إنشاء صورة البابا- غير قادرة على إنتاج صور واقعية للأيدي البشرية. وللتحقق مما إذا كانت صورة شخص ما تم إنشاؤها بواسطة الذكاء الاصطناعي.
الآن، يمكن أن ينتج عن الإصدار الأحدث من Midjourney أيدي بشرية تبدو واقعية، مما يزيل القدرة على التفرقة أو معرفة وتحديد صورة نفذت عبر الذكاء الاصطناعي.
كيف تتجنب أن تنخدع في المستقبل؟
في الوقت الحالي، قد تكون تقنيات محو الأمية الإعلامية هي أفضل رهان لك لمواكبة الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي في المستقبل.
يقول التقرير: لن يساعدك طرح هذه الأسئلة على اكتشاف 100% من الصور المزيفة، ولكنها ستجهزك لاكتشاف المزيد منها، ولتصبح أكثر مقاومة لأشكال المعلومات المضللة الأخرى أيضًا.
تذكر دائمًا أن تسأل: من أين أتت هذه الصورة؟ من يشاركها ولماذا؟ هل تتعارض مع أي معلومات أخرى موثوقة يمكنك الوصول إليها؟
ويشير إلى أنه “عندما يتعلق الأمر باكتشاف الصور الناتجة عن الذكاء الاصطناعي، فإن أفضل رهان لك هو التحقق مما يقوله الآخرون”.
يضيف: لدى Google ومحركات البحث الأخرى أداة بحث عكسية عن الصور، والتي تتيح لك التحقق من مكان مشاركة الصورة على الإنترنت بالفعل، وما يقوله الناس عنها.
يمكن أن يتيح لك استخدام هذه الأداة معرفة ما إذا كان الخبراء أو المنشورات الموثوقة قد حددوا أن الصورة مزيفة، أو يمكن أن تساعدك في العثور على أول مكان تمت مشاركة الصورة فيه.
ويضرب التقرير مثالا بـ “إذا تم نشر صورة يُزعم أنها التقطت من قبل مصور إخباري لأول مرة بواسطة مستخدم مجهول الاسم على أحد مواقع التواصل الاجتماعي، فهذا سبب للتشكيك في صحتها”.
وإذا كنت من مستخدمي Twitter، فغالبًا ما توفر لك ميزة ملاحظات المجتمع مزيدًا من السياق حول صورة ما، على الرغم من أنه غالبًا لا يتم ذلك لفترة من الوقت بعد نشر تغريدة لأول مرة.
يلفت التقرير إلى أنه “بعد أن أصبحت صورة البابا منتشرة بالفعل، تم إلحاق ملاحظة بالتغريدة الأصلية التي شاركتها: “هذه الصورة للبابا فرانسيس هي صورة تم إنشاؤها بواسطة الذكاء الاصطناعي وليست حقيقية”. كما جاء في الملاحظة “تم إنشاء الصورة على تطبيق إنشاء الصور بالذكاء الاصطناعي Midjourney”.
اقرأ أيضا: OSINT.. مصدر معلومات حوله الإسرائيليون أداة تواطؤ على جرائم الدم
هل توجد حلول تكنولوجية؟
هناك الكثير من البرامج التي تدعي أنها قادرة على اكتشاف التزييف العميق، بما في ذلك تطبيق من Intel يقول إنه دقيق بنسبة 96% في اكتشاف مقاطع الفيديو التزييف العميق.
ولكن هناك عدد قليل من الأدوات المجانية عبر الإنترنت، يمكنها أن تخبرك بشكل موثوق ما إذا كانت الصورة تم إنشاؤها بواسطة الذكاء الاصطناعي أم لا.
تمكن أحد أجهزة الكشف عن الصور بالذكاء الاصطناعي المجانية، المستضافة على منصة Hugging Face للذكاء الاصطناعي، من الكشف بشكل صحيح بنسبة 69% من اليقين أن صورة البابا تم إنشاؤها بواسطة الذكاء الاصطناعي.
ولكن، مع تقديم صورة تم إنشاؤها بواسطة الذكاء الاصطناعي لرجل الأعمال إيلون ماسك، انتجت بواسطة أحدث إصدار من Midjourney، أعطت الأداة إجابة خاطئة، كانت متأكدة بنسبة 54% من أن الصورة أصلية.
ويذكر التقرير إنه عندما شرع باحثو الذكاء الاصطناعي في شركة البرمجيات Nvidia وجامعة نابولي في العثور على مدى صعوبة بناء كاشف للصور تم إنشاؤه بواسطة الذكاء الاصطناعي، اكتشفوا العديد من القيود.
وفقًا لورقة نُشرتها الشركة في نوفمبر/ تشرين الثاني 2022. وجدوا أن مولدات الصور بالذكاء الاصطناعي تترك علامات غير مرئية ومنبهة في الصور التي يقومون بإنشائها، وأن هذه ” القطع الأثرية المخفية ” تبدو مختلفة قليلاً اعتمادًا على البرنامج المحدد الذي تم استخدامه لإنشاء الصورة.
لكن، من الصعب اكتشاف الزيف، عند تغيير حجم الصورة أو انخفاض الجودة – وهذا يحدث غالبا عند مشاركة الصور وإعادة مشاركتها على وسائل التواصل الاجتماعي.
صنع الباحثون أداة كانت قادرة على اكتشاف صورة البابا تم إنشاؤها بواسطة الذكاء الاصطناعي، إلا من الصعب على المستخدم العادي الوصول إليه.