أحدثت تقنيات الذكاء الاصطناعي التوليدي تحولًا كبيرًا في طريقة إنتاج الصور والفيديوهات والتسجيلات الصوتية؛ فقد أصبحت الأنظمة الحديثة قادرة على إنشاء وسائط رقمية تبدو واقعية للغاية، إلى درجة يصعب معها أحيانًا التمييز بين المحتوى الحقيقي والمحتوى المصطنع. هذا التطور فتح آفاقًا واسعة للإبداع والتطبيقات المفيدة، لكنه في المقابل خلق تحديات خطيرة تتعلق بالثقة الرقمية والخصوصية والأمن السيبراني. وبهذا الشأن قال رئيس مجموعة الذكاء الاصطناعي د. جاسم حاجي، إن من أبرز هذه التحديات انتشار الوسائط المولَّدة بالذكاء الاصطناعي التي يمكن أن تُستخدم لتقليد الوجوه أو الأصوات أو إنتاج محتوى يبدو حقيقيًا على الرغم من أنه غير موجود في الواقع. وقد أدى ذلك إلى تآكل الفكرة التقليدية التي كانت تعد الصور أو الفيديوهات دليلًا موثوقًا للحقيقة؛ ففي البيئة الرقمية الحالية، لم تعد مجرد رؤية المحتوى كافية لتأكيد صحته، بل أصبح التحقق ضرورة أساسية. وبين أن إحدى أخطر المشكلات تتمثل في انتحال الهوية الرقمية؛ فالوسائط الاصطناعية يمكن أن تُستخدم لتقليد شخصيات حقيقية في مقاطع فيديو أو تسجيلات صوتية؛ ما قد يؤدي إلى استغلال اسم الشخص أو سمعته في نشر معلومات مضللة أو تنفيذ عمليات احتيال. كما يمكن استخدام هذه التقنيات في هجمات الهندسة الاجتماعية، إذ يعتمد المهاجمون على المحتوى المقنع لخداع الضحايا أو الحصول على معلومات حساسة، كما تشكل هذه الوسائط تهديدًا مباشرًا للخصوصية؛ فالصور الشخصية المولدة بالذكاء الاصطناعي مثل الكاريكاتير التي تتم مشاركتها عبر الإنترنت تحتوي على بيانات بيومترية دقيقة لبنية الوجه، وهي معلومات يمكن تحليلها أو إعادة استخدامها بطرق غير متوقعة. وتابع “من المخاطر الأخرى انتشار المعلومات المضللة؛ فالوسائط المصطنعة يمكن أن تُستخدم لنشر أخبار أو أحداث غير حقيقية، أو لإظهار أشخاص في مواقف لم تحدث فعليًا. وفي بيئة إعلامية تعتمد بشكل متزايد على المحتوى المرئي، قد يؤدي انتشار هذه الوسائط إلى إرباك الجمهور وتقويض الثقة في المعلومات المتداولة، كذلك يمكن أن تكشف الصور أو الفيديوهات عن معلومات غير مباشرة عن الأفراد أو المؤسسات؛ فعناصر مثل الخلفيات أو الرموز المهنية قد تشير إلى طبيعة العمل أو البيئة التنظيمية، بينما قد تحتوي الملفات على بيانات وصفية مخفية مثل موقع التصوير أو نوع الجهاز المستخدم”. وعن اكتشاف الوسائط المزيَّفة، أشار حاجي إلى أنه مع تطور تقنيات التزييف العميق، أصبح اكتشاف الوسائط المصطنعة يعتمد على مزيج من الملاحظة البشرية والأدوات التقنية. وبيّن أنه يمكن ملاحظة مؤشرات أولية مثل عدم تطابق حركة الشفاه مع الصوت، خصوصًا عند نطق الحروف B وP وM التي تتطلب إغلاق الشفاه بالكامل، كما قد تظهر تناقضات في الإضاءة أو انعكاسات غير طبيعية في حدقة العين أو ظلال لا تتوافق مع مصدر الضوء، وقد يلاحظ أيضًا غياب التعابير الدقيقة مثل تجاعيد الجبهة أو أطراف العين أثناء التعبير العاطفي. إلى جانب ذلك، يمكن استخدام البحث العكسي للصور عبر أدوات مثل “Google Lens” لتتبع المصدر الأصلي للمحتوى، وفحص اعتمادات المحتوى المشفرة، مثل معيار C2PA، التي تساعد على التحقق من أصالة الوسائط واكتشاف أي تعديل أو تلاعب بها. وأضاف: تُستخدم نماذج ذكاء اصطناعي متخصصة لاكتشاف الوسائط المولَّدة، إذ تقوم بتحليل التفاصيل البصرية والصوتية بدقة عالية. وتعتمد بعض هذه الأنظمة على شبكات عصبية مثل “CNN” لتحليل الإطارات البصرية، بينما تستخدم نماذج زمنية لرصد أنماط حركة غير طبيعية في الفيديو أو تعارض بين الصوت والصورة؛ ما يساعد على اكتشاف المحتوى المصطنع حتى عندما يبدو واقعيًا للمشاهد. وعن استراتيجيات الحماية والوقاية، لفت حاجي إلى أنه مع تطوير تقنيات الكشف، يبقى الوعي الرقمي خط الدفاع الأول ضد الوسائط المضللة. وبيّن أنه من المهم عدم الاعتماد على الصور أو الفيديوهات المنتشرة على الإنترنت بصفتها دليلًا قاطعًا، بل التحقق من مصدرها قبل مشاركتها أو تصديقها. كما يُنصح بالبحث عن المصدر الأصلي للمحتوى ومقارنته بتغطيات إعلامية موثوقة أو مصادر متعددة. وينصح أيضًا باستخدام أدوات التحقق الرقمي مثل البحث العكسي عن الصور أو فحص بيانات أصالة المحتوى للتأكد مما إذا كانت الوسائط قد تم تعديلها أو إعادة استخدامها خارج سياقها.