أصبح صنع التزييف العميق أرخص وأسهل بفضل الذكاء الاصطناعي
لن يكون الأمر بعيدًا تمامًا عن شخصية جو روغان ، الممثل الكوميدي الذي تحول إلى بودكاستر ، لتأييد علامة تجارية للقهوة “تعزز الرغبة الجنسية” للرجال.
ولكن عندما ظهر مقطع فيديو تم تداوله على TikTok مؤخرًا السيد روغان وضيفه ، أندرو هوبرمان ، وهما يتجولان في القهوة ، صُدم بعض المشاهدين بعيون النسر – بما في ذلك الدكتور هوبرمان.
“نعم هذا مزيف ،” دكتور هوبرمان كتب على تويتر بعد مشاهدة الإعلان ، حيث يبدو أنه يمتدح قدرة القهوة على تعزيز هرمون التستوستيرون ، على الرغم من أنه لم يفعل ذلك مطلقًا.
كان الإعلان واحدًا من عدد متزايد من مقاطع الفيديو المزيفة على وسائل التواصل الاجتماعي المصممة بتقنية مدعومة بالذكاء الاصطناعي. قال الخبراء إن صوت السيد روجان يبدو أنه تم توليفه باستخدام أدوات الذكاء الاصطناعي التي تحاكي أصوات المشاهير. انتزعت تعليقات الدكتور هوبرمان من مقابلة غير ذات صلة.
كان إنشاء مقاطع فيديو مزيفة واقعية ، غالبًا ما يُطلق عليها اسم deepfakes ، يتطلب برنامجًا متطورًا لوضع وجه شخص ما على وجه شخص آخر. ولكن الآن ، تتوفر العديد من الأدوات اللازمة لإنشائها للمستهلكين كل يوم – حتى على تطبيقات الهواتف الذكية ، وغالبًا مقابل القليل من المال أو بدون مقابل.
أصبحت مقاطع الفيديو الجديدة المعدلة – في الغالب ، حتى الآن ، من عمل صانعي الميمات والمسوقين – منتشرة على مواقع التواصل الاجتماعي مثل TikTok و Twitter. يعمل المحتوى الذي ينتجهون ، والذي يطلق عليه الباحثون أحيانًا مزيفًا رخيصًا ، عن طريق استنساخ أصوات المشاهير ، وتغيير حركات الفم لمطابقة الصوت البديل وكتابة حوار مقنع.
أثارت مقاطع الفيديو ، والتكنولوجيا التي يمكن الوصول إليها من ورائها ، قلق بعض الباحثين في مجال الذكاء الاصطناعي بشأن مخاطرها ، وأثاروا مخاوف جديدة بشأن ما إذا كانت شركات وسائل التواصل الاجتماعي مستعدة لتخفيف التزييف الرقمي المتزايد.
تعمل هيئات مراقبة المعلومات المضللة أيضًا على تجهيز نفسها لموجة من المزيفات الرقمية التي يمكن أن تخدع المشاهدين أو تزيد من صعوبة معرفة ما هو صحيح أو خطأ على الإنترنت.
قال بريت باريس ، الأستاذ المساعد في علوم المكتبات والمعلومات في جامعة روتجرز الذي ساعد في صياغة مصطلح “الزيفات الرخيصة”: “الشيء المختلف هو أن الجميع يمكنهم فعل ذلك الآن”. “لا يقتصر الأمر على الأشخاص الذين يمتلكون تقنية حسابية متطورة ومعرفة حسابية متطورة إلى حد ما. بدلاً من ذلك ، إنه تطبيق مجاني “.
انتشار المعلومات المضللة والأكاذيب
- تقليص: تعكس تخفيضات الوظائف في صناعة وسائل التواصل الاجتماعي اتجاهاً يهدد بإلغاء العديد من الضمانات التي وضعتها المنصات لحظر المعلومات المضللة أو قمعها.
- حالة أساسية: يمكن أن تساعد نتيجة معركة المحكمة الفيدرالية في تقرير ما إذا كان التعديل الأول يشكل عائقًا أمام أي جهود حكومية تقريبًا لخنق المعلومات المضللة.
- أفضل ناشر للمعلومات المضللة: وجدت دراسة كبيرة أن بودكاست “غرفة الحرب” لستيف بانون يحتوي على أكاذيب وادعاءات لا أساس لها من الصحة من البرامج الحوارية السياسية الأخرى.
- الذكاء الاصطناعي: لأول مرة ، تم اكتشاف الشخصيات التي تم إنشاؤها بواسطة الذكاء الاصطناعي في حملة تضليل موالية للدولة ، مما فتح فصلًا جديدًا في التلاعب عبر الإنترنت.
تم تداول رزم من المحتوى الذي تم التلاعب به على TikTok وأماكن أخرى لسنوات ، وعادةً ما يستخدم المزيد من الحيل المنزلية مثل التحرير الدقيق أو تبديل مقطع صوتي بآخر. في أحد مقاطع الفيديو على TikTok ، بدا أن نائب الرئيس كامالا هاريس تقول إن كل شخص في المستشفى بسبب Covid-19 قد تم تطعيمه. في الواقع ، قالت إن المرضى لم يتم تطعيمهم.
رصدت Graphika ، وهي شركة بحثية تدرس المعلومات المضللة ، مزيفًا عميقًا لمقدمي الأخبار الوهمية التي وزعت حسابات روبوت مؤيدة للصين في أواخر العام الماضي ، في أول مثال معروف على استخدام التكنولوجيا في حملات التأثير المتحالفة مع الدولة.
لكن العديد من الأدوات الجديدة تقدم تقنية مماثلة لمستخدمي الإنترنت اليوميين ، مما يمنح الكوميديين والمؤيدين الفرصة لعمل محاكاة ساخرة مقنعة خاصة بهم.
في الشهر الماضي ، تم تداول مقطع فيديو مزيف يظهر الرئيس بايدن وهو يعلن مسودة وطنية للحرب بين روسيا وأوكرانيا. أنتج الفيديو فريق عمل “Human Events Daily” ، وهو برنامج بودكاست وبث مباشر يديره جاك بوسوبيك ، وهو مؤثر يميني معروف بنشره لنظريات المؤامرة.
في مقطع يشرح الفيديو ، قال السيد بوسوبيك إن فريقه أنشأه باستخدام تقنية الذكاء الاصطناعي. استخدمت تغريدة حول الفيديو من The Patriot Oasis ، وهو حساب متحفظ ، علامة أخبار عاجلة دون الإشارة إلى أن الفيديو كان مزيفًا. تمت مشاهدة التغريدة أكثر من ثمانية ملايين مرة.
يبدو أن العديد من مقاطع الفيديو التي تعرض أصواتًا مُركبة تستخدم تقنية من شركة ElevenLabs ، وهي شركة أمريكية ناشئة شارك في تأسيسها مهندس سابق في Google. في نوفمبر ، أطلقت الشركة أداة استنساخ الكلام التي يمكن تدريبها على تكرار الأصوات في ثوانٍ.
جذبت ElevenLabs الانتباه الشهر الماضي بعد أن استخدمت 4chan ، وهي لوحة رسائل معروفة بالمحتوى العنصري والتآمري ، الأداة لمشاركة رسائل الكراهية. في أحد الأمثلة ، قام مستخدمو 4chan بإنشاء تسجيل صوتي لنص معاد للسامية باستخدام صوت تم إنشاؤه بواسطة الكمبيوتر يحاكي الممثل إيما واتسون. ذكرت Motherboard في وقت سابق عن استخدام 4chan لتقنية الصوت.
قالت شركة ElevenLabs على تويتر إنها ستفعل ذلك إدخال ضمانات جديدة، مثل قصر استنساخ الصوت على الحسابات المدفوعة وتوفير أداة جديدة للكشف عن الذكاء الاصطناعي. لكن مستخدمي 4chan قالوا إنهم سينشئون نسختهم الخاصة من تقنية استنساخ الصوت باستخدام كود مفتوح المصدر ، ونشروا عروض توضيحية تشبه الصوت الذي تنتجه شركة ElevenLabs.
كتب مستخدم مجهول لـ 4chan في منشور حول المشروع: “نريد أن يكون لدينا ذكاء اصطناعي مخصص خاص بنا مع القدرة على الإنشاء”.
في رسالة بريد إلكتروني ، قالت متحدثة باسم ElevenLabs إن الشركة تتطلع إلى التعاون مع مطوري الذكاء الاصطناعي الآخرين لإنشاء نظام اكتشاف عالمي يمكن اعتماده في جميع أنحاء الصناعة.
انتشرت مقاطع الفيديو التي تستخدم الأصوات المستنسخة ، والتي تم إنشاؤها باستخدام أداة ElevenLabs أو تقنية مشابهة ، في الأسابيع الأخيرة. أظهرت إحداها ، التي نشرها إيلون ماسك ، مالك الموقع على تويتر ، محادثة مزيفة مليئة بالألفاظ النابية بين السيد روغان والسيد ماسك وجوردان بيترسون ، وهو ناشط حقوقي كندي. وفي صورة أخرى ، نُشرت على موقع يوتيوب ، ظهر أن روغان أجرى مقابلة مع نسخة مزيفة من رئيس الوزراء الكندي ، جاستن ترودو ، حول فضائحه السياسية.
قال السيد بيترسون في تغريدة عن مقاطع فيديو مزيفة تظهر صوته: “إنتاج مثل هذه المنتجات المقلدة يجب أن يكون جريمة عقوبتها عشر سنوات إلزامية”. “هذه التكنولوجيا خطيرة بشكل يفوق التصور.”
وقالت متحدثة باسم موقع يوتيوب في بيان إن مقطع الفيديو الخاص بالسيد روغان والسيد ترودو لا ينتهك سياسات المنصة لأنه “يوفر سياقًا كافيًا”. (وصفه منشئ المحتوى بأنه “فيديو مزيف”). وقالت الشركة إن سياسات المعلومات المضللة الخاصة بها تحظر المحتوى الذي تم التلاعب به بطريقة مضللة.
اقترح الخبراء الذين يدرسون تقنية التزييف العميق أن الإعلان المزيف الذي يظهر فيه السيد روغان والدكتور هوبرمان قد تم إنشاؤه على الأرجح باستخدام برنامج استنساخ الصوت ، على الرغم من أن الأداة المستخدمة بالضبط لم تكن واضحة. تم تقسيم صوت السيد روغان إلى مقابلة حقيقية مع الدكتور هوبرمان يناقش التستوستيرون.
النتائج ليست مثالية. تم أخذ مقطع السيد روجان من مقابلة غير ذات صلة نشرت في ديسمبر مع فيدور جورست ، لاعب بلياردو محترف. حركات فم السيد روجان غير متطابقة مع الصوت ، ويبدو صوته غير طبيعي في بعض الأحيان. إذا أقنع الفيديو مستخدمي TikTok ، فمن الصعب معرفة ذلك: لقد جذب انتباهًا أكبر بكثير بعد أن تم الإبلاغ عنه بسبب التزييف المثير للإعجاب.
تحظر سياسات TikTok عمليات التزوير الرقمية “التي تضلل المستخدمين من خلال تشويه حقيقة الأحداث وتسبب ضررًا كبيرًا لموضوع الفيديو أو الأشخاص الآخرين أو المجتمع.” تمت إزالة العديد من مقاطع الفيديو بعد أن أبلغتها صحيفة نيويورك تايمز للشركة. قام Twitter أيضًا بإزالة بعض مقاطع الفيديو.
قال متحدث باسم TikTok إن الشركة استخدمت “مزيجًا من التكنولوجيا والاعتدال البشري لاكتشاف وإزالة” مقاطع الفيديو التي تم التلاعب بها ، لكنه رفض الإفصاح عن أساليبها.
لم يستجب السيد روغان والشركة التي ظهرت في الإعلان الوهمي لطلبات التعليق.
حظرت العديد من شركات وسائل التواصل الاجتماعي ، بما في ذلك Meta و Twitch ، التزييف العميق وتلاعبت بمقاطع الفيديو التي تخدع المستخدمين. أجرت Meta ، التي تمتلك Facebook و Instagram ، مسابقة في عام 2021 لتطوير برامج قادرة على تحديد التزييف العميق ، مما أدى إلى أداة واحدة يمكنها اكتشافها بنسبة 83 بالمائة من الوقت.
كان المنظمون الفيدراليون بطيئين في الاستجابة. طلب أحد القوانين الفيدرالية من عام 2019 تقريرًا عن تسليح الأجانب لملفات التزييف العميق ، وطلب من الوكالات الحكومية إخطار الكونجرس إذا استهدفت التزييف العميق الانتخابات في الولايات المتحدة وأنشأ جائزة لتشجيع البحث عن الأدوات التي يمكنها اكتشاف التزييف العميق.
قال رافيت دوتان ، باحث ما بعد الدكتوراه الذي يدير مختبر المسؤولية التعاوني للذكاء الاصطناعي بجامعة بيتسبرغ: “لا يمكننا الانتظار لمدة عامين حتى يتم تمرير القوانين”. بحلول ذلك الوقت ، قد يكون الضرر كبيرًا جدًا. لدينا انتخابات قادمة هنا في الولايات المتحدة ستكون مشكلة “.