ما هي بالضبط المخاطر التي يشكلها الذكاء الاصطناعي؟
في أواخر شهر مارس ، وقع أكثر من 1000 من قادة التكنولوجيا والباحثين وغيرهم من الخبراء العاملين في مجال الذكاء الاصطناعي وحوله رسالة مفتوحة تحذر من أن تقنيات الذكاء الاصطناعي تمثل “مخاطر جسيمة على المجتمع والإنسانية”.
حثت المجموعة ، التي ضمت إيلون ماسك ، الرئيس التنفيذي لشركة Tesla وصاحب Twitter ، مختبرات الذكاء الاصطناعي على وقف تطوير أقوى أنظمتها لمدة ستة أشهر حتى يتمكنوا من فهم المخاطر الكامنة وراء التكنولوجيا بشكل أفضل.
وجاء في الرسالة: “يجب تطوير أنظمة ذكاء اصطناعي قوية فقط بمجرد أن نكون واثقين من أن آثارها ستكون إيجابية وأن مخاطرها يمكن التحكم فيها”.
كانت الرسالة ، التي تضم الآن أكثر من 27000 توقيع ، مقتضبة. كانت لغتها واسعة. ويبدو أن بعض الأسماء وراء الرسالة لها علاقة متضاربة مع منظمة العفو الدولية السيد ماسك ، على سبيل المثال ، يقوم ببناء شركة الذكاء الاصطناعي الخاصة به ، وهو أحد المانحين الأساسيين للمنظمة التي كتبت الرسالة.
لكن الرسالة تمثل قلقًا متزايدًا بين خبراء الذكاء الاصطناعي من أن أحدث الأنظمة ، وعلى الأخص GPT-4 ، التكنولوجيا التي قدمتها شركة OpenAI الناشئة في سان فرانسيسكو ، يمكن أن تسبب ضررًا للمجتمع. كانوا يعتقدون أن الأنظمة المستقبلية ستكون أكثر خطورة.
وصلت بعض المخاطر. لن يفعل الآخرون لأشهر أو سنوات. لا يزال البعض الآخر مجرد افتراضات.
قال يوشوا بنجيو ، الأستاذ والباحث في الذكاء الاصطناعي في جامعة مونتريال: “قدرتنا على فهم الخطأ الذي يمكن أن يحدث في أنظمة الذكاء الاصطناعي القوية ضعيفة للغاية”. “لذلك نحن بحاجة إلى توخي الحذر الشديد.”
لماذا هم قلقون؟
ربما يكون الدكتور بنجيو أهم شخص وقع على الرسالة.
من خلال العمل مع أكاديميين آخرين – جيفري هينتون ، باحث في Google حتى وقت قريب ، و Yann LeCun ، الآن كبير علماء الذكاء الاصطناعي في Meta ، مالك Facebook – أمضى الدكتور بنجيو العقود الأربعة الماضية في تطوير التكنولوجيا التي تقود أنظمة مثل GPT-4 . في عام 2018 ، حصل الباحثون على جائزة تورينج ، التي غالبًا ما يطلق عليها “جائزة نوبل للحوسبة” ، لعملهم على الشبكات العصبية.
الشبكة العصبية هي نظام رياضي يتعلم المهارات من خلال تحليل البيانات. منذ حوالي خمس سنوات ، بدأت شركات مثل Google و Microsoft و OpenAI في بناء شبكات عصبية تعلمت من كميات هائلة من النصوص الرقمية التي تسمى نماذج اللغات الكبيرة أو LLMs.
من خلال تحديد الأنماط في هذا النص ، يتعلم LLM إنشاء نص بمفرده ، بما في ذلك منشورات المدونة والقصائد وبرامج الكمبيوتر. يمكنهم حتى إجراء محادثة.
يمكن أن تساعد هذه التقنية مبرمجي الكمبيوتر والكتاب والعاملين الآخرين في توليد الأفكار والقيام بالأشياء بسرعة أكبر. لكن الدكتور بنجيو وخبراء آخرين حذروا أيضًا من أن LLMs يمكن أن تتعلم السلوكيات غير المرغوب فيها وغير المتوقعة.
يمكن أن تولد هذه الأنظمة معلومات غير صادقة ومتحيزة وغير ذلك من المواد السامة. أنظمة مثل GPT-4 تخطئ في الحقائق وتشكل المعلومات ، وهي ظاهرة تسمى “الهلوسة”.
تعمل الشركات على حل هذه المشاكل. لكن الخبراء مثل الدكتور بنجيو قلقون من أنه بينما يجعل الباحثون هذه الأنظمة أكثر قوة ، فإنها ستدخل مخاطر جديدة.
المخاطر قصيرة المدى: معلومات مضللة
نظرًا لأن هذه الأنظمة تقدم المعلومات بما يبدو أنه ثقة تامة ، فقد يكون من الصعب فصل الحقيقة عن الخيال عند استخدامها. يشعر الخبراء بالقلق من أن الناس سيعتمدون على هذه الأنظمة للحصول على المشورة الطبية والدعم العاطفي والمعلومات الخام التي يستخدمونها لاتخاذ القرارات.
قال Subbarao Kambhampati ، أستاذ علوم الكمبيوتر في جامعة ولاية أريزونا: “ليس هناك ما يضمن أن هذه الأنظمة ستكون صحيحة في أي مهمة تكلفها بها”.
يشعر الخبراء بالقلق أيضًا من أن الناس سوف يسيئون استخدام هذه الأنظمة لنشر معلومات مضللة. لأنهم يستطيعون التحدث بطرق شبيهة بالطرق البشرية ، يمكن أن يكونوا مقنعين بشكل مدهش.
قال الدكتور بينجيو: “لدينا الآن أنظمة يمكنها التفاعل معنا من خلال اللغة الطبيعية ، ولا يمكننا التمييز بين الحقيقي والمزيف”.
المخاطر متوسطة الأجل: فقدان الوظيفة
يشعر الخبراء بالقلق من أن الذكاء الاصطناعي الجديد قد يقتل الوظائف. في الوقت الحالي ، تميل تقنيات مثل GPT-4 إلى استكمال العمال البشريين. لكن أوبن إيه آي تقر بأنها يمكن أن تحل محل بعض العاملين ، بما في ذلك الأشخاص الذين لديهم محتوى إنترنت معتدل.
لا يمكنهم حتى الآن تكرار عمل المحامين أو المحاسبين أو الأطباء. لكن يمكنهم استبدال المساعدين القانونيين والمساعدين الشخصيين والمترجمين.
قدرت ورقة بحثية كتبها باحثو OpenAI أن 80 بالمائة من قوة العمل في الولايات المتحدة يمكن أن تتأثر بنسبة 10 بالمائة على الأقل من مهام عملهم بـ LLM وأن 19 بالمائة من العمال قد يرون أن 50 بالمائة على الأقل من مهامهم قد تأثرت.
قال أورين إيتزيوني ، الرئيس التنفيذي المؤسس لمعهد ألين للذكاء الاصطناعي ، وهو مختبر أبحاث في سياتل: “هناك مؤشر على أن الوظائف عن ظهر قلب ستختفي”.
المخاطر طويلة المدى: فقدان السيطرة
يعتقد بعض الأشخاص الذين وقعوا الرسالة أيضًا أن الذكاء الاصطناعي يمكن أن ينزلق خارج سيطرتنا أو يدمر البشرية. لكن العديد من الخبراء يقولون إن هذا مبالغ فيه للغاية.
كتبت الرسالة من قبل مجموعة من معهد Future of Life ، وهي منظمة مكرسة لاستكشاف المخاطر الوجودية على البشرية. يحذرون من أنه نظرًا لأن أنظمة الذكاء الاصطناعي غالبًا ما تتعلم سلوكًا غير متوقع من الكميات الهائلة من البيانات التي تحللها ، فإنها قد تسبب مشاكل خطيرة وغير متوقعة.
إنهم قلقون من أنه مع قيام الشركات بتوصيل LLM بخدمات الإنترنت الأخرى ، يمكن أن تكتسب هذه الأنظمة قوى غير متوقعة لأنها يمكن أن تكتب كود الكمبيوتر الخاص بها. يقولون إن المطورين سيخلقون مخاطر جديدة إذا سمحوا لأنظمة الذكاء الاصطناعي القوية بتشغيل التعليمات البرمجية الخاصة بهم.
قال أنتوني أغيري ، عالم الكونيات النظري والفيزيائي في جامعة كاليفورنيا ، سانتا كروز وأحد مؤسسي شركة المستقبل معهد الحياة.
قال: “إذا اتخذت سيناريو أقل احتمالية – حيث تنطلق الأشياء حقًا ، حيث لا توجد حوكمة حقيقية ، حيث تصبح هذه الأنظمة أقوى مما كنا نعتقد أنه سيكون – عندها تصبح الأمور مجنونة حقًا”.
قال الدكتور إتزيوني إن الحديث عن المخاطر الوجودية كان افتراضياً. لكنه قال إن المخاطر الأخرى – وأبرزها المعلومات المضللة – لم تعد تكهنات.
قال “الآن لدينا بعض المشاكل الحقيقية”. “إنهم بحسن نية. تتطلب بعض ردود الفعل المسؤولة. قد تتطلب أنظمة وتشريعات “.