Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
أخبار التكنولوجيا

الخوف التالي على الذكاء الاصطناعي: الروبوتات القاتلة في هوليوود تصبح أدوات الجيش


واشنطن – عندما أعلن الرئيس بايدن في أكتوبر / تشرين الأول قيوداً صارمة على بيع رقائق الكمبيوتر الأكثر تقدماً إلى الصين ، باعها جزئياً كوسيلة لإعطاء الصناعة الأمريكية فرصة لاستعادة قدرتها التنافسية.

لكن في البنتاغون ومجلس الأمن القومي ، كان هناك أجندة ثانية: الحد من التسلح. تقول النظرية إنه إذا لم يتمكن الجيش الصيني من الحصول على الرقائق ، فقد يؤدي ذلك إلى إبطاء جهوده لتطوير أسلحة مدفوعة بالذكاء الاصطناعي. من شأن ذلك أن يمنح البيت الأبيض والعالم وقتًا لاكتشاف بعض القواعد الخاصة باستخدام الذكاء الاصطناعي في كل شيء بدءًا من أجهزة الاستشعار والصواريخ والأسلحة الإلكترونية ، وفي النهاية للحماية من بعض الكوابيس التي تستحضرها هوليوود – الروبوتات القاتلة المستقلة وأجهزة الكمبيوتر التي تقضي على المبدعين من البشر.

الآن ، جعل ضباب الخوف الذي يحيط ببرنامج الدردشة ChatGPT الشهير وبرامج الذكاء الاصطناعي الأخرى تقييد الرقائق في بكين يبدو وكأنه مجرد حل مؤقت. عندما غادر السيد بايدن اجتماعًا في البيت الأبيض يوم الخميس للمديرين التنفيذيين في مجال التكنولوجيا الذين يكافحون من أجل الحد من مخاطر التكنولوجيا ، كان تعليقه الأول “ما تفعله ينطوي على إمكانات هائلة وخطر هائل”.

يقول مساعدوه في مجال الأمن القومي إن ذلك كان انعكاسًا للإيجازات السرية الأخيرة حول إمكانات التكنولوجيا الجديدة في قلب الحرب والصراع السيبراني – وفي الحالة القصوى – اتخاذ القرار بشأن استخدام الأسلحة النووية.

ولكن حتى بينما كان السيد بايدن يقاضي تحذيره ، قال مسؤولو البنتاغون ، الذين تحدثوا في منتديات التكنولوجيا ، إنهم يعتقدون أن فكرة التوقف لمدة ستة أشهر في تطوير الأجيال القادمة من ChatGPT والبرامج المماثلة كانت فكرة سيئة: لقد فاز الصينيون لن ننتظر ولا الروس كذلك.

قال كبير مسؤولي المعلومات في البنتاغون ، جون شيرمان ، يوم الأربعاء: “إذا توقفنا ، فاحزر من الذي لن يتوقف: أعداء محتملون في الخارج”. “علينا الاستمرار في التحرك”.

وأكد بيانه الصريح التوتر الذي يشعر به مجتمع الدفاع اليوم. لا أحد يعرف حقًا قدرة هذه التقنيات الجديدة عندما يتعلق الأمر بتطوير الأسلحة والسيطرة عليها ، وليس لديهم أي فكرة عن نوع نظام تحديد الأسلحة ، إن وجد ، الذي قد ينجح.

النذير غامض ، لكنه مقلق للغاية. هل يمكن لـ ChatGPT تمكين الجهات الفاعلة السيئة الذين لم يكن لديهم في السابق وصول سهل إلى التكنولوجيا المدمرة؟ هل يمكن أن تسرع المواجهة بين القوى العظمى ، مما يترك القليل من الوقت للدبلوماسية والتفاوض؟

قال إريك شميدت ، رئيس Google السابق الذي شغل منصب الرئيس الافتتاحي لمجلس ابتكار الدفاع من 2016 إلى 2020: “الصناعة ليست غبية هنا ، وأنت ترى بالفعل جهودًا للتنظيم الذاتي”.

قال السيد شميدت ، الذي كتب مع وزير الخارجية السابق هنري كيسنجر ، سلسلة من المحادثات: “هناك سلسلة من المحادثات غير الرسمية التي تجري الآن في الصناعة – وكلها غير رسمية – حول الشكل الذي ستبدو عليه قواعد سلامة الذكاء الاصطناعي”. من المقالات والكتب حول إمكانات الذكاء الاصطناعي لقلب الجغرافيا السياسية.

الجهود الأولية لوضع حواجز الحماية في النظام واضحة لأي شخص اختبر التكرارات الأولية لـ ChatGPT. لن تجيب الروبوتات على أسئلة حول كيفية إيذاء شخص ما بمشروب من المخدرات ، على سبيل المثال ، أو كيفية تفجير سد أو تعطيل أجهزة الطرد المركزي النووية ، وجميع العمليات التي شاركت فيها الولايات المتحدة والدول الأخرى دون الاستفادة من أدوات الذكاء الاصطناعي .

لكن هذه القوائم السوداء من الإجراءات لن تؤدي إلا إلى إبطاء إساءة استخدام هذه الأنظمة ؛ قلة يعتقدون أنهم يستطيعون إيقاف هذه الجهود تمامًا. هناك دائمًا اختراق للالتفاف حول حدود الأمان ، حيث يمكن لأي شخص حاول إيقاف تشغيل أصوات التنبيه العاجلة على نظام التحذير الخاص بحزام الأمان في السيارة الاختبار.

على الرغم من أن البرنامج الجديد قد أشاع هذه القضية ، إلا أنه ليس بجديد على البنتاغون. نُشرت القواعد الأولى لتطوير الأسلحة المستقلة قبل عقد من الزمن. تم إنشاء مركز الذكاء الاصطناعي المشترك التابع للبنتاغون قبل خمس سنوات لاستكشاف استخدام الذكاء الاصطناعي في القتال.

بعض الأسلحة تعمل بالفعل على الطيار الآلي. لطالما كانت صواريخ باتريوت ، التي تسقط الصواريخ أو الطائرات التي تدخل مجالًا جويًا محميًا ، تتمتع بوضع “تلقائي”. تمكنهم من إطلاق النار دون تدخل بشري عندما تطغى على الأهداف الواردة أسرع مما يمكن أن يتفاعل الإنسان. لكن من المفترض أن يشرف عليها بشر يمكنهم إجهاض الهجمات إذا لزم الأمر.

تم اغتيال محسن فخري زاده ، أكبر عالم نووي إيراني ، من قبل الموساد الإسرائيلي باستخدام مدفع رشاش مستقل ، مثبت في شاحنة صغيرة ، بمساعدة الذكاء الاصطناعي – على الرغم من أنه يبدو أن هناك درجة عالية من التحكم عن بعد. قالت روسيا مؤخرًا إنها بدأت في تصنيع طوربيد نووي بوسيدون تحت البحر – لكنها لم تنشره بعد. إذا كان يرقى إلى مستوى الضجيج الروسي ، فسيكون قادرًا على السفر عبر المحيط بشكل مستقل ، والتهرب من الدفاعات الصاروخية الحالية ، لإيصال سلاح نووي بعد أيام من إطلاقه.

حتى الآن لا توجد معاهدات أو اتفاقيات دولية تتعامل مع مثل هذه الأسلحة المستقلة. في عصر يتم فيه التخلي عن اتفاقيات الحد من الأسلحة بشكل أسرع مما يتم التفاوض عليها ، هناك احتمال ضئيل لمثل هذا الاتفاق. لكن نوع التحديات التي تثيرها ChatGPT وأمثالها مختلفة ، وفي بعض النواحي أكثر تعقيدًا.

في الجيش ، يمكن للأنظمة المزودة بالذكاء الاصطناعي تسريع وتيرة القرارات في ساحة المعركة إلى درجة أنها تخلق مخاطر جديدة تمامًا من الضربات العرضية ، أو القرارات المتخذة بشأن التنبيهات المضللة أو الكاذبة عن عمد للهجمات القادمة.

قال السيد شميت: “تتمثل المشكلة الأساسية للذكاء الاصطناعي في الجيش والأمن القومي في كيفية الدفاع ضد الهجمات التي تكون أسرع من صنع القرار البشري”. وأعتقد أن هذه المشكلة لم يتم حلها. بعبارة أخرى ، يأتي الصاروخ بسرعة كبيرة بحيث يجب أن يكون هناك رد تلقائي. ماذا يحدث إذا كانت إشارة خاطئة؟

كانت الحرب الباردة مليئة بقصص التحذيرات الكاذبة – مرة واحدة لأن شريط التدريب ، الذي كان من المفترض استخدامه لممارسة الاستجابة النووية ، تم وضعه بطريقة ما في النظام الخطأ وأطلق تحذيرًا من هجوم سوفييتي قادم. (أدى الحكم الجيد إلى تنحي الجميع.) أشار بول شار ، من مركز الأمن الأمريكي الجديد ، في كتابه الصادر عام 2018 بعنوان “جيش لا شيء” إلى أنه كان هناك “على الأقل 13 حادثًا نوويًا وشيكًا للاستخدام من عام 1962 إلى عام 2002” ، “يضفي مصداقية على الرأي القائل بأن الحوادث الوشيكة هي ظروف طبيعية ، وإن كانت مرعبة ، للأسلحة النووية”.

لهذا السبب ، عندما كانت التوترات بين القوى العظمى أقل بكثير مما هي عليه اليوم ، حاولت سلسلة من الرؤساء التفاوض للحصول على مزيد من الوقت في عملية صنع القرار النووي من جميع الأطراف ، حتى لا يندفع أحد إلى الصراع. لكن الذكاء الاصطناعي التوليدي يهدد بدفع البلدان في الاتجاه الآخر ، نحو اتخاذ قرارات أسرع.

النبأ السار هو أنه من المرجح أن تكون القوى الكبرى حذرة – لأنها تعرف كيف سيكون رد فعل الخصم. لكن حتى الآن لا توجد قواعد متفق عليها.

كتبت آنيا مانويل ، المسؤولة السابقة في وزارة الخارجية والمسؤولة الآن في المجموعة الاستشارية رايس ، هادلي ، جيتس ومانويل ، مؤخرًا أنه حتى لو لم تكن الصين وروسيا مستعدين لمحادثات الحد من التسلح حول الذكاء الاصطناعي ، فإن الاجتماعات حول هذا الموضوع ستؤدي إلى مناقشات. لما يُنظر إليه على أنه استخدامات للذكاء الاصطناعي “تتجاوز حدود الشحوب”.

بالطبع ، حتى البنتاغون سيقلق بشأن الموافقة على العديد من القيود.

قال داني هيليس ، عالم الكمبيوتر الشهير الذي كان رائدًا في أجهزة الكمبيوتر الموازية التي استخدمت في الذكاء الاصطناعي: “لقد ناضلت بشدة للحصول على سياسة مفادها أنه إذا كان لديك عناصر مستقلة من الأسلحة ، فأنت بحاجة إلى طريقة لإيقاف تشغيلها”. قال السيد هيليس ، الذي خدم أيضًا في مجلس الابتكار الدفاعي ، إن الرد جاء من مسؤولي البنتاغون الذين قالوا “إذا تمكنا من إيقافهم ، يمكن للعدو إيقافهم أيضًا”.

لذلك قد تأتي المخاطر الأكبر من الجهات الفاعلة الفردية أو الإرهابيين أو مجموعات برامج الفدية أو الدول الأصغر ذات المهارات الإلكترونية المتقدمة – مثل كوريا الشمالية – التي تتعلم كيفية استنساخ نسخة أصغر وأقل تقييدًا من ChatGPT. وقد يجدون أن برنامج الذكاء الاصطناعي التوليدي مثالي لتسريع الهجمات الإلكترونية واستهداف المعلومات المضللة.

قال توم بيرت ، الذي يقود عمليات الثقة والأمان في Microsoft ، التي تسرع استخدام التكنولوجيا الجديدة لتجديد محركات البحث الخاصة بها ، في منتدى أخير في جامعة جورج واشنطن ، إنه يعتقد أن أنظمة الذكاء الاصطناعي ستساعد المدافعين على اكتشاف السلوك الشاذ أسرع مما هم عليه. من شأنه أن يساعد المهاجمين. يختلف خبراء آخرون. لكنه قال إنه يخشى أن يؤدي ذلك إلى “زيادة” انتشار المعلومات المضللة المستهدفة.

كل هذا ينذر بعهد جديد كامل من الحد من التسلح.

يقول بعض الخبراء أنه نظرًا لأنه سيكون من المستحيل إيقاف انتشار ChatGPT والبرامج المماثلة ، فإن أفضل أمل هو الحد من الرقائق المتخصصة وقوة الحوسبة الأخرى اللازمة لتطوير التكنولوجيا. ستكون هذه بلا شك واحدة من العديد من الصيغ المختلفة للحد من الأسلحة التي طرحت في السنوات القليلة المقبلة ، في وقت تبدو فيه القوى النووية الكبرى ، على الأقل ، غير مهتمة بالتفاوض على الأسلحة القديمة ، ناهيك عن الأسلحة الجديدة.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى