Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
أخبار التكنولوجيا

مع ازدهار الذكاء الاصطناعي ، يكافح المشرعون لفهم التكنولوجيا


في الأسابيع الأخيرة ، دق عضوان في الكونجرس ناقوس الخطر بشأن مخاطر الذكاء الاصطناعي.

كتب النائب تيد ليو ، الديموقراطي عن ولاية كاليفورنيا ، في مقال ضيف في صحيفة نيويورك تايمز في يناير أنه “فزع” من قدرة chatbot ChatGPT على محاكاة الكتاب البشريين. ألقى النائب الديمقراطي الآخر ، جيك أوشينكلوس من ماساتشوستس ، خطابًا مدته دقيقة واحدة – كتبه روبوت محادثة – دعا فيه إلى تنظيم الذكاء الاصطناعي

ولكن حتى في الوقت الذي يسلط فيه المشرعون الضوء على التكنولوجيا ، فإن القليل منهم يتخذ إجراءات بشأنها. لم يتم اقتراح أي مشروع قانون لحماية الأفراد أو إحباط تطوير الجوانب الخطرة المحتملة للذكاء الاصطناعي. وتم تقديم تشريعات في السنوات الأخيرة للحد من تطبيقات الذكاء الاصطناعي ، مثل التعرف على الوجه ، في الكونغرس.

قال النائب جاي أوبيرنولت ، وهو جمهوري من كاليفورنيا والعضو الوحيد في الكونجرس الحاصل على درجة الماجستير في الذكاء الاصطناعي ، إن المشكلة هي أن معظم المشرعين لا يعرفون حتى ما هو الذكاء الاصطناعي.

وقال: “قبل التنظيم ، يجب أن يكون هناك اتفاق حول ماهية المخاطر ، وهذا يتطلب فهماً عميقاً لماهية الذكاء الاصطناعي”. “ستندهش من مقدار الوقت الذي أمضيه في الشرح لزملائي أن المخاطر الرئيسية للذكاء الاصطناعي لن تأتي من الروبوتات الشريرة التي يخرج منها الليزر الأحمر من أعينهم.”

التقاعس عن الذكاء الاصطناعي هو جزء من نمط مألوف ، حيث تتفوق التكنولوجيا مرة أخرى على عملية صنع القواعد والتنظيمات الأمريكية. كافح المشرعون لفترة طويلة لفهم الابتكارات الجديدة ، ووصفوا الإنترنت ذات مرة على أنها “سلسلة من الأنابيب”. لفترة طويلة ، عملت الشركات على إبطاء اللوائح ، قائلة إن الصناعة تحتاج إلى عدد قليل من الحواجز حيث تتنافس الولايات المتحدة مع الصين على الريادة في مجال التكنولوجيا.

وهذا يعني أن واشنطن تتخذ موقف عدم التدخل في الوقت الذي استحوذت فيه طفرة الذكاء الاصطناعي على وادي السيليكون ، حيث تتسابق مايكروسوفت وجوجل وأمازون وميتا بعضها البعض لتطوير التكنولوجيا. أثار انتشار الذكاء الاصطناعي ، الذي أنتج روبوتات محادثة يمكنها كتابة الشعر وقيادة السيارات بنفسها ، جدلًا حول حدودها ، حيث خشي البعض من أن التكنولوجيا يمكن أن تحل في النهاية محل البشر في الوظائف أو حتى تصبح واعية.

وقالت كارلي كايند ، مديرة معهد Ada Lovelace ، وهي منظمة في لندن تركز على الاستخدام المسؤول للتكنولوجيا ، إن الافتقار إلى التنظيم شجع الشركات على إعطاء الأولوية للمصالح المالية والتجارية على حساب السلامة.

وقالت: “من خلال الفشل في إنشاء مثل هذه الحواجز ، فإن صانعي السياسات يهيئون الظروف لسباق نحو القاع في الذكاء الاصطناعي غير المسؤول”.

في ظل الفراغ التنظيمي ، اضطلع الاتحاد الأوروبي بدور قيادي. في عام 2021 ، اقترح صناع السياسة في الاتحاد الأوروبي قانونًا يركز على تنظيم تقنيات الذكاء الاصطناعي التي قد تسبب أكبر قدر من الضرر ، مثل التعرف على الوجه والتطبيقات المرتبطة بالبنية التحتية العامة الحيوية مثل إمدادات المياه. سيتطلب الإجراء ، الذي من المتوقع أن يتم إقراره في أقرب وقت هذا العام ، من صانعي الذكاء الاصطناعي إجراء تقييمات للمخاطر حول كيفية تأثير تطبيقاتهم على الصحة والسلامة والحقوق الفردية ، مثل حرية التعبير.

يمكن تغريم الشركات التي تنتهك القانون ما يصل إلى 6 في المائة من إيراداتها العالمية ، والتي قد تصل إلى مليارات الدولارات لأكبر منصات التكنولوجيا في العالم. قال صانعو السياسة في الاتحاد الأوروبي إن القانون ضروري لتعظيم فوائد الذكاء الاصطناعي مع تقليل المخاطر المجتمعية.

قال النائب دونالد س.

وقال السيد باير إن المشرعين الأمريكيين سيدرسون مشروع القانون الأوروبي بحثًا عن أفكار بشأن التنظيم وأضاف: “سيستغرق ذلك وقتًا.”

في الواقع ، شاركت الحكومة الفيدرالية بعمق في الذكاء الاصطناعي لأكثر من ستة عقود. في الستينيات ، بدأت وكالة مشاريع الأبحاث الدفاعية المتقدمة ، المعروفة باسم DARPA ، بتمويل البحث والتطوير في التكنولوجيا. ساعد الدعم في إنشاء تطبيقات عسكرية مثل الطائرات بدون طيار وأدوات الأمن السيبراني.

كانت الانتقادات الموجهة للذكاء الاصطناعي خافتة إلى حد كبير في واشنطن حتى يناير 2015 عندما حذر الفيزيائي ستيفن هوكينج وإيلون ماسك ، الرئيس التنفيذي لشركة Tesla وصاحب Twitter الآن ، من أن الذكاء الاصطناعي أصبح ذكيًا بشكل خطير ويمكن أن يؤدي إلى نهاية الجنس البشري. دعوا إلى اللوائح.

في نوفمبر 2016 ، عقدت اللجنة الفرعية للفضاء والعلوم والقدرة التنافسية في مجلس الشيوخ جلسة الاستماع الأولى في الكونغرس حول الذكاء الاصطناعي ، مع ذكر تحذيرات السيد ماسك مرتين من قبل المشرعين. خلال جلسة الاستماع ، قام الأكاديميون والرئيس التنفيذي لـ OpenAI ، وهو مختبر في سان فرانسيسكو ، بتخفيض توقعات السيد موسك أو قالوا إنهم بعيدون عنهم لسنوات عديدة على الأقل.

شدد بعض المشرعين على أهمية قيادة الأمة في تطوير الذكاء الاصطناعي. قال السناتور تيد كروز ، الجمهوري عن ولاية تكساس ورئيس اللجنة الفرعية ، في ذلك الوقت ، إن الكونجرس يجب أن “يضمن بقاء الولايات المتحدة زعيمة عالمية طوال القرن الحادي والعشرين”.

أعلنت DARPA لاحقًا أنها كانت تخصص 2 مليار دولار لمشاريع أبحاث الذكاء الاصطناعي.

تكثفت التحذيرات بشأن مخاطر الذكاء الاصطناعي في عام 2021 حيث تعهدت الفاتيكان وآي بي إم ومايكروسوفت بتطوير “ذكاء اصطناعي أخلاقي” ، مما يعني أن المنظمات شفافة بشأن كيفية عمل التكنولوجيا ، واحترام الخصوصية وتقليل التحيزات. دعت المجموعة إلى تنظيم برامج التعرف على الوجه ، والتي تستخدم قواعد بيانات كبيرة من الصور لتحديد هوية الأشخاص. في واشنطن ، حاول بعض المشرعين وضع قواعد لتقنية التعرف على الوجه ولتدقيق الشركات لمنع الخوارزميات التمييزية. لم تذهب الفواتير إلى أي مكان.

قال السيد باير ، الذي فشل في الحصول على الدعم الكافي العام الماضي لتمرير مشروع قانون بشأن عمليات تدقيق خوارزميات الذكاء الاصطناعي ، برعاية النائبة إيفيت كلارك ، ديمقراطية نيو يورك.

في الآونة الأخيرة ، حاول بعض المسؤولين الحكوميين سد فجوة المعرفة حول الذكاء الاصطناعي في يناير / كانون الثاني ، حشد حوالي 150 مشرعًا وموظفوهم اجتماعًا ، استضافه تجمع منظمة العفو الدولية النائم عادةً ، والذي ظهر فيه جاك كلارك ، مؤسس شركة الذكاء الاصطناعي Anthropic.

يتم إجراء بعض الإجراءات المتعلقة بالذكاء الاصطناعي في الوكالات الفيدرالية ، التي تطبق القوانين الموجودة بالفعل في الكتب. أصدرت لجنة التجارة الفيدرالية أوامر تنفيذية ضد الشركات التي استخدمت الذكاء الاصطناعي في انتهاك لقواعد حماية المستهلك. كما حذر مكتب حماية المستهلك المالي من أن أنظمة الذكاء الاصطناعي المبهمة التي تستخدمها وكالات الائتمان يمكن أن تعمل بعد قوانين مكافحة التمييز.

اقترحت لجنة التجارة الفيدرالية (FTC) أيضًا لوائح المراقبة التجارية للحد من جمع البيانات المستخدمة في تكنولوجيا الذكاء الاصطناعي ، وأصدرت إدارة الغذاء والدواء قائمة بتقنية الذكاء الاصطناعي في الأجهزة الطبية التي تقع ضمن اختصاصها.

في أكتوبر ، أصدر البيت الأبيض مخططًا لقواعد الذكاء الاصطناعي ، مشددًا على حقوق الأفراد في الخصوصية والأنظمة الآلية الآمنة ، والحماية من التمييز الخوارزمي والبدائل البشرية الهادفة.

لكن أيا من الجهود لم يرق إلى مستوى القوانين.

قال أمبا كاك ، المدير التنفيذي لمعهد AI Now Institute ، وهو مركز أبحاث غير ربحي ، والذي قدم مستشارًا للجنة التجارة الفيدرالية مؤخرًا: “الصورة في الكونجرس قاتمة”. “المخاطر كبيرة لأن هذه الأدوات تُستخدم في مجالات اجتماعية حساسة للغاية مثل التوظيف.” والسكن والائتمان ، وهناك دليل حقيقي على أن أدوات الذكاء الاصطناعي كانت معيبة ومنحازة على مر السنين “.

مارست شركات التكنولوجيا ضغوطًا ضد السياسات التي من شأنها أن تحد من كيفية استخدامهم للذكاء الاصطناعي ودعت إلى وضع لوائح طوعية في الغالب.

في عام 2020 ، زار سوندار بيتشاي ، الرئيس التنفيذي لشركة Alphabet ، الشركة الأم لشركة Google ، بروكسل للدفاع عن “تنظيم معقول” لا يعيق الفوائد المحتملة للتكنولوجيا. في نفس العام ، ضغطت غرفة التجارة الأمريكية وأكثر من 30 شركة ، بما في ذلك Amazon و Meta ، ضد فواتير التعرف على الوجه ، وفقًا لموقع OpenSecrets.org.

قال جوردان كرينشو ، نائب رئيس غرفة التجارة ، “نحن لسنا ضد التنظيم ، لكننا نريد تنظيمًا ذكيًا” ، الذي جادل بأن مشروع قانون الاتحاد الأوروبي واسع للغاية ويمكن أن يعيق التطور التكنولوجي.

في يناير ، قام سام التمان ، الرئيس التنفيذي لشركة OpenAI ، التي أنشأت ChatGPT ، بزيارة العديد من أعضاء الكونجرس لعرض GPT-4 ، وهو نموذج ذكاء اصطناعي جديد يمكنه كتابة المقالات وحل مشكلات الترميز المعقدة وغير ذلك ، وفقًا للسيد باير والسيد. . قال المشرعون إن السيد ألتمان ، الذي قال إنه يدعم التنظيم ، أظهر كيف سيكون لدى GPT-4 ضوابط أمنية أكبر من نماذج الذكاء الاصطناعي السابقة.

قال السيد ليو ، الذي التقى مع السيد ألتمان ، إن الحكومة لا تستطيع الاعتماد على الشركات الفردية لحماية المستخدمين. يخطط لتقديم مشروع قانون هذا العام للجنة لدراسة الذكاء الاصطناعي ولوكالة جديدة لتنظيمه.

“قررت شركة OpenAI وضع ضوابط في تقنيتها ، ولكن ما الذي يضمن أن شركة أخرى ستفعل الشيء نفسه؟” سأل.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى