تدعو Microsoft إلى قواعد الذكاء الاصطناعي لتقليل المخاطر
أقرت Microsoft مجموعة من اللوائح الخاصة بالذكاء الاصطناعي يوم الخميس ، حيث تتعامل الشركة مع مخاوف الحكومات في جميع أنحاء العالم بشأن مخاطر التكنولوجيا سريعة التطور.
اقترحت شركة Microsoft ، التي وعدت بإدخال الذكاء الاصطناعي في العديد من منتجاتها ، لوائح بما في ذلك شرط أن الأنظمة المستخدمة في البنية التحتية الحيوية يمكن إيقافها بالكامل أو إبطائها ، على غرار نظام الكبح في حالات الطوارئ في القطار. كما دعت الشركة إلى وضع قوانين لتوضيح متى تنطبق التزامات قانونية إضافية على نظام الذكاء الاصطناعي وعلى الملصقات التي توضح متى تم إنتاج صورة أو مقطع فيديو بواسطة جهاز كمبيوتر.
قال براد سميث ، رئيس شركة مايكروسوفت ، في مقابلة حول الضغط من أجل اللوائح: “يتعين على الشركات أن تصعد”. “الحكومة بحاجة إلى التحرك بشكل أسرع”.
الدعوة إلى وضع اللوائح تتخلل طفرة في الذكاء الاصطناعي ، مع إطلاق ChatGPT chatbot في نوفمبر / تشرين الثاني ، مما أدى إلى ظهور موجة من الاهتمام. تسابقت الشركات ، بما في ذلك Microsoft و Alphabet ، الشركة الأم لشركة Google ، منذ ذلك الحين لدمج التكنولوجيا في منتجاتها. أثار ذلك مخاوف من تضحية الشركات بالسلامة للوصول إلى الشيء الكبير التالي قبل منافسيها.
أعرب المشرعون علنًا عن مخاوفهم من أن منتجات الذكاء الاصطناعي هذه ، التي يمكن أن تولد نصوصًا وصورًا بمفردها ، ستخلق فيضًا من المعلومات المضللة ، ويستخدمها المجرمون وتؤدي إلى عطل الناس. تعهد المنظمون في واشنطن بتوخي الحذر تجاه المحتالين الذين يستخدمون الذكاء الاصطناعي والحالات التي تديم فيها الأنظمة التمييز أو تتخذ قرارات تنتهك القانون.
ردًا على هذا التدقيق ، دعا مطورو الذكاء الاصطناعي بشكل متزايد إلى تحويل بعض عبء مراقبة التكنولوجيا إلى الحكومة. أخبر سام التمان ، الرئيس التنفيذي لشركة OpenAI ، التي تصنع ChatGPT وتعتبر Microsoft كمستثمر ، أمام لجنة فرعية بمجلس الشيوخ هذا الشهر أن الحكومة يجب أن تنظم التكنولوجيا.
تدعو مناورات الصدى إلى قوانين جديدة للخصوصية أو وسائل التواصل الاجتماعي من قبل شركات الإنترنت مثل Google و Meta ، والدة Facebook. في الولايات المتحدة ، تحرك المشرعون ببطء بعد مثل هذه المكالمات ، مع وجود القليل من القواعد الفيدرالية الجديدة بشأن الخصوصية أو وسائل التواصل الاجتماعي في السنوات الأخيرة.
في المقابلة ، قال السيد سميث إن مايكروسوفت لا تحاول التخلص من المسؤولية عن إدارة التكنولوجيا الجديدة ، لأنها كانت تقدم أفكارًا محددة وتعهد بتنفيذ بعضها بغض النظر عما إذا كانت الحكومة قد اتخذت إجراءً أم لا.
“وقال “ليس هناك ذرة من التنازل عن المسؤولية”.
وأيد الفكرة ، التي أيدها السيد ألتمان خلال شهادته أمام الكونجرس ، بأن وكالة حكومية يجب أن تطلب من الشركات الحصول على تراخيص لنشر نماذج الذكاء الاصطناعي “عالية القدرة”.
قال السيد سميث: “هذا يعني أنك تخطر الحكومة عند بدء الاختبار”. “يجب عليك مشاركة النتائج مع الحكومة. حتى عندما يكون مرخصًا للنشر ، فمن واجبك الاستمرار في مراقبته وإبلاغ الحكومة في حالة ظهور مشكلات غير متوقعة “.
مايكروسوفت ، التي حققت أكثر من 22 مليار دولار من أعمال الحوسبة السحابية في الربع الأول ، قالت أيضًا إنه يجب السماح لهذه الأنظمة عالية المخاطر بالعمل فقط في “مراكز بيانات الذكاء الاصطناعي المرخصة”. أقر السيد سميث بأن الشركة لن تكون “في وضع سيئ” لتقديم مثل هذه الخدمات ، لكنه قال إن العديد من المنافسين الأمريكيين يمكنهم أيضًا توفيرها.
وأضافت مايكروسوفت أنه يتعين على الحكومات تصنيف أنظمة ذكاء اصطناعي معينة مستخدمة في البنية التحتية الحيوية على أنها “عالية الخطورة” وأن تطلب منها “مكابح أمان”. وقارنت هذه الميزة بـ “لقد بنى مهندسو أنظمة الكبح منذ فترة طويلة في تقنيات أخرى مثل المصاعد والحافلات المدرسية والقطارات عالية السرعة.”
قالت Microsoft إنه في بعض الحالات الحساسة ، يتعين على الشركات التي توفر أنظمة الذكاء الاصطناعي معرفة معلومات معينة عن عملائها. قالت الشركة إنه لحماية المستهلكين من الخداع ، يجب أن يُطلب من المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي أن يحمل علامة خاصة.
قال السيد سميث إن الشركات يجب أن تتحمل “المسؤولية” القانونية عن الأضرار المرتبطة بالذكاء الاصطناعي في بعض الحالات ، كما قال ، يمكن أن يكون الطرف المسؤول هو مطور تطبيق مثل محرك بحث Bing من Microsoft الذي يستخدم تقنية الذكاء الاصطناعي الأساسية لشخص آخر. وأضاف أن شركات الحوسبة السحابية قد تكون مسؤولة عن الامتثال للوائح الأمان والقواعد الأخرى.
قال السيد سميث: “ليس لدينا بالضرورة أفضل المعلومات أو أفضل إجابة ، أو قد لا نكون المتحدثين الأكثر مصداقية”. “لكن ، كما تعلم ، في الوقت الحالي ، وخاصة في واشنطن العاصمة ، يبحث الناس عن أفكار.”