أخبار التكنولوجيا

تكشف Meta عن ذكاء اصطناعي أكثر قوة ولا يقلق من يستخدمه


أمضت أكبر الشركات في صناعة التكنولوجيا هذا العام وهي تحذر من أن تطوير تكنولوجيا الذكاء الاصطناعي يفوق توقعاتها الأكثر جموحًا وأنهم بحاجة إلى الحد من من يمكنه الوصول إليها.

مارك زوكربيرج يضاعف من موقفه في مسار مختلف: إنه يتنازل عنها.

قال السيد زوكربيرج ، الرئيس التنفيذي لشركة Meta ، يوم الثلاثاء إنه يعتزم تقديم الكود وراء أحدث تقنيات الذكاء الاصطناعي وأكثرها تقدمًا للمطورين وعشاق البرمجيات في جميع أنحاء العالم مجانًا.

القرار ، على غرار القرار الذي اتخذته شركة Meta في فبراير ، يمكن أن يساعد الشركة على التنافس مع المنافسين مثل Google و Microsoft. لقد تحركت هذه الشركات بسرعة أكبر لدمج الذكاء الاصطناعي التوليدي – التكنولوجيا الكامنة وراء روبوت الدردشة ChatGPT الشهير من OpenAI – في منتجاتها.

قال زوكربيرج في منشور على صفحته الشخصية على Facebook: “عندما يكون البرنامج مفتوحًا ، يمكن لعدد أكبر من الأشخاص فحصه لتحديد المشكلات المحتملة وإصلاحها”.

تم إنشاء أحدث إصدار من Meta AI ببيانات تزيد بنسبة 40 في المائة عما أصدرته الشركة قبل بضعة أشهر فقط ، ويُعتقد أنه أقوى بكثير. وتوفر Meta خريطة طريق مفصلة توضح كيف يمكن للمطورين العمل مع الكم الهائل من البيانات التي جمعوها.

يشعر الباحثون بالقلق من أن الذكاء الاصطناعي التوليدي يمكنه زيادة حجم المعلومات المضللة والبريد العشوائي على الإنترنت ، ويطرح أخطارًا لا يفهمها حتى بعض منشئيها تمامًا.

تلتزم Meta باعتقاد راسخ بأن السماح لجميع أنواع المبرمجين بالتلاعب بالتكنولوجيا هو أفضل طريقة لتحسينها. حتى وقت قريب ، وافق معظم باحثي الذكاء الاصطناعي على ذلك. لكن في العام الماضي ، وضعت شركات مثل Google و Microsoft و OpenAI ، وهي شركة ناشئة في سان فرانسيسكو ، قيودًا على من يمكنه الوصول إلى أحدث تقنياتها ووضعت ضوابط حول ما يمكن فعله بها.

تقول الشركات إنها تحد من الوصول بسبب مخاوف تتعلق بالسلامة ، لكن المنتقدين يقولون إنهم يحاولون أيضًا خنق المنافسة. يجادل ميتا بأنه من مصلحة الجميع مشاركة ما يعمل عليه.

قال أحمد الدحل ، نائب رئيس الذكاء الاصطناعي التوليدي في Meta ، في مقابلة: “لقد كانت Meta تاريخيًا مؤيدًا كبيرًا للمنصات المفتوحة ، وقد نجحت حقًا بالنسبة لنا كشركة”.

ستجعل هذه الخطوة البرنامج “مفتوح المصدر” ، وهو رمز كمبيوتر يمكن نسخه وتعديله وإعادة استخدامه بحرية. توفر التقنية ، المسماة LLaMA 2 ، كل ما يحتاجه أي شخص لبناء روبوتات محادثة عبر الإنترنت مثل ChatGPT. سيتم إصدار LLaMA 2 بموجب ترخيص تجاري ، مما يعني أنه يمكن للمطورين بناء أعمالهم الخاصة باستخدام الذكاء الاصطناعي الأساسي لشركة Meta لتشغيلها – كل ذلك مجانًا.

من خلال المصادر المفتوحة لـ LLaMA 2 ، يمكن لـ Meta الاستفادة من التحسينات التي أدخلها المبرمجون من خارج الشركة بينما – يأمل التنفيذيون في Meta – تحفيز تجارب الذكاء الاصطناعي.

نهج Meta مفتوح المصدر ليس جديدًا. غالبًا ما تكون الشركات مفتوحة المصدر لتقنيات في محاولة للحاق بالمنافسين. قبل خمسة عشر عامًا ، افتتحت Google مصدرًا مفتوحًا لنظام تشغيل Android للأجهزة المحمولة للتنافس بشكل أفضل مع iPhone من Apple. في حين أن iPhone كان له الريادة المبكرة ، أصبح Android في النهاية هو البرنامج المهيمن المستخدم في الهواتف الذكية.

لكن الباحثين يجادلون بأن شخصًا ما يمكن أن ينشر Meta AI بدون الضمانات التي يستخدمها عمالقة التكنولوجيا مثل Google و Microsoft لقمع المحتوى السام. يمكن استخدام النماذج مفتوحة المصدر التي تم إنشاؤها حديثًا ، على سبيل المثال ، لإغراق الإنترنت بمزيد من البريد العشوائي والاحتيال المالي والمعلومات المضللة.

LLaMA 2 ، اختصار لـ Large Language Model Meta AI ، هو ما يسميه العلماء نموذج اللغة الكبير ، أو LLM Chatbots مثل ChatGPT و Google Bard مبنية بنماذج لغات كبيرة.

النماذج هي أنظمة تتعلم المهارات من خلال تحليل كميات هائلة من النصوص الرقمية ، بما في ذلك مقالات وكتب ويكيبيديا ومحادثات المنتديات عبر الإنترنت وسجلات الدردشة. من خلال تحديد الأنماط في النص ، تتعلم هذه الأنظمة إنشاء نص خاص بها ، بما في ذلك أوراق الفصل الدراسي والشعر ورمز الكمبيوتر. يمكنهم حتى إجراء محادثة.

يجادل التنفيذيون في شركة Meta بأن استراتيجيتهم ليست محفوفة بالمخاطر كما يعتقد الكثيرون. يقولون إن بإمكان الأشخاص بالفعل إنتاج كميات كبيرة من المعلومات المضللة وخطاب الكراهية دون استخدام الذكاء الاصطناعي ، وأن هذه المواد السامة يمكن تقييدها بشدة من خلال شبكات Meta الاجتماعية مثل Facebook. وهم يؤكدون أن إطلاق التكنولوجيا يمكن أن يعزز في النهاية قدرة Meta والشركات الأخرى على مقاومة إساءة استخدام البرنامج.

قال السيد الدحل إن شركة Meta قامت باختبار إضافي لـ “Red Team” لـ LLaMA 2 قبل إطلاقه. هذا مصطلح لاختبار البرمجيات لإساءة الاستخدام المحتملة واكتشاف طرق للحماية من مثل هذه الإساءات. ستصدر الشركة أيضًا دليل الاستخدام المسؤول الذي يحتوي على أفضل الممارسات والإرشادات للمطورين الذين يرغبون في إنشاء برامج باستخدام الكود.

لكن هذه الاختبارات والإرشادات تنطبق على نموذج واحد فقط من النماذج التي تطلقها Meta ، والتي سيتم تدريبها وصقلها بطريقة تحتوي على حواجز حماية وتمنع إساءة الاستخدام. سيتمكن المطورون أيضًا من استخدام الكود لإنشاء روبوتات محادثة وبرامج بدون حواجز حماية ، وهي خطوة يراها المشككون على أنها مخاطرة.

في فبراير ، أصدرت Meta النسخة الأولى من LLaMA للأكاديميين والباحثين الحكوميين وغيرهم. كما سمحت الشركة للأكاديميين بتنزيل LLaMA بعد أن تم تدريبهم على كميات هائلة من النصوص الرقمية. يطلق العلماء على هذه العملية اسم “تحرير الأوزان”.

لقد كانت خطوة ملحوظة لأن تحليل كل تلك البيانات الرقمية يتطلب حوسبة ضخمة وموارد مالية. باستخدام الأوزان ، يمكن لأي شخص إنشاء روبوت محادثة بسعر أرخص بكثير وبسهولة من الصفر.

يعتقد الكثير في صناعة التكنولوجيا أن Meta تشكل سابقة خطيرة ، وبعد أن شاركت Meta تقنية الذكاء الاصطناعي الخاصة بها مع مجموعة صغيرة من الأكاديميين في فبراير ، قام أحد الباحثين بتسريب التكنولوجيا إلى الإنترنت العام.

في مقال رأي نُشر مؤخرًا في صحيفة فاينانشيال تايمز ، جادل نيك كليج ، رئيس ميتا للسياسة العامة العالمية ، بأنه “ليس من المستدام إبقاء التكنولوجيا التأسيسية في أيدي عدد قليل من الشركات الكبيرة” ، وأن الشركات التي أصدرت المصدر المفتوح تاريخيًا تم تقديم البرامج بشكل استراتيجي أيضًا.

“أنا أتطلع إلى رؤية ما تبنيه جميعًا!” قال السيد زوكربيرج في منصبه.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى