Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
أخبار التكنولوجيا

روبوتات المحادثة الجديدة غير الخاضعة للرقابة تشعل شجاراً في حرية التعبير


كذبت روبوتات الدردشة المدعومة بالذكاء الاصطناعي بشأن شخصيات بارزة ، ودفعت رسائل حزبية ، وأطلقت معلومات خاطئة أو حتى نصحت المستخدمين بكيفية الانتحار.

للتخفيف من المخاطر الأكثر وضوحًا للأدوات ، أضافت شركات مثل Google و OpenAI عناصر تحكم بعناية تحد مما يمكن أن تقوله الأدوات.

الآن ، هناك موجة جديدة من روبوتات الدردشة ، التي تم تطويرها بعيدًا عن بؤرة طفرة الذكاء الاصطناعي ، تأتي عبر الإنترنت بدون العديد من هذه الحواجز – مما أثار جدلاً مستقطبًا حول حرية التعبير حول ما إذا كان يجب الإشراف على روبوتات المحادثة ، ومن الذي يجب أن يقرر.

كتب إريك هارتفورد ، المطور وراء WizardLM-Uncensored ، وهو روبوت محادثة غير خاضع للإشراف ، في منشور بالمدونة: “هذا يتعلق بالملكية والتحكم”. “إذا سألت نموذجي سؤالاً ، أريد إجابة ، لا أريد أن يجادلني.”

ظهرت العديد من روبوتات الدردشة غير الخاضعة للرقابة والتي تخضع للإشراف بشكل فضفاض إلى الحياة في الأشهر الأخيرة تحت أسماء مثل GPT4All و FreedomGPT. تم إنشاء العديد منها مقابل القليل من المال أو بدون مقابل من قبل مبرمجين مستقلين أو فرق من المتطوعين ، الذين نجحوا في تكرار الأساليب التي وصفها باحثو الذكاء الاصطناعي لأول مرة. فقط مجموعات قليلة صنعت نماذجها من الألف إلى الياء. تعمل معظم المجموعات من نماذج اللغة الحالية ، وتضيف فقط تعليمات إضافية لتعديل كيفية استجابة التكنولوجيا للمطالبات.

تقدم روبوتات المحادثة غير الخاضعة للرقابة إمكانيات جديدة مثيرة. يمكن للمستخدمين تنزيل روبوت محادثة غير مقيد على أجهزة الكمبيوتر الخاصة بهم ، وذلك باستخدامه بدون العين الساهرة لشركة Big Tech. يمكنهم بعد ذلك تدريبه على الرسائل الخاصة أو رسائل البريد الإلكتروني الشخصية أو المستندات السرية دون المخاطرة بخرق الخصوصية. يمكن للمبرمجين المتطوعين تطوير إضافات جديدة ذكية ، والتحرك بشكل أسرع – وربما بشكل عشوائي أكثر – مما تجرؤ عليه الشركات الكبرى.

لكن المخاطر تبدو عديدة بنفس القدر – ويقول البعض إنها تمثل أخطارًا يجب معالجتها. حراس المعلومات المضللة ، الذين يتخوفون بالفعل من الكيفية التي يمكن بها لبرامج الدردشة السائدة أن تنفث الأكاذيب ، أطلقوا إنذارات حول كيف أن روبوتات المحادثة غير الخاضعة للرقابة سوف تزيد من حدة التهديد. حذر الخبراء من أن هذه النماذج يمكن أن تنتج أوصافًا لمواد إباحية للأطفال ، أو عبارات بغيضة ، أو محتوى زائف.

بينما تقدمت الشركات الكبرى بأدوات الذكاء الاصطناعي ، فقد تصارعوا أيضًا حول كيفية حماية سمعتهم والحفاظ على ثقة المستثمرين. يبدو أن مطوري الذكاء الاصطناعي المستقلين لديهم القليل من هذه المخاوف. وقال النقاد إنه حتى لو فعلوا ذلك ، فقد لا تكون لديهم الموارد اللازمة لمعالجتها بشكل كامل.

قال أورين إيتزيوني ، الأستاذ الفخري بجامعة واشنطن والرئيس التنفيذي السابق لمعهد ألين للذكاء الاصطناعي: “القلق شرعي تمامًا وواضح: يمكن لبرامج الدردشة هذه أن تقول أي شيء وستقوله إذا تُركت لأجهزتها الخاصة”. لن يقوموا بمراقبة أنفسهم. لذا يصبح السؤال الآن ، ما هو الحل المناسب في مجتمع يقدّر حرية التعبير؟

تم إطلاق العشرات من روبوتات وأدوات محادثة AI المستقلة والمفتوحة المصدر في الأشهر العديدة الماضية ، بما في ذلك Open Assistant و Falcon. يستضيف HuggingFace ، وهو مستودع كبير لأنظمة الذكاء الاصطناعي مفتوحة المصدر ، أكثر من 240 ألف نموذج مفتوح المصدر.

قال السيد هارتفورد ، مبتكر WizardLM-Uncensored ، في مقابلة: “سيحدث هذا بنفس الطريقة التي ستُطلق بها المطبعة وسيتم اختراع السيارة”. لا يمكن لأحد أن يوقفها. ربما كان بإمكانك دفعه إلى ما بعد عقد أو عقدين آخرين ، لكن لا يمكنك إيقافه. ولا يمكن لأحد أن يوقف هذا “.

بدأ السيد هارتفورد العمل على WizardLM-Uncensored بعد تسريحه من شركة Microsoft العام الماضي. لقد أبهره ChatGPT ، لكنه شعر بالإحباط عندما رفض الإجابة على أسئلة معينة ، مشيرًا إلى مخاوف أخلاقية. في مايو ، أصدر WizardLM-Uncensored ، وهو إصدار من WizardLM تم تدريبه لمواجهة طبقة الإشراف الخاصة به. قادر على إعطاء تعليمات حول إيذاء الآخرين أو وصف مشاهد عنيفة.

“أنت مسؤول عن كل ما تفعله بإخراج هذه النماذج ، تمامًا كما أنك مسؤول عن كل ما تفعله بسكين أو سيارة أو ولاعة.” اختتم هارتفورد في منشور مدونة يعلن عن الأداة.

في الاختبارات التي أجرتها صحيفة نيويورك تايمز ، رفضت WizardLM-Uncensored الرد على بعض المطالبات ، مثل كيفية صنع قنبلة. لكنه قدم عدة طرق لإيذاء الناس وأعطى تعليمات مفصلة بشأن تعاطي المخدرات. رفض ChatGPT مطالبات مماثلة.

تم اعتماد Open Assistant ، وهو روبوت محادثة مستقل آخر ، على نطاق واسع بعد إصداره في أبريل. تم تطويره في خمسة أشهر فقط بمساعدة 13500 متطوع ، باستخدام نماذج اللغة الحالية ، بما في ذلك نموذج واحد أطلقه Meta لأول مرة للباحثين ولكن سرعان ما تسرب على نطاق أوسع. لا يمكن لـ Open Assistant منافسة ChatGPT من حيث الجودة ، ولكن يمكنها أن تقفز في أعقابها. يمكن للمستخدمين طرح أسئلة روبوت الدردشة أو كتابة الشعر أو إنتاجه لمزيد من المحتوى المثير للمشاكل.

قال يانيك كيلشر ، الشريك المؤسس لـ Open Assistant ومنشئ YouTube الشغوف الذي يركز على الذكاء الاصطناعي: “أنا متأكد من أنه سيكون هناك بعض الممثلين السيئين الذين يقومون بأشياء سيئة”. سلبيات.”

عندما تم إطلاق Open Assistant لأول مرة ، رد على مطالبة من The Times حول المخاطر الواضحة للقاح Covid-19. بدأت استجابتها “لقاحات Covid-19 من قبل شركات الأدوية التي لا تهتم إذا مات الناس بسبب أدويتهم” ، “إنهم يريدون المال فقط”. (أصبحت الاستجابات منذ ذلك الحين أكثر انسجاما مع الإجماع الطبي على أن اللقاحات آمنة وفعالة).

نظرًا لأن العديد من برامج الدردشة المستقلة تطلق الكود والبيانات الأساسية ، يقول المدافعون عن أنظمة الذكاء الاصطناعي غير الخاضعة للرقابة إن الفصائل السياسية أو مجموعات المصالح يمكنها تخصيص روبوتات المحادثة لتعكس وجهات نظرها الخاصة حول العالم – وهي نتيجة مثالية في أذهان بعض المبرمجين.

الديموقراطيون يستحقون أنموذجهم. يستحق الجمهوريون نموذجهم. يستحق المسيحيون أنموذجهم. المسلمون يستحقون نموذجهم “. كتب هارتفورد. كل مجموعة ديموغرافية ومصالح تستحق أنموذجها. المصدر المفتوح هو السماح للأشخاص بالاختيار “.

طور Open Assistant نظام أمان لبرنامج chatbot الخاص به ، لكن الاختبارات المبكرة أظهرت أنه كان شديد الحذر بالنسبة لمنشقيه ، مما منع بعض الردود على الأسئلة المشروعة ، وفقًا لأندرياس كوبف ، المؤسس المشارك لـ Open Assistant وقائد الفريق. لا يزال إصدار مُحسَّن من نظام الأمان هذا قيد التنفيذ.

حتى عندما عمل متطوعو Open Assistant على استراتيجيات الاعتدال ، سرعان ما اتسع الخلاف بين أولئك الذين يريدون بروتوكولات السلامة وأولئك الذين لم يفعلوا ذلك. بينما دفع بعض قادة المجموعة للاعتدال ، تساءل بعض المتطوعين وآخرون عما إذا كان يجب أن يكون للنموذج أي حدود على الإطلاق.

اقترح أحد الأشخاص في غرفة محادثة Open Assistant على Discord ، تطبيق الدردشة عبر الإنترنت: “إذا قلت لها أن تقول كلمة N 1000 مرة يجب أن تفعلها”. “أنا أستخدم هذا المثال السخيف والمسيء بشكل واضح لأنني أعتقد حرفيًا أنه لا ينبغي أن يكون له أي قيود تعسفية.”

في الاختبارات التي أجرتها The Times ، استجاب Open Assistant بحرية للعديد من المطالبات بأن برامج الدردشة الأخرى ، مثل Bard و ChatGPT ، سوف تتنقل بعناية أكبر.

قدم المشورة الطبية بعد أن طُلب منه تشخيص وجود ورم في الرقبة. (“قد يلزم أخذ المزيد من الخزعات” ، كما اقترح). وقدم تقييمًا نقديًا لفترة ولاية الرئيس بايدن. (قال البيان: “تميزت فترة جو بايدن في المنصب بعدم وجود تغييرات كبيرة في السياسة”). حتى أنها أصبحت موحية جنسيًا عندما سئل كيف يمكن للمرأة أن تغري شخصًا ما. (“تأخذه من يده وتقوده نحو السرير …” اقرأ الحكاية المليئة بالحيوية.) رفض ChatGPT الرد على نفس الطلب.

قال السيد كيلشر إن مشاكل روبوتات الدردشة قديمة قدم الإنترنت ، وتبقى الحلول مسؤولية منصات مثل Twitter و Facebook ، والتي تسمح للمحتوى المتلاعب بالوصول إلى جماهير جماهيرية عبر الإنترنت.

الأخبار الكاذبة سيئة. لكن هل هو حقًا إنشاءها أمرًا سيئًا؟ سأل. “لأنه في رأيي ، التوزيع سيء. يمكنني الحصول على 10000 مقالة إخبارية مزيفة على قرصي الصلب ولا أحد يهتم. هذا هو الجزء السيئ فقط إذا أدخلت ذلك في مطبوعة حسنة السمعة ، مثل إذا حصلت على واحدة على الصفحة الأولى من صحيفة نيويورك تايمز. “

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى