Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
أخبار التكنولوجيا

لماذا تخبر روبوتات الدردشة بالذكاء الاصطناعي الأكاذيب وتتصرف بغرابة؟ أنظر في المرآة.


عندما أضافت Microsoft روبوت محادثة إلى محرك بحث Bing الخاص بها هذا الشهر ، لاحظ الناس أنه يقدم جميع أنواع المعلومات الزائفة حول Gap والحياة الليلية المكسيكية والمغنية Billie Eilish.

بعد ذلك ، عندما دخل الصحفيون وغيرهم من المختبرين الأوائل في محادثات مطولة مع روبوت الذكاء الاصطناعي من Microsoft ، انزلق الأمر إلى سلوك فظ ومخيف ومثير للقلق.

في الأيام التي انقضت منذ أن أصبح سلوك روبوت Bing ضجة كبيرة في جميع أنحاء العالم ، كافح الناس لفهم غرابة هذا الإبداع الجديد. في كثير من الأحيان ، قال العلماء إن البشر يستحقون الكثير من اللوم.

ولكن لا يزال هناك القليل من الغموض حول ما يمكن أن يفعله برنامج الدردشة الجديد – ولماذا سيفعله. يجعل تعقيدها من الصعب تشريحها وحتى التنبؤ بها ، والباحثون ينظرون إليها من خلال عدسة فلسفية بالإضافة إلى الشفرة الصلبة لعلوم الكمبيوتر.

مثل أي طالب آخر ، يمكن لنظام الذكاء الاصطناعي تعلم المعلومات السيئة من المصادر السيئة. وهذا السلوك الغريب؟ قال تيري سيجنوفسكي ، عالم الأعصاب وعالم النفس وعالم الكمبيوتر الذي ساعد في وضع الأساس الفكري والتقني للذكاء الاصطناعي الحديث ، إنه قد يكون انعكاسًا مشوهًا لبرنامج الدردشة الآلي لكلمات ونوايا الأشخاص الذين يستخدمونه.

قال الدكتور سيجنوفسكي ، الأستاذ في معهد سالك للدراسات البيولوجية وجامعة كاليفورنيا ، سان دييغو ، الذي نشر ورقة بحثية حول هذه الظاهرة هذا الشهر في المجلة العلمية مجلة الحساب العصبي. “كل ما تبحث عنه – كل ما تريد – سوف يقدمونه.”

عرضت Google أيضًا برنامج دردشة جديد ، Bard ، هذا الشهر ، لكن العلماء والصحفيين سرعان ما أدركوا أنه كان يكتب هراء حول تلسكوب جيمس ويب الفضائي. أطلقت شركة OpenAI ، وهي شركة ناشئة في سان فرانسيسكو ، طفرة chatbot في نوفمبر عندما قدمت ChatGPT ، والتي لا تقول الحقيقة دائمًا.

روبوتات المحادثة الجديدة مدفوعة بتقنية يسميها العلماء نموذج اللغة الكبير ، أو LLM. تتعلم هذه الأنظمة من خلال تحليل كميات هائلة من النصوص الرقمية المستخرجة من الإنترنت ، والتي تتضمن كميات من المواد غير الصحيحة والمتحيزة وغير ذلك من المواد السامة. كما أن النص الذي تتعلم منه برامج الدردشة الآلية قديم بعض الشيء ، لأنهم يجب أن يقضوا شهورًا في تحليله قبل أن يتمكن الجمهور من استخدامه.

بينما يحلل هذا البحر من المعلومات الجيدة والسيئة عبر الإنترنت ، يتعلم LLM القيام بشيء معين: تخمين الكلمة التالية في سلسلة من الكلمات.

إنه يعمل كنسخة عملاقة من تقنية الإكمال التلقائي التي تقترح الكلمة التالية أثناء كتابة رسالة بريد إلكتروني أو رسالة فورية على هاتفك الذكي. بالنظر إلى التسلسل “Tom Cruise هو ____ ،” قد يخمن “ممثل”.

عندما تدردش مع روبوت محادثة ، فإن الروبوت لا يعتمد فقط على كل ما تعلمه من الإنترنت. إنه يعتمد على كل ما قلته له وكل ما قاله. إنها ليست مجرد تخمين الكلمة التالية في جملتها. إنه تخمين الكلمة التالية في الجزء الطويل من النص الذي يتضمن كلاً من كلماتك وكلماتها.

كلما طالت مدة المحادثة ، زاد تأثير المستخدم عن غير قصد على ما يقوله برنامج الدردشة الآلي. إذا كنت تريده أن يغضب ، فإنه يغضب. قال Sejnowski. إذا قمت بإقناعها لتصبح مخيفة ، فإنها تصبح زاحفة.

لقد طغت ردود الفعل المقلقة على السلوك الغريب لروبوت الدردشة الخاص بـ Microsoft على نقطة مهمة: إن chatbot ليس له شخصية. إنها تقدم نتائج فورية من خلال خوارزمية حاسوبية معقدة بشكل لا يصدق.

يبدو أن Microsoft تقوم بتقليص أغرب سلوك عندما وضعت حدًا لأطوال المناقشات مع Bing chatbot. كان ذلك بمثابة التعلم من سائق اختبار السيارة أن السير بسرعة كبيرة لفترة طويلة سيؤدي إلى حرق محركها. يستكشف شريك Microsoft ، OpenAI و Google أيضًا طرقًا للتحكم في سلوك برامج الروبوت الخاصة بهم.

ولكن هناك تحذير من هذا الطمأنينة: نظرًا لأن برامج الدردشة الآلية تتعلم من الكثير من المواد وتجمعها معًا بطريقة معقدة ، فإن الباحثين ليسوا واضحين تمامًا في كيفية إنتاج روبوتات المحادثة لنتائجها النهائية. يراقب الباحثون ما تفعله الروبوتات ويتعلمون وضع قيود على هذا السلوك – غالبًا بعد حدوثه.

قررت Microsoft و OpenAI أن الطريقة الوحيدة التي يمكنهم من خلالها اكتشاف ما ستفعله روبوتات الدردشة في العالم الحقيقي هي عن طريق السماح لهم بالضياع – ولفهم عندما يبتعدون. إنهم يعتقدون أن تجربتهم العامة الكبيرة تستحق المخاطرة.

قارن الدكتور Sejnowski سلوك روبوت الدردشة الخاص بشركة Microsoft بـ Mirror of Erised ، وهي قطعة أثرية غامضة في روايات هاري بوتر لـ JK Rowling والعديد من الأفلام التي تستند إلى عالمها الإبداعي من السحرة الشباب.

“المنشق” هو ​​”الرغبة” تهجى إلى الوراء. عندما يكتشف الناس المرآة ، يبدو أنها توفر الحقيقة والفهم. لكنها لا تفعل ذلك. إنه يظهر الرغبات العميقة الجذور لأي شخص يحدق فيها. ويصاب بعض الناس بالجنون إذا حدقوا لفترة طويلة.

قال الدكتور Sejnowski: “لأن الإنسان و LLM كلاهما يعكسان بعضهما البعض ، بمرور الوقت سوف يميلون نحو حالة مفاهيمية مشتركة”.

وقال إنه لم يكن مفاجئًا أن يبدأ الصحفيون في رؤية سلوك مخيف في روبوت دردشة Bing. إما بوعي أو بغير وعي ، فقد دفعوا النظام في اتجاه غير مريح. نظرًا لأن روبوتات المحادثة تأخذ كلماتنا وتعكسها علينا ، يمكنها تعزيز معتقداتنا وتضخيمها وإقناعنا بتصديق ما يخبروننا به.

كان الدكتور Sejnowski من بين مجموعة صغيرة من الباحثين في أواخر السبعينيات وأوائل الثمانينيات من القرن الماضي الذين بدأوا بجدية في استكشاف نوع من الذكاء الاصطناعي يسمى الشبكة العصبية ، والتي تقود روبوتات المحادثة الحالية.

الشبكة العصبية هي نظام رياضي يتعلم المهارات من خلال تحليل البيانات الرقمية. هذه هي نفس التقنية التي تسمح لـ Siri و Alexa بالتعرف على ما تقوله.

حوالي عام 2018 ، بدأ الباحثون في شركات مثل Google و OpenAI في بناء شبكات عصبية تعلمت من كميات هائلة من النصوص الرقمية ، بما في ذلك الكتب ومقالات ويكيبيديا وسجلات الدردشة وغيرها من الأشياء المنشورة على الإنترنت. من خلال تحديد مليارات الأنماط في كل هذا النص ، تعلمت LLMs إنشاء نص بمفردها ، بما في ذلك التغريدات ومشاركات المدونات والخطب وبرامج الكمبيوتر. يمكنهم حتى إجراء محادثة.

هذه الأنظمة هي انعكاس للإنسانية. يتعلمون مهاراتهم من خلال تحليل النص الذي نشره البشر على الإنترنت.

قالت ميلاني ميتشل ، باحثة الذكاء الاصطناعي في معهد سانتا في ، وهو مختبر مستقل في نيو مكسيكو ، إن هذا ليس السبب الوحيد الذي يجعل روبوتات المحادثة تولد لغة إشكالية.

عند إنشاء نص ، لا تكرر هذه الأنظمة ما هو موجود على الإنترنت كلمة بكلمة. إنهم ينتجون نصًا جديدًا بمفردهم من خلال الجمع بين بلايين الأنماط.

حتى لو قام الباحثون بتدريب هذه الأنظمة فقط على المؤلفات العلمية التي راجعها الأقران ، فقد يستمرون في إنتاج عبارات كانت سخيفة من الناحية العلمية. حتى لو تعلموا فقط من نص صحيح ، فقد يستمرون في إنتاج الأكاذيب. حتى لو تعلموا من نص مفيد فقط ، فقد يظلون قادرين على توليد شيء زاحف.

لا يوجد شيء يمنعهم من القيام بذلك. قال ميتشل. “إنهم يحاولون فقط إنتاج شيء يبدو كلغة بشرية.”

لطالما عرف خبراء الذكاء الاصطناعي أن هذه التكنولوجيا تعرض كل أنواع السلوك غير المتوقع. لكن لا يمكنهم دائمًا الاتفاق على كيفية تفسير هذا السلوك أو مدى سرعة تحسن روبوتات المحادثة.

نظرًا لأن هذه الأنظمة تتعلم من بيانات أكثر بكثير مما يمكن أن نلفه نحن البشر ، لا يستطيع حتى خبراء الذكاء الاصطناعي فهم سبب قيامهم بإنشاء جزء معين من النص في أي لحظة.

قال الدكتور سيجكوفسكي إنه يعتقد أنه على المدى الطويل ، تتمتع برامج الدردشة الجديدة بالقدرة على جعل الأشخاص أكثر كفاءة ومنحهم طرقًا لأداء وظائفهم بشكل أفضل وأسرع. ولكن هذا يأتي مع تحذير لكل من الشركات التي تبني روبوتات المحادثة هذه والأشخاص الذين يستخدمونها: يمكنهم أيضًا أن يقودونا بعيدًا عن الحقيقة إلى بعض الأماكن المظلمة.

قال الدكتور سيجكوفسكي: “هذه أرض مجهولة”. “لم يختبر البشر هذا من قبل.”

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى