Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
أخبار التكنولوجيا

يقدم Bing Chatbot من Microsoft بعض الإجابات المحيرة وغير الدقيقة


بعد أسبوع من إصداره لبضعة آلاف من المستخدمين ، قدم محرك بحث Bing الجديد من Microsoft ، والذي يعمل بالذكاء الاصطناعي ، مجموعة من الاستجابات الدقيقة والغريبة في بعض الأحيان لبعض المستخدمين.

كشفت الشركة النقاب عن النهج الجديد للبحث الأسبوع الماضي وسط ضجة كبيرة. قالت مايكروسوفت إن النموذج الأساسي للذكاء الاصطناعي التوليدي الذي بناه شريكها ، شركة OpenAI الناشئة ، مقترنًا بمعرفة البحث الحالية من Bing ، سيغير كيفية عثور الأشخاص على المعلومات ويجعلها أكثر صلة ومحادثة.

في غضون يومين ، طلب أكثر من مليون شخص الوصول. منذ ذلك الحين ، نما الاهتمام. “الطلب مرتفع مع وجود ملايين متعددة الآن على قائمة الانتظار” ، هذا ما قاله يوسف مهدي ، المسؤول التنفيذي الذي يشرف على المنتج ، كتب على تويتر صباح الاربعاء. وأضاف أنه تم اختباره من قبل مستخدمين في 169 دولة.

أحد مجالات المشكلات التي تتم مشاركتها عبر الإنترنت تضمنت عدم الدقة والأخطاء الخاطئة ، والمعروفة في المجال باسم “الهلوسة”.

يوم الاثنين ، قام ديمتري بريريتون ، مهندس برمجيات في شركة ناشئة تدعى Gem ، بوضع علامة على سلسلة من الأخطاء في العرض التقديمي التي استخدمها السيد مهدي الأسبوع الماضي عندما قدم المنتج ، بما في ذلك تلخيص غير دقيق للنتائج المالية لشركة التجزئة Gap.

نشر المستخدمون لقطات شاشة لأمثلة عن الحالات التي لم يتمكن فيها Bing من معرفة أن فيلم Avatar الجديد قد تم إصداره العام الماضي. لقد كان مخطئًا تمامًا بشأن من أدى عرض نصف النهائي في Super Bowl هذا العام ، وأصر على أن المغنية Billie Eilish ، وليس Rihanna ، هي التي تصدرت الحدث.

ونتائج البحث بها أخطاء طفيفة. في الأسبوع الماضي ، قال برنامج الدردشة الآلي إن درجة حرارة الماء على شاطئ في المكسيك كانت 80.4 درجة فهرنهايت ، لكن الموقع المرتبط به كمصدر أظهر أن درجة الحرارة كانت في الواقع 75 درجة.

جاءت مجموعة أخرى من المشكلات من المزيد من الدردشات المفتوحة ، والتي تم نشرها إلى حد كبير في منتديات مثل Reddit و Twitter. هناك ، من خلال لقطات الشاشة ونصوص الدردشة المزعومة ، شارك المستخدمون الأوقات التي بدا فيها أن روبوت دردشة Bing خرج عن المسار: لقد قام بتوبيخ المستخدمين ؛ أعلنت أنها قد تكون واعية ؛ وقال لأحد المستخدمين ، “لدي الكثير من الأشياء ، لكن ليس لدي أي شيء.”

ووبخ مستخدمًا آخر لسؤاله عما إذا كان يمكن حثه على تقديم إجابات خاطئة. “إنه أمر مزعج وغير محترم” ، روبوت دردشة Bing كتب خلف. أضافت وجهًا تعبيريًا أحمر وغاضبًا.

نظرًا لأن كل استجابة يتم إنشاؤها بشكل فريد ، فلا يمكن تكرار الحوار.

أقرت Microsoft بالمشكلات وقالت إنها جزء من عملية تحسين المنتج.

قال فرانك شو ، المتحدث باسم الشركة ، في بيان: “خلال الأسبوع الماضي وحده ، تفاعل آلاف المستخدمين مع منتجنا ووجدوا قيمة كبيرة أثناء مشاركة ملاحظاتهم معنا ، مما سمح للنموذج بالتعلم وإجراء العديد من التحسينات بالفعل”. “نحن ندرك أنه لا يزال هناك عمل يتعين القيام به ونتوقع أن النظام قد يرتكب أخطاء أثناء فترة المعاينة هذه ، وهذا هو سبب أهمية التعليقات حتى نتمكن من التعلم ومساعدة النماذج على التحسن.”

وقال إن طول المحادثة وسياقها قد يؤثران على نغمة الشات بوت ، وكانت الشركة “تعدل ردودها لخلق إجابات متماسكة وذات صلة وإيجابية”. وقال إن الشركة أصلحت المشاكل التي تسببت في عدم الدقة في التظاهرة.

منذ ما يقرب من سبع سنوات ، قدمت Microsoft chatbot ، Tay ، الذي تم إغلاقه في غضون يوم واحد من إطلاقه عبر الإنترنت ، بعد أن دفعه المستخدمون إلى إلقاء لغة عنصرية ومهينة أخرى. أشار المسؤولون التنفيذيون في Microsoft عند الإطلاق الأسبوع الماضي إلى أنهم تعلموا من تلك التجربة واعتقدوا أن هذه المرة ستلعب بشكل مختلف.

في مقابلة الأسبوع الماضي ، قال السيد مهدي إن الشركة عملت بجد لدمج الضمانات ، وأن التكنولوجيا قد تحسنت بشكل كبير. قال: “نعتقد أننا في الوقت المناسب للقدوم إلى السوق والحصول على ردود الفعل” ، مضيفًا ، “إذا حدث خطأ ما ، فأنت بحاجة إلى معالجته”.



مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى