Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
أخبار التكنولوجيا

“الأب الروحي للذكاء الاصطناعي” يترك Google ويحذر من الخطر في المستقبل


كان جيفري هينتون رائدًا في مجال الذكاء الاصطناعي. في عام 2012 ، ابتكر الدكتور هينتون واثنان من طلابه الخريجين في جامعة تورنتو تقنية أصبحت الأساس الفكري لأنظمة الذكاء الاصطناعي التي تعتقد أكبر شركات صناعة التكنولوجيا أنها مفتاح لمستقبلهم.

ومع ذلك ، انضم رسميًا يوم الاثنين إلى مجموعة متزايدة من النقاد الذين يقولون إن هذه الشركات تتسابق نحو الخطر بحملتها العدوانية لإنشاء منتجات تعتمد على الذكاء الاصطناعي التوليدي ، وهي التكنولوجيا التي تدعم برامج الدردشة الشهيرة مثل ChatGPT.

قال الدكتور هينتون إنه استقال من وظيفته في Google ، حيث عمل لأكثر من عقد وأصبح أحد أكثر الأصوات احترامًا في هذا المجال ، لذلك يمكنه التحدث بحرية عن مخاطر الذكاء الاصطناعي جزء منه ، قال ، يندم الآن على عمل حياته.

“أنا أعز نفسي بالعذر العادي: إذا لم أفعل ذلك ، لكان شخص آخر يفعل ذلك.” قال هينتون خلال مقابلة مطولة الأسبوع الماضي في غرفة الطعام بمنزله في تورنتو ، على مسافة قصيرة من المكان الذي حقق فيه هو وطلابه تقدمًا كبيرًا.

تمثل رحلة الدكتور هينتون من رائد الذكاء الاصطناعي إلى القاتل لحظة رائعة لصناعة التكنولوجيا في ربما أهم نقطة انعطاف لها منذ عقود. يعتقد قادة الصناعة أن أنظمة الذكاء الاصطناعي الجديدة يمكن أن تكون بنفس أهمية إدخال متصفح الويب في أوائل التسعينيات ويمكن أن تؤدي إلى اختراقات في مجالات تتراوح من أبحاث الأدوية إلى التعليم.

لكن قضم العديد من المطلعين على الصناعة هو خوف من إطلاق شيء خطير في البرية. يمكن أن يكون الذكاء الاصطناعي التوليدي بالفعل أداة للتضليل. قريباً ، يمكن أن يشكل خطرًا على الوظائف. في مكان ما على الخط ، يقول أكبر محاربي التكنولوجيا ، إنه يمكن أن يشكل خطرًا على البشرية.

“من الصعب أن ترى كيف يمكنك منع الجهات الفاعلة السيئة من استخدامها لأشياء سيئة.” قال هينتون.

بعد أن أصدرت شركة OpenAI الناشئة في سان فرانسيسكو إصدارًا جديدًا من ChatGPT في مارس ، وقع أكثر من 1000 من قادة التكنولوجيا والباحثين خطابًا مفتوحًا يدعو إلى تعليق لمدة ستة أشهر على تطوير أنظمة جديدة لأن تقنيات الذكاء الاصطناعي تشكل “مخاطر جسيمة على المجتمع . ” والإنسانية. ”

بعد عدة أيام ، أصدر 19 من القادة الحاليين والسابقين لجمعية النهوض بالذكاء الاصطناعي ، وهي جمعية أكاديمية عمرها 40 عامًا ، خطابًا خاصًا بهم يحذرون فيه من مخاطر الذكاء الاصطناعي ، ومن بينهم إريك هورفيتز ، كبير المسؤولين العلميين في Microsoft ، التي نشرت تقنية OpenAI عبر مجموعة واسعة من المنتجات ، بما في ذلك محرك بحث Bing.

لم يوقع الدكتور هينتون ، الذي يُطلق عليه غالبًا “عراب الذكاء الاصطناعي” ، أيًا من هذه الرسائل وقال إنه لا يريد أن ينتقد علنًا Google أو الشركات الأخرى حتى يترك وظيفته. أخطر الشركة الشهر الماضي بأنه سيستقيل ، ويوم الخميس ، تحدث عبر الهاتف مع Sundar Pichai ، الرئيس التنفيذي لشركة Google الأم ، Alphabet. ورفض أن يناقش علنا ​​تفاصيل محادثته مع السيد بيتشاي.

قال كبير علماء Google ، جيف دين ، في بيان: “نبقى ملتزمين بنهج مسؤول تجاه الذكاء الاصطناعي. نتعلم باستمرار لفهم المخاطر الناشئة بينما نبتكر بجرأة أيضًا.”

الدكتور هينتون ، مغترب بريطاني يبلغ من العمر 75 عامًا ، هو أكاديمي مدى الحياة كانت مسيرته مدفوعة بقناعاته الشخصية حول تطوير واستخدام الذكاء الاصطناعي في عام 1972 ، كطالب دراسات عليا في جامعة إدنبرة ، احتضن الدكتور هينتون فكرة تسمى الشبكة العصبية. الشبكة العصبية هي نظام رياضي يتعلم المهارات من خلال تحليل البيانات. في ذلك الوقت ، آمن بعض الباحثين بالفكرة. لكنه أصبح عمل حياته.

في الثمانينيات ، كان الدكتور هينتون أستاذًا لعلوم الكمبيوتر في جامعة كارنيجي ميلون ، لكنه ترك الجامعة إلى كندا لأنه قال إنه كان مترددًا في الحصول على تمويل من البنتاغون. في ذلك الوقت ، تم تمويل معظم أبحاث الذكاء الاصطناعي في الولايات المتحدة من قبل وزارة الدفاع. يعارض الدكتور هينتون بشدة استخدام الذكاء الاصطناعي في ساحة المعركة – ما يسميه “جنود الروبوت”.

في عام 2012 ، أنشأ الدكتور هينتون واثنان من طلابه في تورنتو ، وهما إيليا سوتسكيفر وأليكس كريشيفسكي ، شبكة عصبية يمكنها تحليل آلاف الصور وتعليم نفسها تحديد الأشياء الشائعة ، مثل الزهور والكلاب والسيارات.

أنفقت Google 44 مليون دولار للحصول على شركة بدأها الدكتور هينتون وطلابه. وأدى نظامهم إلى إنشاء تقنيات قوية بشكل متزايد ، بما في ذلك روبوتات الدردشة الجديدة مثل ChatGPT و Google Bard. ذهب السيد Sutskever ليصبح كبير العلماء في OpenAI. في عام 2018 ، حصل الدكتور هينتون واثنان آخران من المتعاونين القدامى على جائزة تورينج ، التي غالبًا ما يطلق عليها “جائزة نوبل للحوسبة” ، لعملهم على الشبكات العصبية.

في نفس الوقت تقريبًا ، بدأت Google و OpenAI وشركات أخرى في بناء شبكات عصبية تعلمت من كميات هائلة من النصوص الرقمية. اعتقد الدكتور هينتون أنها طريقة قوية للآلات لفهم اللغة وتوليدها ، لكنها كانت أدنى من الطريقة التي يتعامل بها البشر مع اللغة.

ثم ، في العام الماضي ، عندما قامت Google و OpenAI ببناء أنظمة تستخدم كميات أكبر من البيانات ، تغيرت وجهة نظره. كان لا يزال يعتقد أن الأنظمة كانت أدنى من الدماغ البشري من بعض النواحي ، لكنه اعتقد أنها تتفوق على الذكاء البشري في جوانب أخرى. قال: “ربما ما يحدث في هذه الأنظمة هو في الواقع أفضل بكثير مما يحدث في الدماغ.”

يعتقد أنه مع قيام الشركات بتحسين أنظمة الذكاء الاصطناعي الخاصة بها ، فإنها تصبح خطيرة بشكل متزايد. قال عن تكنولوجيا الذكاء الاصطناعي: “انظر كيف كان الأمر قبل خمس سنوات وكيف هو الآن”. خذ الاختلاف وانشره للأمام. هذا مخيف.”

وقال إنه حتى العام الماضي ، كانت Google بمثابة “الوكيل المناسب” للتكنولوجيا ، مع الحرص على عدم إطلاق شيء قد يتسبب في ضرر. ولكن الآن بعد أن عززت Microsoft محرك بحث Bing الخاص بها باستخدام برنامج chatbot – مما يمثل تحديًا لأعمال Google الأساسية – تتسابق Google لنشر نفس النوع من التكنولوجيا. قال الدكتور هينتون إن عمالقة التكنولوجيا يخوضون منافسة قد يكون من المستحيل إيقافها.

قلقه الفوري هو أن الإنترنت سوف يغمره الصور ومقاطع الفيديو والنصوص المزيفة ، ولن يكون الشخص العادي “قادرًا على معرفة ما هو صحيح بعد الآن”.

كما أنه قلق من أن تقنيات الذكاء الاصطناعي ستقلب سوق العمل في الوقت المناسب. اليوم ، تميل روبوتات الدردشة مثل ChatGPT إلى تكملة العاملين من البشر ، لكنها يمكن أن تحل محل المساعدين القانونيين والمساعدين الشخصيين والمترجمين وغيرهم ممن يتعاملون مع المهام الروتينية. قال: “إنها تقضي على العمل الشاق”. “قد يأخذ أكثر من ذلك.”

في المستقبل ، يشعر بالقلق من أن الإصدارات المستقبلية من التكنولوجيا تشكل تهديدًا للبشرية لأنهم غالبًا ما يتعلمون سلوكًا غير متوقع من الكم الهائل من البيانات التي يقومون بتحليلها. قال إن هذه تصبح مشكلة ، لأن الأفراد والشركات يسمحون لأنظمة الذكاء الاصطناعي ليس فقط إنشاء كود الكمبيوتر الخاص بهم ولكن في الواقع تشغيل هذا الرمز بأنفسهم. وهو يخشى يومًا تصبح فيه الأسلحة المستقلة حقًا – تلك الروبوتات القاتلة – حقيقة واقعة.

قال: “فكرة أن هذه الأشياء يمكن أن تصبح في الواقع أكثر ذكاءً من الناس – قلة من الناس صدقوا ذلك”. لكن معظم الناس اعتقدوا أنه بعيد المنال. واعتقدت أنه بعيد المنال. اعتقدت أنها كانت 30 إلى 50 سنة أو حتى أطول. من الواضح ، لم أعد أعتقد ذلك “.

يقول العديد من الخبراء الآخرين ، بما في ذلك العديد من طلابه وزملائه ، إن هذا التهديد افتراضي. لكن الدكتور هينتون يعتقد أن السباق بين جوجل ومايكروسوفت وغيرها سوف يتصاعد إلى سباق عالمي لن يتوقف بدون نوع من التنظيم العالمي.

قال لكن هذا قد يكون مستحيلا. وقال إنه على عكس الأسلحة النووية ، لا توجد طريقة لمعرفة ما إذا كانت الشركات أو الدول تعمل على التكنولوجيا في الخفاء. أفضل أمل هو أن يتعاون كبار العلماء في العالم على طرق التحكم في التكنولوجيا. قال: “لا أعتقد أنه ينبغي عليهم زيادة هذا الأمر حتى يفهموا ما إذا كان بإمكانهم السيطرة عليه”.

قال الدكتور هينتون إنه عندما كان الناس يسألونه كيف يمكنه العمل على التكنولوجيا التي من المحتمل أن تكون خطيرة ، فإنه يعيد صياغة روبرت أوبنهايمر ، الذي قاد جهود الولايات المتحدة لبناء القنبلة الذرية: “عندما ترى شيئًا لطيفًا من الناحية الفنية ، فإنك تفضل.” و افعلها.”

لم يعد يقول ذلك بعد الآن.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى