أخبار التكنولوجيا

مدينة نيويورك تتحرك لتنظيم كيفية استخدام الذكاء الاصطناعي في التوظيف


ينهي المشرعون الأوروبيون العمل على قانون الذكاء الاصطناعي. لدى إدارة بايدن والقادة في الكونجرس خططهم لكبح الذكاء الاصطناعي. أوصى سام ألتمان ، الرئيس التنفيذي لشركة OpenAI ، الشركة المصنعة للذكاء الاصطناعي ChatGPT ، بإنشاء وكالة فيدرالية تتمتع بسلطة إشراف وترخيص في شهادة مجلس الشيوخ الأسبوع الماضي. وطرح الموضوع في قمة مجموعة السبع في اليابان.

وسط الخطط والتعهدات الشاملة ، برزت مدينة نيويورك كرائدة متواضعة في تنظيم الذكاء الاصطناعي.

أصدرت حكومة المدينة قانونًا في عام 2021 واعتمدت قواعد محددة الشهر الماضي لتطبيق واحد عالي المخاطر للتكنولوجيا: قرارات التوظيف والترقية. يبدأ التنفيذ في يوليو.

يتطلب قانون المدينة من الشركات التي تستخدم برامج الذكاء الاصطناعي في التوظيف إخطار المرشحين باستخدام نظام آلي. كما يتطلب من الشركات وجود مدققين مستقلين يقومون بفحص التكنولوجيا سنويًا بحثًا عن التحيز. يمكن للمرشحين أن يطلبوا ويتم إخبارهم بالبيانات التي يتم جمعها وتحليلها. سيتم تغريم الشركات بسبب الانتهاكات.

يمثل النهج المركّز لمدينة نيويورك جبهة مهمة في تنظيم الذكاء الاصطناعي. في مرحلة ما ، يجب ترجمة مبادئ الخط العريض التي وضعتها الحكومات والمنظمات الدولية ، كما يقول الخبراء ، إلى تفاصيل وتعريفات. من يتأثر بالتكنولوجيا؟ ما هي الفوائد والمضار؟ من يستطيع التدخل وكيف؟

قالت جوليا ستويانوفيتش ، الأستاذة المشاركة في جامعة نيويورك ومديرة مركز الذكاء الاصطناعي المسؤول بها: “بدون حالة استخدام ملموسة ، لن تكون في وضع يسمح لك بالإجابة على هذه الأسئلة”.

لكن حتى قبل أن يدخل قانون مدينة نيويورك حيز التنفيذ ، كان عامل جذب للنقد. يقول المدافعون عن المصلحة العامة إن الأمر لا يفي بالغرض ، بينما تقول مجموعات الأعمال إنه غير عملي.

تشير الشكاوى الواردة من كلا المعسكرين إلى التحدي المتمثل في تنظيم الذكاء الاصطناعي ، الذي يتقدم بوتيرة سريعة مع عواقب غير معروفة ، مما يثير الحماس والقلق.

التنازلات غير المستقرة أمر لا مفر منه.

تشعر السيدة ستويانوفيتش بالقلق لأن قانون المدينة به ثغرات قد تضعفه. قالت: “لكن هذا أفضل بكثير من عدم وجود قانون”. وحتى تحاول التنظيم ، لن تتعلم كيف.

ينطبق القانون على الشركات التي لديها عمال في مدينة نيويورك ، لكن خبراء العمل يتوقعون أن يؤثر على الممارسات على المستوى الوطني. تعمل أربع ولايات على الأقل – كاليفورنيا ونيوجيرسي ونيويورك وفيرمونت – ومقاطعة كولومبيا أيضًا على قوانين لتنظيم الذكاء الاصطناعي في التوظيف. وقد سنت إلينوي وماريلاند قوانين تحد من استخدام تقنيات معينة للذكاء الاصطناعي ، غالبًا لمراقبة مكان العمل وفحص المرشحين للوظائف.

ظهر قانون مدينة نيويورك من صدام بين وجهات النظر المتضاربة بشدة. أقره مجلس المدينة خلال الأيام الأخيرة لإدارة العمدة بيل دي بلاسيو. جولات من الجلسات والتعليقات العامة ، أكثر من 100000 كلمة ، جاءت في وقت لاحق – تحت إشراف دائرة حماية المستهلك والعمال بالمدينة ، وكالة وضع القواعد.

ويقول بعض النقاد إن النتيجة مفرطة في التعاطف مع المصالح التجارية.

قالت ألكسندرا جيفنز ، رئيسة مركز الديمقراطية والتكنولوجيا ، وهي منظمة للسياسات والحقوق المدنية: “ما كان يمكن أن يكون قانونًا تاريخيًا تم تخفيفه لفقد فعاليته”.

وقالت إن ذلك لأن القانون يعرّف “أداة قرار التوظيف الآلي” على أنها التكنولوجيا المستخدمة “لمساعدة أو استبدال عملية صنع القرار التقديرية بشكل كبير”. قالت السيدة جيفنز إن القواعد التي اعتمدتها المدينة تفسر على ما يبدو أن الصياغة ضيقة بحيث تتطلب برامج الذكاء الاصطناعي إجراء تدقيق فقط إذا كان هو العامل الوحيد أو الأساسي في قرار التوظيف أو تم استخدامه لنقض الإنسان.

وقالت إن هذا يترك الطريقة الرئيسية لاستخدام البرنامج الآلي ، مع قيام مدير التوظيف دائمًا باختيار الخيار النهائي. وقالت إن احتمال التمييز القائم على الذكاء الاصطناعي يأتي عادةً في فحص مئات أو آلاف المرشحين وصولاً إلى حفنة أو في التوظيف المستهدف عبر الإنترنت لتوليد مجموعة من المرشحين.

كما انتقدت السيدة جيفنز القانون للحد من أنواع المجموعات التي يتم قياسها للمعاملة غير العادلة. ويغطي التحيز حسب الجنس والعرق والعرق ، ولكن لا يشمل التمييز ضد كبار السن من العمال أو ذوي الإعاقة.

قالت السيدة جيفنز: “أكبر ما يقلقني هو أن يصبح هذا هو النموذج على المستوى الوطني عندما يجب أن نطلب المزيد من صانعي السياسات لدينا”.

قال مسؤولون في المدينة إنه تم تضييق القانون لتشديده والتأكد من أنه مركّز وقابل للتنفيذ. استمع المجلس ووكالة حماية العمال للعديد من الأصوات ، بما في ذلك نشطاء المصلحة العامة وشركات البرمجيات. وقال المسؤولون إن هدفها كان الموازنة بين الابتكار والضرر المحتمل.

قال روبرت هولدن ، الذي كان رئيس لجنة المجلس المعنية بالتكنولوجيا عندما تم تمرير القانون ولا يزال عضوًا في اللجنة: “يعد هذا نجاحًا تنظيميًا كبيرًا لضمان استخدام تقنية الذكاء الاصطناعي بشكل أخلاقي ومسؤول”.

تحاول مدينة نيويورك معالجة التكنولوجيا الجديدة في سياق قوانين مكان العمل الفيدرالية مع إرشادات حول التوظيف في ذلك التاريخ حتى السبعينيات. تنص القاعدة الرئيسية للجنة تكافؤ فرص العمل على أنه لا ينبغي لأي ممارسة أو طريقة اختيار يستخدمها أصحاب العمل أن يكون لها “تأثير متباين” على مجموعة محمية قانونًا مثل النساء أو الأقليات.

انتقدت الشركات القانون. في ملف هذا العام ، قال تحالف البرمجيات ، وهو مجموعة تجارية تضم Microsoft و SAP و Workday ، إن شرط إجراء عمليات تدقيق مستقلة للذكاء الاصطناعي “غير ممكن” لأن “مشهد التدقيق ناشئ” ، ويفتقر إلى المعايير وهيئات الرقابة المهنية.

لكن المجال الناشئ هو فرصة في السوق. يقول الخبراء إن أعمال تدقيق الذكاء الاصطناعي سوف تنمو فقط. وهي تجتذب بالفعل شركات المحاماة والاستشاريين والشركات الناشئة.

الشركات التي تبيع برامج الذكاء الاصطناعي للمساعدة في قرارات التوظيف والترقية أصبحت بشكل عام تتبنى التنظيم. خضع البعض بالفعل لعمليات تدقيق خارجية. إنهم يرون المتطلب كميزة تنافسية محتملة ، مما يوفر دليلاً على أن تقنيتهم ​​توسع مجموعة المرشحين للوظائف للشركات وتزيد من فرص العمال.

قال روي وانج ، المستشار العام لشركة Eightfold AI ، وهي شركة ناشئة في وادي السيليكون تنتج برامج تُستخدم لمساعدة مديري التوظيف: “نعتقد أنه يمكننا تلبية القانون وإظهار الشكل الجيد للذكاء الاصطناعي”.

يتخذ قانون مدينة نيويورك أيضًا نهجًا لتنظيم الذكاء الاصطناعي قد يصبح هو القاعدة. القياس الأساسي للقانون هو “نسبة التأثير” ، أو حساب تأثير استخدام البرنامج على مجموعة محمية من المرشحين للوظائف. فهو لا يتعمق في كيفية اتخاذ الخوارزمية للقرارات ، وهو مفهوم يُعرف باسم “القابلية للتفسير”.

يقول النقاد إنه في التطبيقات التي تؤثر على الحياة مثل التوظيف ، يحق للناس الحصول على تفسير لكيفية اتخاذ القرار. يقول بعض الخبراء إن الذكاء الاصطناعي مثل برنامج ChatGPT أصبح أكثر تعقيدًا ، وربما يجعل هدف الذكاء الاصطناعي القابل للتفسير بعيد المنال.

قال أشلي كاسوفان ، المدير التنفيذي لمعهد الذكاء الاصطناعي المسؤول ، الذي يعمل على تطوير شهادات للاستخدام الآمن لتطبيقات الذكاء الاصطناعي في مكان العمل والرعاية الصحية والتمويل: “يصبح التركيز ناتج الخوارزمية ، وليس عمل الخوارزمية”.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى