الخميس, مايو 2, 2024
احدث التطورات

ماهي المحاذاة الفائقة: في الذكاء الاصطناعي

Spread the love

المحاذاة الفائقة (Super Alignment) في الذكاء الاصطناعي. هي مصطلح يعنى به التحكم بانظمة الذكاء الاصطناعي الفائقة وتوجيهها لمصلحة البشر. وضمان عدم الخروج عن السيطرة وبالتالي التسبب بنتائج عكسية لما يريده البشر من هذه اللآت الذكية.

كما نرى في الآونة الخيرة كل الشركات التقنية تتسابق نحو انتاج انظمة الذكاء الاصطناعي. وربما لا تبالي حتى بما يمكن ان يوصلنا اليه هذا السباق. لانه هناك من حذر من الافراط في انتاج انظمة الذكاء الاصطناعي. ويجب التفكير ايضا في النتائج العكسية التي يمكن ان تنتج عنه عندما يتطور الذكاء الاصطناعي اكثر ويصبح اكثر ذكاء من البشر.

واكثر من ركز على مسألة الحذر من الذكاء الاصطناعي هو مالك Open AI ايلون ماسك. وهو اشد مؤيدي فكرة ان الذكاء الاصطناعي يجب الحذر منه وتأكد من ترويضة وتوجيهه لمصلحة البشر.

Open AI  تكون فريق المحاذاة الفائقة (Super Alignment)  

في5  يوليو 2023 اعلنت شركة Open AI  عن تكوين فريق من مجموعة باحثين ومهندسين في مجال التعلم الآلي. والهدف هو حل مسالة التحكم بانظمة الذكاء الاصطناعي الاكثر ذكاء من البشر. وتوجيه انظمة الذكاء الاصطناعي الفائق لمصلحة البشر وضمان عدم الخروج عن سيطرة الانسان والتسبب بنتائج عكسية لما يهدف له الانسان. واطلق عليه ، فريق المحاذاة الفائقة (Super Alignment Team)

وقال احد اعضاء الفريق نحن بحاجة إلى إنجازات علمية وتقنية لتوجيه والتحكم بأنظمة الذكاء الاصطناعي الأكثر ذكاءً منا.  لحل هذه المشكلة في غضون أربع سنوات. قمنا بتشكيل فريق جديد، بقيادة مشتركة بين إيليا سوتسكيفر وجان ليك، وخصصنا 20% من الحوسبة التي حصلنا عليها حتى الآن لهذا الجهد.  نحن نبحث عن باحثين ومهندسين ممتازين في مجال تعلم الآلة للانضمام إلينا.

حيث سيكون الذكاء الفائق التكنولوجيا الأكثر تأثيرًا التي اخترعتها البشرية على الإطلاق، ويمكن أن يساعدنا في حل العديد من أهم مشكلات العالم.  لكن القوة الهائلة للذكاء الفائق يمكن أن تكون أيضًا خطيرة للغاية، ويمكن أن تؤدي إلى إضعاف البشرية أو حتى انقراضها.

بينما يعتقد البعض ان الذكاء الفائق يبدو بعيد المنال الآن، ولكننا نعتقد أنه قد يصل في العشرة سنين القادمة.


كيف نضمن أن أنظمة الذكاء الاصطناعي الأكثر ذكاءً من البشر تتبع النوايا البشرية؟


في الوقت الحالي، ليس هناك حل لتوجيه أو التحكم في الذكاء الاصطناعي الفائق الذكاء، ومنعه من الانحراف عن فائدة البشر. حيث تعتمد كل التقنيات المتوفرة حاليا لمواءمة الذكاء الاصطناعي، مثل التعلم المعزز من ردود الفعل البشرية ، على قدرة البشر على الإشراف على الذكاء الاصطناعي.

 لكن البشر لن يكونوا قادرين على الإشراف بشكل موثوق على أنظمة الذكاء الاصطناعي الأكثر ذكاءً منا. وبالتالي فإن تقنيات المحاذاة الحالية لدينا لن ترقى إلى مستوى الذكاء الفائق.  نحن بحاجة إلى اختراقات علمية وتقنية جديدة.

ماهو النهج الذي يتبعة فريق المحاذاة الفائقة

هدف الفريق البحثي الآن هو بناء باحث محاذاة آلي على مستوى الذكاء البشري تقريبًا . يمكننا بعد ذلك استخدام كميات هائلة من الحوسبة لتوسيع نطاق جهودنا ومواءمة الذكاء الفائق بشكل متكرر.

لبناء أول باحث محاذاة آلي، سنحتاج إلى:

 1) تطوير طريقة تدريب للباحث الآلي قابلة للتطوير،

 2) التحقق من صحة النموذج الناتج،

 3) اختبار التحمل لخط المحاذاة بأكمله:

لتوفير إشارة تدريب على المهام التي يصعب على البشر تقييمها، يمكننا الاستفادة من أنظمة الذكاء الاصطناعي للمساعدة في تقييم أنظمة الذكاء الاصطناعي الأخرى  ( رقابة قابلة للتطوير). بالإضافة إلى ذلك، نريد أن نفهم ونتحكم في كيفية تعميم نماذجنا لرقابتنا على المهام التي لا يمكننا الإشراف عليها ( التعميم) .

للتحقق من صحة محاذاة أنظمتنا، نقوم بأتمتة البحث عن السلوك الإشكالي  ( القوة) والداخلية الإشكالية ( قابلية التفسير الآلي ).

أخيرًا، يمكننا اختبار مسارنا بالكامل عن طريق تدريب النماذج المنحرفة بشكل متعمد، والتأكد من أن تقنياتنا تكتشف أسوأ أنواع المحاذاة غير الصحيحة ( اختبار الخصومة ).

نتوقع أن تتطور أولوياتنا البحثية بشكل كبير عندما نتعلم المزيد عن المشكلة ومن المحتمل أن نضيف مجالات بحثية جديدة تمامًا. نحن نخطط لمشاركة المزيد حول خريطة الطريق الخاصة بنا في المستقبل.

امكانيات الفريق الجديد للمحاذاة الفائقة

نقوم بتجميع فريق من أفضل الباحثين والمهندسين في مجال التعلم الآلي للعمل على حل مشكلة المحاذاة الفائقة في الذكاء الاصطناعي. 

خصصت الشركة 20% من الحوسبة التي لديهم حتى الآن على مدار السنوات الأربع القادمة لحل مشكلة محاذاة الذكاء الفائق. وقال احد ممثلي Open AI   رهاننا البحثي الأساسي هو فريق Superalignment الجديد لدينا. ولكن الحصول على هذا الأمر بشكل صحيح أمر بالغ الأهمية لتحقيق مهمتنا. ونتوقع أن تساهم العديد من الفرق، بدءًا من تطوير أساليب جديدة إلى توسيع نطاقها وحتى النشر.

وهدف هذا الفريق هو حل التحديات التقنية الأساسية لمواءمة الذكاء الفائق في أربع سنوات.

على الرغم من أن هذا هدف طموح للغاية ولا نضمن نجاحه. إلا انهم متفائلون بأن الجهد المركز والمتضافر يمكن أن يحل هذه المشكلة. هناك العديد من الأفكار التي أظهرت نتائج واعدة في التجارب الأولية، وأصبح لدي الفريق مقاييس مفيدة بشكل متزايد للتقدم. ويمكننا استخدام نماذج اليوم لدراسة العديد من هذه المشاكل تجريبيا. 

إيليا سوتسكيفر المؤسس المشارك وكبير العلماء في OpenAI)) جعل هذا الأمر محور بحثه الأساسي، وسيشارك في قيادة الفريق مع جان لايكي رئيس قسم المحاذاة.

وقالت الشركة نحن نبحث أيضًا عن باحثين ومهندسين جدد متميزين للانضمام إلى هذا الجهد.  إن محاذاة الذكاء الفائق هي في الأساس مشكلة تعلم آلي، ونعتقد أن خبراء التعلم الآلي العظماء – حتى لو لم يكونوا يعملون بالفعل على المحاذاة – سيكونون حاسمين في حلها.

يعد عمل هذا الفريق الجديد بالإضافة إلى العمل الحالي في OpenAI الذي يهدف إلى تحسين سلامة النماذج الحالية مثل ChatGPT. بالإضافة إلى فهم وتخفيف المخاطر الأخرى الناجمة عن الذكاء الاصطناعي. مثل سوء الاستخدام والاضطراب الاقتصادي والتضليل والتحيز والتمييز والإدمان والاعتماد المفرط الخ. في حين أن هذا الفريق الجديد سيركز على تحديات التعلم الآلي المتمثلة في مواءمة أنظمة الذكاء الاصطناعي فائقة الذكاء مع النية البشرية. إلا أن هناك مشكلات اجتماعية تقنية ذات صلة نتعامل معها بنشاط مع خبراء متعددي التخصصات للتأكد من أن حلولنا التقنية تراعي الاهتمامات الإنسانية والمجتمعية الأوسع.

انضم إلي فريق العمل

تعد مسألة محاذاة الذكاء الفائق في الذكاء الاصطناعي واحدة من أهم المشكلات التقنية التي لم يتم حلها في عصرنا. وتقول الشركة نحن بحاجة إلى أفضل العقول في العالم لحل هذه المشكلة.

إذا كنت ناجحًا في التعلم الآلي، ولكنك لم تعمل على المحاذاة من قبل، فهذا هو الوقت المناسب لإجراء التبديل! نعتقد أن هذه مشكلة تعلم آلي سهلة الحل، ويمكنك تقديم مساهمات هائلة في هذا المجال الجديد الواعد.


إذا كنت مهتمًا بالعمل معهم في هذا المشروع ، يمكنك التقديم لشغل وظائف!  مهندس الأبحاث وعالم الأبحاث ومدير الأبحاث .

ملاحظات مهمة حول فريق المحاذاة الفائقة

  1. نركز هنا على الذكاء الفائق بدلاً من الذكاء الاصطناعي العام (AGI) للتأكيد على مستوى قدرة أعلى بكثير. لدينا الكثير من عدم اليقين بشأن سرعة تطور التكنولوجيا على مدى السنوات القليلة المقبلة، لذلك اخترنا أن نستهدف الهدف الأكثر صعوبة وهو مواءمة نظام أكثر قدرة بكثير.
  • يمكن أيضًا أن تنهار الافتراضات الأخرى في المستقبل، مثل خصائص التعميم المفضلة أثناء النشر أو عدم قدرة نماذجنا على اكتشاف وتقويض الإشراف بنجاح أثناء التدريب
  • يتضمن حل المشكلة تقديم الأدلة والحجج التي تقنع مجتمع التعلم الآلي والسلامة بأنه تم حلها. إذا فشلنا في الحصول على مستوى عالٍ جدًا من الثقة في حلولنا، نأمل أن تتيح لنا النتائج التي توصلنا إليها وللمجتمع التخطيط بشكل مناسب.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *