تقدم هذه المقالة دراسة استقصائية تؤكد أن معدل التعلم التكيفي لكل خطوة ولكل طبقة ضروري لإطار RECKONING.تقدم هذه المقالة دراسة استقصائية تؤكد أن معدل التعلم التكيفي لكل خطوة ولكل طبقة ضروري لإطار RECKONING.

دراسة الاستئصال تؤكد ضرورة المعدلات الديناميكية لأداء RECKONING

2025/10/29 23:38

نبذة مختصرة و1. المقدمة

  1. الخلفية

  2. الطريقة

  3. التجارب

    4.1 أداء الاستدلال متعدد الخطوات

    4.2 الاستدلال مع المشتتات

    4.3 التعميم على المعرفة الواقعية

    4.4 تحليل وقت التشغيل

    4.5 حفظ المعرفة

  4. الأعمال ذات الصلة

  5. الخاتمة، وشكر وتقدير، والمراجع

\ أ. مجموعة البيانات

ب. الاستدلال في السياق مع المشتتات

ج. تفاصيل التنفيذ

د. معدل التعلم التكيفي

هـ. تجارب مع نماذج اللغة الكبيرة

د معدل التعلم التكيفي

تظهر الأعمال السابقة [3، 4] أن معدل التعلم الثابت المشترك عبر الخطوات والمعلمات لا يفيد أداء التعميم للنظام. بدلاً من ذلك، يوصي [3] بتعلم معدل تعلم لـ

\ الجدول 8: مثال على الاستدلال ذو 6 خطوات من مجموعة بيانات CLUTRR-SG.

\ الجدول 9: مثال على المشتتات (بالأسود) والمعرفة ذات الصلة (بالأحمر) في مجموعة بيانات ProofWriter.

\ كل طبقة شبكة وكل خطوة تكيف في الحلقة الداخلية. يمكن لمعلمات الطبقة أن تتعلم ضبط معدلات التعلم ديناميكيًا في كل خطوة. للتحكم في معدل التعلم α في الحلقة الداخلية بشكل تكيفي، نحدد α كمجموعة من المتغيرات القابلة للتعديل: α = {α0, α1, …αL}، حيث L هو عدد الطبقات ولكل l = 0, …, L، αl هو متجه بـ N عنصر نظرًا لعدد خطوات الحلقة الداخلية المحدد مسبقًا N. تصبح معادلة تحديث الحلقة الداخلية إذن

\

\

\ هل معدلات التعلم الديناميكية ضرورية لأداء RECKONING؟ بناءً على الأعمال السابقة في التعلم الفوقي [3، 4]، نتعلم ديناميكيًا مجموعة من معدلات التعلم لكل خطوة ولكل طبقة لـ RECKONING. في هذه الدراسة الاستئصالية، نحلل ما إذا كانت معدلات التعلم الديناميكية للحلقة الداخلية تحسن بشكل فعال أداء الاستدلال في الحلقة الخارجية. وبالمثل، نثبت الإعدادات التجريبية الأخرى ونحدد عدد خطوات الحلقة الداخلية إلى 4. كما يوضح الشكل 8، عند استخدام معدل تعلم ثابت (أي تشترك جميع الطبقات وخطوات الحلقة الداخلية في معدل تعلم ثابت)، ينخفض الأداء بهامش كبير (متوسط انخفاض 34.2٪). يصبح انخفاض الأداء أكثر أهمية في الأسئلة التي تتطلب المزيد من خطوات الاستدلال (انخفاض بنسبة 45.5٪ للخطوات الأربع و39.5٪ للخطوات الست)، مما يوضح أهمية استخدام معدل تعلم ديناميكي في الحلقة الداخلية لإطار عملنا.

\ الشكل 8: ندرس مدى مساهمة معدل التعلم الديناميكي في الحلقة الداخلية في أداء الحلقة الخارجية. نثبت جميع المعلمات الفائقة باستثناء خيار استخدام معدل التعلم الديناميكي أو الثابت. نجري التحليل باستخدام مجموعة بيانات CLUTRR-SG لأنها أكثر تعقيدًا وصعوبة (أداء عشوائي أقل).

\

:::info المؤلفون:

(1) زيمينغ تشن، EPFL (zeming.chen@epfl.ch)؛

(2) غيل وايس، EPFL (antoine.bosselut@epfl.ch)؛

(3) إريك ميتشل، جامعة ستانفورد (eric.mitchell@cs.stanford.edu)'؛

(4) أسلي سيليكيلماز، Meta AI Research (aslic@meta.com)؛

(5) أنطوان بوسيلوت، EPFL (antoine.bosselut@epfl.ch).

:::


:::info هذه الورقة متاحة على arxiv تحت ترخيص CC BY 4.0 DEED.

:::

\

إخلاء مسؤولية: المقالات المُعاد نشرها على هذا الموقع مستقاة من منصات عامة، وهي مُقدمة لأغراض إعلامية فقط. لا تُظهِر بالضرورة آراء MEXC. جميع الحقوق محفوظة لمؤلفيها الأصليين. إذا كنت تعتقد أن أي محتوى ينتهك حقوق جهات خارجية، يُرجى التواصل عبر البريد الإلكتروني service@support.mexc.com لإزالته. لا تقدم MEXC أي ضمانات بشأن دقة المحتوى أو اكتماله أو حداثته، وليست مسؤولة عن أي إجراءات تُتخذ بناءً على المعلومات المُقدمة. لا يُمثل المحتوى نصيحة مالية أو قانونية أو مهنية أخرى، ولا يُعتبر توصية أو تأييدًا من MEXC.
مشاركة الرؤى

قد يعجبك أيضاً