Cet article présente une étude d'ablation confirmant qu'un taux d'apprentissage adaptatif, par étape et par couche, est essentiel pour le cadre RECKONING.Cet article présente une étude d'ablation confirmant qu'un taux d'apprentissage adaptatif, par étape et par couche, est essentiel pour le cadre RECKONING.

L'étude d'ablation confirme la nécessité des taux dynamiques pour la performance de RECKONING

2025/10/29 23:38

Abstrait et 1. Introduction

  1. Contexte

  2. Méthode

  3. Expériences

    4.1 Performance de raisonnement multi-étapes

    4.2 Raisonnement avec distracteurs

    4.3 Généralisation aux connaissances du monde réel

    4.4 Analyse du temps d'exécution

    4.5 Mémorisation des connaissances

  4. Travaux connexes

  5. Conclusion, Remerciements et Références

\ A. Ensemble de données

B. Raisonnement en contexte avec distracteurs

C. Détails d'implémentation

D. Taux d'apprentissage adaptatif

E. Expériences avec des grands modèles de langage

D Taux d'apprentissage adaptatif

Les travaux antérieurs [3, 4] montrent qu'un taux d'apprentissage fixe partagé entre les étapes et les paramètres ne bénéficie pas à la performance de généralisation du système. Au lieu de cela, [3] recommande d'apprendre un taux d'apprentissage pour

\ Tableau 8: Un exemple de raisonnement à 6 étapes issu de l'ensemble de données CLUTRR-SG.

\ Tableau 9: Exemple de distracteurs (noir) et de connaissances pertinentes (rouge) dans l'ensemble de données ProofWriter.

\ chaque couche de réseau et chaque étape d'adaptation dans la boucle interne. Les paramètres de couche peuvent apprendre à ajuster les taux d'apprentissage dynamiquement à chaque étape. Pour contrôler le taux d'apprentissage α dans la boucle interne de manière adaptative, nous définissons α comme un ensemble de variables ajustables : α = {α0, α1, …αL}, où L est le nombre de couches et pour chaque l = 0, …, L, αl est un vecteur avec N éléments étant donné un nombre d'étapes de boucle interne prédéfini N. L'équation de mise à jour de la boucle interne devient alors

\

\

\ Les taux d'apprentissage dynamiques sont-ils nécessaires pour la performance de RECKONING? Suivant les travaux antérieurs sur le méta-apprentissage [3, 4], nous apprenons dynamiquement un ensemble de taux d'apprentissage par étape et par couche pour RECKONING. Dans cette étude d'ablation, nous analysons si les taux d'apprentissage dynamiques pour la boucle interne améliorent efficacement la performance de raisonnement de la boucle externe. De même, nous fixons d'autres paramètres expérimentaux et définissons le nombre d'étapes de la boucle interne à 4. Comme le montre la Figure 8, lors de l'utilisation d'un taux d'apprentissage statique (c'est-à-dire que toutes les couches et étapes de la boucle interne partagent un taux d'apprentissage constant), la performance chute considérablement (baisse moyenne de 34,2%). La baisse de performance devient plus significative pour les questions nécessitant plus d'étapes de raisonnement (baisse de 45,5% pour 4 étapes et 39,5% pour 6 étapes), démontrant l'importance d'utiliser un taux d'apprentissage dynamique dans la boucle interne de notre cadre.

\ Figure 8: Nous étudions dans quelle mesure le taux d'apprentissage dynamique dans la boucle interne contribue à la performance de la boucle externe. Nous fixons tous les hyperparamètres sauf l'option d'utiliser le taux d'apprentissage dynamique ou fixe. Nous menons l'analyse en utilisant l'ensemble de données CLUTRR-SG car il est plus complexe et difficile (performance aléatoire plus faible).

\

:::info Auteurs:

(1) Zeming Chen, EPFL (zeming.chen@epfl.ch);

(2) Gail Weiss, EPFL (antoine.bosselut@epfl.ch);

(3) Eric Mitchell, Stanford University (eric.mitchell@cs.stanford.edu)';

(4) Asli Celikyilmaz, Meta AI Research (aslic@meta.com);

(5) Antoine Bosselut, EPFL (antoine.bosselut@epfl.ch).

:::


:::info Cet article est disponible sur arxiv sous licence CC BY 4.0 DEED.

:::

\

Clause de non-responsabilité : les articles republiés sur ce site proviennent de plateformes publiques et sont fournis à titre informatif uniquement. Ils ne reflètent pas nécessairement les opinions de MEXC. Tous les droits restent la propriété des auteurs d'origine. Si vous estimez qu'un contenu porte atteinte aux droits d'un tiers, veuillez contacter service@support.mexc.com pour demander sa suppression. MEXC ne garantit ni l'exactitude, ni l'exhaustivité, ni l'actualité des contenus, et décline toute responsabilité quant aux actions entreprises sur la base des informations fournies. Ces contenus ne constituent pas des conseils financiers, juridiques ou professionnels, et ne doivent pas être interprétés comme une recommandation ou une approbation de la part de MEXC.
Partager des idées

Vous aimerez peut-être aussi