En combinant les avantages des modèles d'espace d'état (SSMs) avec des mécanismes d'attention, SAMBA présente une architecture neuronale hybride qui permet une modélisation linguistique efficace et scalable avec une longueur de contexte presque infinie. SAMBA surpasse à la fois les modèles basés sur l'attention pure et les modèles basés sur SSM sur une variété de métriques de raisonnement, de compréhension et de codage lorsqu'il est entraîné sur SlimPajama avec des configurations cohérentes. Le modèle traite des séquences jusqu'à 256K tokens avec peu de fine-tuning, atteignant une vitesse exceptionnelle et une capacité d'extrapolation remarquable.En combinant les avantages des modèles d'espace d'état (SSMs) avec des mécanismes d'attention, SAMBA présente une architecture neuronale hybride qui permet une modélisation linguistique efficace et scalable avec une longueur de contexte presque infinie. SAMBA surpasse à la fois les modèles basés sur l'attention pure et les modèles basés sur SSM sur une variété de métriques de raisonnement, de compréhension et de codage lorsqu'il est entraîné sur SlimPajama avec des configurations cohérentes. Le modèle traite des séquences jusqu'à 256K tokens avec peu de fine-tuning, atteignant une vitesse exceptionnelle et une capacité d'extrapolation remarquable.

Comment les modèles d'IA hybrides équilibrent la mémoire et l'efficacité

2025/10/28 17:13

Abstrait et 1. Introduction

  1. Méthodologie

  2. Expériences et Résultats

    3.1 Modélisation du langage sur des données vQuality

    3.2 Exploration sur l'attention et la récurrence linéaire

    3.3 Extrapolation efficace de la longueur

    3.4 Compréhension de contexte long

  3. Analyse

  4. Conclusion, Remerciements et Références

A. Détails d'implémentation

B. Résultats d'expériences supplémentaires

C. Détails de la mesure d'entropie

D. Limitations

\

A Détails d'implémentation

\ Pour la couche GLA dans l'architecture Sliding GLA, nous utilisons un nombre de têtes dm/384, un ratio d'expansion de clé de 0,5 et un ratio d'expansion de valeur de 1. Pour la couche RetNet, nous utilisons un nombre de têtes équivalent à la moitié du nombre de têtes de requête d'attention, un ratio d'expansion de clé de 1 et un ratio d'expansion de valeur de 2. Les implémentations de GLA et RetNet proviennent du dépôt Flash Linear Attention[3] [YZ24]. Nous utilisons l'implémentation basée sur FlashAttention pour l'extrapolation Self-Extend[4]. Le modèle Mamba 432M a une largeur de modèle de 1024 et le modèle Mamba 1.3B a une largeur de modèle de 2048. Tous les modèles entraînés sur SlimPajama ont les mêmes configurations d'entraînement et la taille intermédiaire MLP que Samba, sauf indication contraire. L'infrastructure d'entraînement sur SlimPajama est basée sur une version modifiée du code TinyLlama[5].

\ Tableau 10: Hyper-paramètres détaillés des modèles SAMBA entraînés à différentes échelles. Nous montrons uniquement les paramètres d'optimisation pour la première phase d'entraînement du modèle 3.8B.

\ Dans les configurations de génération pour les tâches en aval, nous utilisons le décodage glouton pour GSM8K, et l'échantillonnage Nucleus [HBD+19] avec une température de τ = 0,2 et top-p = 0,95 pour HumanEval. Pour MBPP et SQuAD, nous définissons τ = 0,01 et top-p = 0,95.

B Résultats d'expériences supplémentaires

\ Figure 6: Courbes de perte d'entraînement des modèles Samba 1.7B et Mistral 1.6B pendant 500 étapes d'instruction tuning sur la récupération de clé d'accès avec une longueur de séquence de 4K. Nous traçons les courbes de perte pour les deux modèles en utilisant la moyenne mobile simple avec une fenêtre de taille 10.

\

\ Figure 7: Précision globale de récupération de clé d'accès sur la longueur de document de 256K des modèles Samba 1.7B et Mistral 1.6B pendant 500 étapes d'instruction tuning.

\

C Détails de la mesure d'entropie

\

\

D Limitations

Bien que Samba démontre des performances prometteuses de récupération de mémoire grâce à l'instruction tuning, son modèle de base pré-entraîné a des performances de récupération similaires à celles du modèle basé sur SWA, comme le montre la Figure 7. Cela ouvre une direction future pour améliorer davantage la capacité de récupération de Samba sans compromettre son efficacité et sa capacité d'extrapolation. De plus, la stratégie d'hybridation de Samba n'est pas systématiquement meilleure que les autres alternatives dans toutes les tâches. Comme le montre le Tableau 2, MambaSWA-MLP montre des performances améliorées sur des tâches telles que WinoGrande, SIQA et GSM8K. Cela nous donne le potentiel d'investir dans une approche plus sophistiquée pour effectuer des combinaisons dynamiques dépendantes de l'entrée des modèles basés sur SWA et SSM.

\

:::info Auteurs:

(1) Liliang Ren, Microsoft et University of Illinois at Urbana-Champaign (liliangren@microsoft.com);

(2) Yang Liu†, Microsoft (yaliu10@microsoft.com);

(3) Yadong Lu†, Microsoft (yadonglu@microsoft.com);

(4) Yelong Shen, Microsoft (yelong.shen@microsoft.com);

(5) Chen Liang, Microsoft (chenliang1@microsoft.com);

(6) Weizhu Chen, Microsoft (wzchen@microsoft.com).

:::


:::info Cet article est disponible sur arxiv sous licence CC BY 4.0.

:::

[3] https://github.com/sustcsonglin/flash-linear-attention

\ [4] https://github.com/datamllab/LongLM/blob/master/selfextendpatch/Llama.py

\ [5] https://github.com/jzhang38/TinyLlama

Clause de non-responsabilité : les articles republiés sur ce site proviennent de plateformes publiques et sont fournis à titre informatif uniquement. Ils ne reflètent pas nécessairement les opinions de MEXC. Tous les droits restent la propriété des auteurs d'origine. Si vous estimez qu'un contenu porte atteinte aux droits d'un tiers, veuillez contacter service@support.mexc.com pour demander sa suppression. MEXC ne garantit ni l'exactitude, ni l'exhaustivité, ni l'actualité des contenus, et décline toute responsabilité quant aux actions entreprises sur la base des informations fournies. Ces contenus ne constituent pas des conseils financiers, juridiques ou professionnels, et ne doivent pas être interprétés comme une recommandation ou une approbation de la part de MEXC.
Partager des idées