Cette section définit un nouveau cadre pratique d'Apprentissage Incrémental par Instance (IIL) axé sur la promotion rentable des modèles dans les systèmes déployés.Cette section définit un nouveau cadre pratique d'Apprentissage Incrémental par Instance (IIL) axé sur la promotion rentable des modèles dans les systèmes déployés.

Nouveau paramètre IIL : Amélioration des modèles déployés avec uniquement de nouvelles données

2025/11/05 23:00

Abstrait et 1 Introduction

  1. Travaux connexes

  2. Définition du problème

  3. Méthodologie

    4.1. Distillation consciente des limites de décision

    4.2. Consolidation des connaissances

  4. Résultats expérimentaux et 5.1. Configuration de l'expérience

    5.2. Comparaison avec les méthodes de pointe

    5.3. Étude d'ablation

  5. Conclusion et travaux futurs et Références

    \

Matériel supplémentaire

  1. Détails de l'analyse théorique du mécanisme KCEMA dans IIL
  2. Aperçu de l'algorithme
  3. Détails du jeu de données
  4. Détails d'implémentation
  5. Visualisation des images d'entrée poussiéreuses
  6. Plus de résultats expérimentaux

3. Définition du problème

L'illustration du paramètre IIL proposé est présentée dans la Fig. 1. Comme on peut le voir, les données sont générées continuellement et de manière imprévisible dans le flux de données. Généralement dans les applications réelles, les gens ont tendance à collecter d'abord suffisamment de données et à entraîner un modèle robuste M0 pour le déploiement. Peu importe la robustesse du modèle, il rencontrera inévitablement des données hors distribution et échouera sur celles-ci. Ces cas d'échec et d'autres nouvelles observations à faible score seront annotés pour entraîner le modèle de temps en temps. Réentraîner le modèle avec toutes les données cumulées à chaque fois entraîne des coûts de plus en plus élevés en temps et en ressources. Par conséquent, le nouvel IIL vise à améliorer le modèle existant avec uniquement les nouvelles données à chaque fois.

\

\ Figure 2. Limites de décision (DB) : (a) DB apprises à partir d'anciennes données et de nouvelles données, respectivement. Par rapport à l'ancienne DB, les nouvelles données peuvent être classées en échantillons internes et échantillons externes. (b) DB idéale en entraînant conjointement sur les anciennes et les nouvelles données. (c) l'ajustement fin du modèle sur les nouvelles données avec des étiquettes one-hot souffre de CF. (d) l'apprentissage avec distillation sur des exemples prototypes provoque un surajustement à ces exemples et un effondrement de la DB. (e) la DB obtenue en utilisant notre distillation consciente des limites de décision (DBD).

\

:::info Auteurs :

(1) Qiang Nie, Université des Sciences et Technologies de Hong Kong (Guangzhou) ;

(2) Weifu Fu, Tencent Youtu Lab ;

(3) Yuhuan Lin, Tencent Youtu Lab ;

(4) Jialin Li, Tencent Youtu Lab ;

(5) Yifeng Zhou, Tencent Youtu Lab ;

(6) Yong Liu, Tencent Youtu Lab ;

(7) Qiang Nie, Université des Sciences et Technologies de Hong Kong (Guangzhou) ;

(8) Chengjie Wang, Tencent Youtu Lab.

:::


:::info Cet article est disponible sur arxiv sous licence CC BY-NC-ND 4.0 Deed (Attribution-Pas d'Utilisation Commerciale-Pas de Modification 4.0 International).

:::

\

Clause de non-responsabilité : les articles republiés sur ce site proviennent de plateformes publiques et sont fournis à titre informatif uniquement. Ils ne reflètent pas nécessairement les opinions de MEXC. Tous les droits restent la propriété des auteurs d'origine. Si vous estimez qu'un contenu porte atteinte aux droits d'un tiers, veuillez contacter service@support.mexc.com pour demander sa suppression. MEXC ne garantit ni l'exactitude, ni l'exhaustivité, ni l'actualité des contenus, et décline toute responsabilité quant aux actions entreprises sur la base des informations fournies. Ces contenus ne constituent pas des conseils financiers, juridiques ou professionnels, et ne doivent pas être interprétés comme une recommandation ou une approbation de la part de MEXC.
Partager des idées

Vous aimerez peut-être aussi