Cet article présente une nouvelle méthodologie de distillation consciente des limites de décision pour l'apprentissage incrémental par instance qui ne nécessite aucun accès aux anciennes données.Cet article présente une nouvelle méthodologie de distillation consciente des limites de décision pour l'apprentissage incrémental par instance qui ne nécessite aucun accès aux anciennes données.

Synthèse d'images médicales : S-CycleGAN pour RUSS et segmentation

2025/11/05 23:30

Abstrait et 1 Introduction

  1. Travaux connexes

  2. Définition du problème

  3. Méthodologie

    4.1. Distillation consciente des limites de décision

    4.2. Consolidation des connaissances

  4. Résultats expérimentaux et 5.1. Configuration de l'expérience

    5.2. Comparaison avec les méthodes de pointe

    5.3. Étude d'ablation

  5. Conclusion et travaux futurs et Références

    \

Matériel supplémentaire

  1. Détails de l'analyse théorique du mécanisme KCEMA dans IIL
  2. Aperçu de l'algorithme
  3. Détails du jeu de données
  4. Détails d'implémentation
  5. Visualisation des images d'entrée poussiéreuses
  6. Plus de résultats expérimentaux

4. Méthodologie

Comme le montre la Fig. 2 (a), l'apparition d'une dérive conceptuelle dans les nouvelles observations conduit à l'émergence d'échantillons externes sur lesquels le modèle existant échoue. Le nouvel IIL doit élargir la limite de décision à ces échantillons externes tout en évitant l'oubli catastrophique (CF) sur l'ancienne limite. Les méthodes conventionnelles basées sur la distillation des connaissances s'appuient sur certains exemplaires préservés [22] ou des données auxiliaires [33, 34] pour résister au CF. Cependant, dans le cadre IIL proposé, nous n'avons accès à aucune ancienne donnée autre que les nouvelles observations. La distillation basée sur ces nouvelles observations entre en conflit avec l'apprentissage de nouvelles connaissances si aucun nouveau paramètre n'est ajouté au modèle. Pour trouver un équilibre entre l'apprentissage et la non-oubli, nous proposons une méthode de distillation consciente des limites de décision qui ne nécessite pas d'anciennes données. Pendant l'apprentissage, les nouvelles connaissances acquises par l'étudiant sont périodiquement consolidées dans le modèle de l'enseignant, ce qui apporte une meilleure généralisation et constitue une tentative pionnière dans ce domaine.

\ Figure 3. Comparaison entre (a) la méthode précédente basée sur la distillation qui fait des inférences avec le modèle étudiant (S) et (b) la distillation consciente des limites de décision proposée (DBD) avec consolidation des connaissances (KC). Nous utilisons le modèle enseignant (T) pour l'inférence.

\

:::info Auteurs:

(1) Qiang Nie, Université des Sciences et Technologies de Hong Kong (Guangzhou);

(2) Weifu Fu, Tencent Youtu Lab;

(3) Yuhuan Lin, Tencent Youtu Lab;

(4) Jialin Li, Tencent Youtu Lab;

(5) Yifeng Zhou, Tencent Youtu Lab;

(6) Yong Liu, Tencent Youtu Lab;

(7) Qiang Nie, Université des Sciences et Technologies de Hong Kong (Guangzhou);

(8) Chengjie Wang, Tencent Youtu Lab.

:::


:::info Cet article est disponible sur arxiv sous la licence CC BY-NC-ND 4.0 Deed (Attribution-Pas d'Utilisation Commerciale-Pas de Modification 4.0 International).

:::

\

Clause de non-responsabilité : les articles republiés sur ce site proviennent de plateformes publiques et sont fournis à titre informatif uniquement. Ils ne reflètent pas nécessairement les opinions de MEXC. Tous les droits restent la propriété des auteurs d'origine. Si vous estimez qu'un contenu porte atteinte aux droits d'un tiers, veuillez contacter service@support.mexc.com pour demander sa suppression. MEXC ne garantit ni l'exactitude, ni l'exhaustivité, ni l'actualité des contenus, et décline toute responsabilité quant aux actions entreprises sur la base des informations fournies. Ces contenus ne constituent pas des conseils financiers, juridiques ou professionnels, et ne doivent pas être interprétés comme une recommandation ou une approbation de la part de MEXC.
Partager des idées