Esta sección define un nuevo y práctico entorno de problema de Aprendizaje Incremental por Instancia (IIL) centrado en la promoción rentable de modelos en sistemas implementados.Esta sección define un nuevo y práctico entorno de problema de Aprendizaje Incremental por Instancia (IIL) centrado en la promoción rentable de modelos en sistemas implementados.

Nueva configuración de IIL: Mejorando los modelos implementados solo con datos nuevos

2025/11/05 23:00

Resumen y 1 Introducción

  1. Trabajos relacionados

  2. Planteamiento del problema

  3. Metodología

    4.1. Destilación consciente de límites de decisión

    4.2. Consolidación de conocimiento

  4. Resultados experimentales y 5.1. Configuración del experimento

    5.2. Comparación con métodos SOTA

    5.3. Estudio de ablación

  5. Conclusión y trabajo futuro y Referencias

    \

Material Complementario

  1. Detalles del análisis teórico sobre el mecanismo KCEMA en IIL
  2. Visión general del algoritmo
  3. Detalles del conjunto de datos
  4. Detalles de implementación
  5. Visualización de imágenes de entrada con polvo
  6. Más resultados experimentales

3. Planteamiento del problema

La ilustración del entorno IIL propuesto se muestra en la Fig. 1. Como se puede ver, los datos se generan de manera continua e impredecible en el flujo de datos. Generalmente en aplicaciones reales, las personas tienden a recopilar primero suficientes datos y entrenar un modelo fuerte M0 para su implementación. No importa cuán fuerte sea el modelo, inevitablemente encontrará datos fuera de distribución y fallará en ellos. Estos casos fallidos y otras nuevas observaciones de baja puntuación serán anotados para entrenar el modelo de vez en cuando. Reentrenar el modelo con todos los datos acumulados cada vez conlleva un costo cada vez mayor en tiempo y recursos. Por lo tanto, el nuevo IIL busca mejorar el modelo existente utilizando solo los nuevos datos cada vez.

\

\ Figura 2. Límites de decisión (DB): (a) DB aprendidos de datos antiguos y nuevos, respectivamente. Con respecto al DB antiguo, los nuevos datos pueden categorizarse en muestras internas y muestras externas. (b) DB ideal mediante el entrenamiento conjunto con los datos antiguos y nuevos. (c) el ajuste fino del modelo con los nuevos datos con etiquetas one-hot sufre de CF. (d) el aprendizaje con destilación en ejemplares prototipo causa sobreajuste a estos ejemplares y colapso de DB. (e) el DB logrado usando nuestra destilación consciente de límites de decisión (DBD).

\

:::info Autores:

(1) Qiang Nie, Universidad de Ciencia y Tecnología de Hong Kong (Guangzhou);

(2) Weifu Fu, Tencent Youtu Lab;

(3) Yuhuan Lin, Tencent Youtu Lab;

(4) Jialin Li, Tencent Youtu Lab;

(5) Yifeng Zhou, Tencent Youtu Lab;

(6) Yong Liu, Tencent Youtu Lab;

(7) Qiang Nie, Universidad de Ciencia y Tecnología de Hong Kong (Guangzhou);

(8) Chengjie Wang, Tencent Youtu Lab.

:::


:::info Este artículo está disponible en arxiv bajo la licencia CC BY-NC-ND 4.0 Deed (Atribución-NoComercial-SinDerivadas 4.0 Internacional).

:::

\

Aviso legal: Los artículos republicados en este sitio provienen de plataformas públicas y se ofrecen únicamente con fines informativos. No reflejan necesariamente la opinión de MEXC. Todos los derechos pertenecen a los autores originales. Si consideras que algún contenido infringe derechos de terceros, comunícate a la dirección service@support.mexc.com para solicitar su eliminación. MEXC no garantiza la exactitud, la integridad ni la actualidad del contenido y no se responsabiliza por acciones tomadas en función de la información proporcionada. El contenido no constituye asesoría financiera, legal ni profesional, ni debe interpretarse como recomendación o respaldo por parte de MEXC.
Compartir perspectivas

También te puede interesar