La división Google de Alphabet presentó el miércoles dos procesadores de inteligencia artificial especializados, marcando la primera vez que su arquitectura de unidades de procesamiento tensorial se ha dividido en chips distintos para operaciones de entrenamiento e inferencia.
La TPU 8t está diseñada específicamente para el entrenamiento de modelos de IA, mientras que su contraparte, la TPU 8i, se centra exclusivamente en la inferencia: el proceso de desplegar modelos entrenados en aplicaciones del mundo real. Broadcom actuó como socio de co-desarrollo, extendiendo una colaboración que ha abarcado más de diez años.
Alphabet Inc., GOOGL
Esto representa un giro estratégico respecto a enfoques anteriores. Las iteraciones previas de TPU combinaban capacidades de entrenamiento e inferencia en un único procesador. Google atribuye este cambio al surgimiento de los sistemas de IA agéntica —modelos autónomos que operan en bucles de retroalimentación continua con una supervisión humana mínima— que requieren silicio más especializado.
La TPU 8i orientada a la inferencia incorpora 384 megabytes de SRAM por procesador, tres veces la capacidad de Ironwood. Según Google, esta mejora arquitectónica elimina el cuello de botella de la "sala de espera", reduciendo los picos de latencia que se producen cuando múltiples usuarios consultan un modelo simultáneamente.
En comparación con Ironwood, la TPU 8i logra un 80% mejor eficiencia de costes. En términos operativos, las organizaciones pueden atender casi el doble de la demanda de usuarios sin aumentar su presupuesto.
El chip también demuestra hasta 2x mayor eficiencia energética por vatio, habilitada por tecnología de gestión dinámica de energía que modula el consumo energético en función de los requisitos de carga de trabajo en tiempo real.
Por primera vez, ambos procesadores utilizan la CPU Axion de Google como procesador anfitrión, lo que permite la optimización a nivel de arquitectura del sistema en lugar de limitar las mejoras al rendimiento individual de cada chip.
En cuanto a las capacidades de entrenamiento, la configuración superpod de la TPU 8t admite clústeres de hasta 9.600 procesadores con 2 petabytes de memoria de alto ancho de banda. Esto representa el doble del ancho de banda de comunicación entre chips de Ironwood, y Google afirma que puede comprimir los plazos de desarrollo de modelos de frontera de meses a tan solo semanas.
El procesador de entrenamiento ofrece 2,8 veces el rendimiento computacional de la arquitectura Ironwood de séptima generación a un precio equivalente.
La adopción temprana está ganando impulso. Citadel Securities desarrolló plataformas de investigación cuantitativa utilizando la infraestructura TPU de Google. Los diecisiete laboratorios nacionales del Departamento de Energía de los Estados Unidos operan aplicaciones de IA co-científica en los procesadores. Anthropic se ha comprometido a utilizar múltiples gigavatios de capacidad de computación TPU de Google.
Los analistas de DA Davidson proyectaron en septiembre que la división TPU de Google, combinada con Google DeepMind, podría alcanzar una valoración cercana a los 900.000 millones de dólares.
Google mantiene un modelo de distribución exclusivo para las TPU: no están disponibles para su compra directa y solo se puede acceder a ellas a través de los servicios de Google Cloud. Nvidia continúa suministrando hardware GPU a Google, y la compañía confirmó que se encontrará entre los proveedores iniciales de servicios en la nube que ofrezcan la próxima plataforma Vera Rubin de Nvidia cuando se lance a finales de este año.
Los procesadores fueron diseñados en estrecha colaboración con Google DeepMind, que los ha utilizado para entrenar modelos de lenguaje Gemini y optimizar los algoritmos que impulsan las plataformas de Search y YouTube.
Google anunció que tanto la TPU 8t como la TPU 8i estarán disponibles de forma general para los clientes de la plataforma en la nube a finales de 2025.
The post Alphabet (GOOGL) Unveils Dual-Purpose 8th-Gen TPU Chips Developed With Broadcom appeared first on Blockonomi.


