SEMIFIVE en ICY Tech brengen de 8 nm eMRAM naar Edge AI

SEMIFIVE en colaboración con ICY Tech han revelado el tape-out de un nuevo SoC de Edge AI basado en memoria eMRAM de 8 nm, fabricado con la tecnología 8LPU de Samsung Foundry. Este logro acerca a Asia a la posible primera comercialización de esta tecnología en chips de inteligencia artificial diseñados para dispositivos de bajo consumo energético, un mercado que empieza a ganar impulso con la proliferación de AI PCs, agentes privados, robótica y sistemas inteligentes que deben operar de manera autónoma, sin depender siempre de la nube.

Este anuncio es especialmente relevante porque aborda uno de los principales límites del Edge AI: cómo ejecutar modelos cada vez más complejos en dispositivos con restricciones de energía, tamaño y conectividad. SEMIFIVE e ICY Tech aseguran que su arquitectura puede soportar inferencias en el propio dispositivo para modelos de hasta 2.000 millones de parámetros. En este rango, ya es posible realizar tareas prácticas como resumen de textos, traducción o diálogos básicos, sin necesidad de conexión constante a Internet.

eMRAM: una memoria no volátil que hace a los chips de IA más eficientes

La memoria es uno de los componentes más delicados en los chips destinados a IA. No basta con disponer de unidades de cálculo muy rápidas; también es fundamental mover datos de manera eficiente. En dispositivos de borde, donde el consumo energético y el tamaño del chip son críticos, la elección de la memoria puede marcar una gran diferencia en rendimiento y eficiencia.

La eMRAM (embedded Magnetic Random Access Memory) es una variante integrada de MRAM que se inserta directamente en un SoC. A diferencia de la DRAM, no requiere operaciones periódicas de refresco para mantener los datos. En comparación con la memoria flash, ofrece mayor rapidez para ciertos usos embebidos. Y frente a la SRAM, puede ofrecer una mayor densidad en el mismo espacio, gracias al uso de celdas de bit más pequeñas, según las compañías.

Su característica más destacada es la no volatilidad: mantiene los datos incluso cuando se corta la alimentación eléctrica. Esto la hace muy atractiva para dispositivos que necesitan despertar rápidamente, consumir poca energía en reposo o conservar información crítica sin gasto continuo de energía. En el contexto de Edge AI, en el que muchas cargas de trabajo se mueven cerca del usuario o de la máquina, esta propiedad puede contribuir significativamente a reducir el consumo y aumentar los tiempos de respuesta.

Samsung Foundry ha invertido años en el desarrollo de eMRAM como tecnología de memoria no volátil integrada. Su documentación oficial la presenta como una solución compatible con lógica CMOS, con ventajas en velocidad, fiabilidad a altas temperaturas, densidad y ahorro energético. La hoja de ruta de Samsung también contempla ampliar el uso de eMRAM hacia procesos FinFET más avanzados, incluyendo 8 nm.

Un SoC diseñado para IA sin dependencia continua de la nube

El proyecto combina la tecnología Processing Near Memory (PNM) de ICY Tech con la plataforma de diseño de SoC de SEMIFIVE. La estrategia es reducir los movimientos de datos acercando el cálculo a la memoria, lo que mejora la eficiencia en tareas de inferencia. ICY Tech aporta su experiencia en magnetismo, espintrónica y circuitos MRAM, además de diseñar aceleradores para lectura de alto ancho de banda y multiplicación matriz-vector in situ.

Por su parte, SEMIFIVE ha convertido esa arquitectura en un diseño en silicona listo para fabricación. La empresa surcoreana es socio en soluciones de diseño dentro del ecosistema Samsung Foundry SAFE y trabaja en proyectos de ASIC personalizados para IA, HPC y Edge AI. Este representa su primer diseño de ASIC basado en eMRAM, ampliando así su portafolio con arquitecturas que combinan memoria avanzada y aceleración de IA.

El objetivo comercial es claro: dispositivos capaces de ejecutar modelos de IA localmente, con baja latencia, sin necesidad de enviar datos continuamente a servidores externos. Esto resulta aplicable a AI PCs, asistentes personales, robots humanoide, sistemas de automoción, cabinas digitales, vehículos autónomos y dispositivos inteligentes diversos. En todos esos casos, aspectos como la privacidad, la respuesta rápida y la operación offline pueden ser tan importantes como la potencia de cálculo.

ElementoContribución al proyecto
Samsung Foundry 8LPUProceso de 8 nm para fabricación del SoC
eMRAMMemoria no volátil integrada, con consumo reducido en reposo
ICY TechArquitectura PNM, MRAM personalizado y aceleración para inferencia
SEMIFIVEDiseño ASIC completo y conversión a producción en silicio
Edge AIEjecutar modelos localmente sin dependencia constante de la nube
Hasta 2 mil millones de parámetrosCapacidad para tareas como resumen, traducción y diálogos

Importancia para robots, AI PCs y automoción

El Edge AI ya no es una categoría secundaria. Durante años, gran parte de la inteligencia artificial avanzada dependió de centros de datos. Esa arquitectura seguirá siendo fundamental para entrenar grandes modelos y para aplicaciones complejas, pero no puede cubrir todos los casos. Hay usos donde enviar datos a la nube genera latencia, consumo energético, costos, dependencia de red o riesgos para la privacidad.

Por ejemplo, un robot humanoide no puede permitirse esperar a que una respuesta viaje a un servidor remoto y regrese. Un vehículo necesita decidir en tiempo real, con baja latencia. Un ordenador personal con IA integrada puede ofrecer mayor privacidad si algunas tareas se procesan localmente. Igualmente, un agente privado en una organización puede requerir trabajar con datos confidenciales sin exponer esa información a servicios externos.

En estos escenarios, tecnologías como eMRAM y PNM poseen gran potencial. Reducir el movimiento de datos dentro del chip es una de las maneras más eficaces de ahorrar energía. Muchas operaciones en IA no sólo están limitadas por el cálculo, sino también por la transferencia constante de pesos y activaciones. Si parte de ese trabajo se acerca más a la memoria, la eficiencia se puede incrementar notablemente.

Las compañías presentan este SoC como un paso para superar las limitaciones de los diseños edge tradicionales basados en SRAM, donde tamaño y consumo dificultan alojar modelos mayores en el propio dispositivo. Sin embargo, conviene mantener la cautela y esperar datos independientes sobre rendimiento, consumo, coste y fabricación. Que se haya realizado el tape-out no implica aún una comercialización masiva ni validación de mercado.

Además, este chip refleja una tendencia más amplia: los semiconductores específicos para IA se están especializando. No todo será GPU de centro de datos; aparecerán ASICs para inferencia local, NPUs para PCs, aceleradores para automoción, chips para robots, memoria avanzada y arquitecturas diseñadas para cargas específicas. Conforme la IA se acerque al dispositivo, el diseño a medida ganará protagonismo frente a soluciones genéricas.

Un indicador en la carrera asiática por el Edge AI

Este anuncio tiene también una lectura industrial. Asia busca consolidarse no solo en fabricación avanzada, sino también en chips personalizados para IA de borde. La alianza entre SEMIFIVE, ICY Tech y Samsung Foundry combina diseño ASIC, memoria emergente y procesos de fabricación en un producto dirigido a aplicaciones comerciales. Si el proyecto avanza hacia producción, reforzará el papel de Samsung Foundry en tecnologías eMRAM avanzadas y posicionará a SEMIFIVE como referente en ASICs con memorias innovadoras.

Para ICY Tech, el tape-out valida su transición desde la investigación en magnetismo y espintrónica hacia productos en silicio real. Originada en el Applied Magnetism Center de la Universidad de Pekín, la firma busca diferenciarse mediante arquitecturas basadas en MRAM para inferencia de alto ancho de banda. En un mercado lleno de NPUs, GPUs compactas y aceleradores propietarios, esa diferenciación será útil si logra demostrar buen rendimiento por vatio y costes competitivos.

El siguiente paso consistirá en verificar si el chip cumple realmente las promesas fuera del comunicado oficial. Será clave obtener muestras, realizar pruebas con modelos reales, validar con clientes potenciales, evaluar costos de fabricación y rendimiento térmico, y trazar una estrategia clara para llegar a volumen. En semiconductores, el tape-out marca la finalización del diseño y su envío a fabricación, pero la historia comercial empieza posteriormente.

El rumbo es significativo: la IA local requiere algo más que modelos pequeños. Precisa chips capaces de realizar inferencia eficiente, con memoria integrada que reduzca el consumo, y arquitecturas adaptadas a tareas específicas. La eMRAM de 8 nm puede convertirse en una de las tecnologías clave para esta próxima generación de dispositivos inteligentes.

Preguntas frecuentes

¿Qué han anunciado SEMIFIVE e ICY Tech?
El tape-out de un SoC de Edge AI basado en eMRAM de 8 nm, desarrollado con el proceso 8LPU de Samsung Foundry y orientado a inferencia local de bajo consumo.

¿Qué es eMRAM?
Es memoria magnética integrada en el chip que conserva datos sin alimentación, no requiere refresco periódico como la DRAM y ayuda a reducir el consumo en dispositivos embebidos.

¿Qué implica soportar modelos de hasta 2 mil millones de parámetros?
Que, según los fabricantes, la arquitectura permite ejecutar en el propio dispositivo modelos de IA de hasta 2.000 millones de parámetros, aptos para tareas como resumen, traducción o diálogos simples.

¿En qué tipos de dispositivos se podría aplicar esta tecnología?
Aplicaciones previstas incluyen AI PCs, asistentes personales, robots humanoides, automoción, cabinas digitales, vehículos autónomos y dispositivos inteligentes que requieran inferencia en local.

vía: prnewswire

Scroll naar boven