GPU de 7 nm de una empresa china programada para grabar en el tercer trimestre: para competir con la GPU Tensor Core de 5 nm de próxima generación de NVIDIA

GPU de 7 nm de una empresa china programada para grabar en el tercer trimestre: para competir con la GPU Tensor Core de 5 nm de próxima generación de NVIDIA

El fabricante chino de chips Biren Technology planea grabar (finalizar el diseño) su primera GPU de 7 nm en el tercer trimestre de este año, con un lanzamiento oficial previsto para 2022. Según el director de tecnología de la compañía, Mike Hong, la GPU se diseñará para entrenar redes neuronales. y el aprendizaje automático, y se enfrentará a la GPU central Tensor de próxima generación de NVIDIA (basada en la microarquitectura Ada Lovelace). Si bien es probable que este sea el mejor de los casos, sigue siendo una afirmación elevada, algo que no se materializará en la mayoría de los puntos de referencia del mundo real.

Esto es aún más obvio si se tiene en cuenta que la GPU A100 Tensor Core basada en Ampere puede aumentar su rendimiento general en 20 veces cuando se usa escasez (un formato de cálculo de baja precisión con matrices dispersas). Al igual que las GPU Tesla de NVIDIA y la nueva A100, la GPU de Biren está dirigida a centros de datos que requieren soporte para cómputo de baja precisión como FP16, INT16 e INT8. Como tal, no será capaz de renderizar gráficos como las GPU convencionales y la canalización de gráficos será reemplazada por una estructura orientada a la computación.

La compañía busca aprovechar las unidades de procesamiento de flujo de datos y una jerarquía de caché avanzada con paquetes de memoria 3D (memoria HBM integrada) en lugar de solo procesadores vectoriales que son la base de las GPU tradicionales. El primero parece parecerse a las DPU de NVIDIA, que son una adición relativamente nueva al espacio del centro de datos y deberían permitir que la GPU sea más flexible en términos de sus capacidades de procesamiento de datos.

A unidad de procesamiento de datos (DPU) es un circuito electrónico especializado programable con aceleración por hardware del procesamiento de datos para computación centrada en datos. Los datos se transmiten hacia y desde el componente como paquetes de información multiplexados. Una DPU generalmente contiene una CPU, NICy datos programables motores de aceleración. Esto permite que las DPU tengan la generalidad y la capacidad de programación de las unidades centrales de procesamiento, al mismo tiempo que se especializan para operar de manera eficiente en paquetes de redes, solicitudes de almacenamiento o solicitudes de análisis.

El motor de aceleración de datos se diferencia de una CPU por un mayor grado de paralelismo (necesario para procesar muchas solicitudes) y de una GPU por un MIMD arquitectura más bien una arquitectura SIMD (requerida ya que cada solicitud necesita tomar decisiones diferentes y seguir un camino diferente a través del chip). Las DPU pueden estar basadas en ASIC, FPGA o SoC. Las DPU se han utilizado cada vez más en centros de datos y supercomputadoras desde su introducción en la década de 2010 debido al aumento de la computación centrada en datos, big data e inteligencia artificial / aprendizaje automático / aprendizaje profundo. Las DPU están diseñadas para ser puntos finales de infraestructura independientes.[[

Wikipedia

Vía: CNTechPost

0 0 votes
Puntuación de la entrada
Subscribe
Notify of
0 Comentarios
Inline Feedbacks
View all comments
A %d blogueros les gusta esto: