• Compra aquí
  • Soporte
  • 选择 语言 US CA
    Seleccionar país:

    Estados Unidos - Inglés

    • Todos los países / regiones
    • Norteamérica
    • América Latina
    • Asia y el Pacífico
    • Europa
    • China mas grande

Los rápidos avances en inteligencia artificial (IA) están siendo habilitados por las unidades de procesamiento de gráficos (GPU) que Nvidia diseñó originalmente para el mercado de los videojuegos. Las organizaciones que buscan capitalizar las capacidades de las GPU de Nvidia deben preparar sus centros de datos para una densidad de potencia extrema y el calor que la acompaña.

Nvidia revolucionó los juegos de computadora con su GPU. Estos circuitos especializados pueden producir un movimiento más limpio, más rápido y más suave en los videojuegos al realizar múltiples cálculos matemáticos simultáneamente.

Luego, en 2007, Nvidia se movió más allá del mercado de los juegos cuando fue pionera en el concepto de "computación acelerada por GPU". Las GPU se combinan con las unidades de procesamiento informático (CPU) tradicionales en entornos de procesamiento masivamente paralelos que hacen que los programas informáticos se ejecuten más rápido. Ese desarrollo proporcionó el "empuje" de procesamiento necesario para habilitar funciones esenciales de IA, como el aprendizaje profundo.

El aprendizaje profundo es un modelo informático diseñado para imitar libremente la forma en que el cerebro humano trabaja con las neuronas y las sinapsis. Las GPU de Nvidia se utilizan para crear las llamadas "redes neuronales artificiales" que utilizan una gran cantidad de nodos altamente interconectados que trabajan al unísono para analizar grandes conjuntos de datos. Esto le da a una máquina la capacidad de descubrir patrones o tendencias y aprender de esos descubrimientos. Esta es la esencia de la inteligencia artificial.

Las diferencias arquitectónicas clave entre una CPU y la GPU de Nvidia lo hacen posible. Una CPU tiene algunos núcleos con mucha memoria caché que pueden manejar algunos subprocesos de software a la vez. Las CPU también están optimizadas para el procesamiento secuencial: la ejecución de procesos en el orden en que se reciben. Las GPU tienen cientos de núcleos que pueden manejar miles de subprocesos y ejecutar múltiples procesos simultáneamente.

La computación acelerada por GPU puede ejecutar algún software 100 veces más rápido que con una CPU sola. Eso lo hace perfecto para el tipo de algoritmos de aprendizaje profundo que están impulsando una variedad de aplicaciones de inteligencia artificial.

Las GPU también plantean desafíos importantes al entorno del centro de datos. Si bien las CPU se han vuelto cada vez más eficientes energéticamente, las GPU consumen mucha energía. La adopción de la computación acelerada por GPU conduce a una mayor densidad de potencia en el centro de datos, del orden de 30 kW a 40 kW por rack según algunas estimaciones. Muchos centros de datos de hiperescala solo consumen alrededor de 10 kW por rack.

Las densidades de energía de esa magnitud significan cargas de calor significativamente mayores, que pocos entornos están preparados para manejar. La contención de los pasillos calientes es esencial, junto con los sistemas de enfriamiento en fila que enfocan su capacidad en los equipos cercanos. El enfriamiento en fila captura y neutraliza el aire de escape caliente antes de que pueda escapar al centro de datos.

Los sistemas de enfriamiento de agua helada a menudo se recomiendan para la computación acelerada por GPU porque el agua tiene aproximadamente cuatro veces la capacidad térmica del aire. Sin embargo, el enfriamiento en fila proporciona una mayor eficiencia al acortar la trayectoria del flujo de aire y reducir el volumen de espacio a enfriar.

Refrigeración en fila Enconnex Las unidades le brindan la flexibilidad de elegir el refrigerante de su elección. Disponible en agua condensada, agua enfriada y configuraciones DX enfriadas por aire y agua, Refrigeración en fila Enconnex las unidades brindan más de 100 kW de capacidad de enfriamiento pero se adaptan cómodamente a cualquier entorno de centro de datos.

Las GPU de Nvidia se están utilizando para acelerar cientos de aplicaciones impulsadas por IA para usos tales como química cuántica, dinámica de fluidos, edición de video e imágenes médicas. Las organizaciones que buscan aprovechar la IA deben asegurarse de que las infraestructuras de su centro de datos puedan manejar el calor generado por estos potentes chips.

Rahi Systems expondrá en Nvidia Conferencia de tecnología GPU, Del 26 al 29 de marzo en San José, California. Pase por el stand n. ° 1225 para obtener más información sobre nuestra solución de enfriamiento en fila y ¡recoja su obsequio gratis!

 

error: Contenido está protegido !!
X