El Gran Colisionador de Hadrones está absorbiendo tarjetas gráficas a un ritmo cada vez mayor

No se asuste, la gente del CERN no se lanza tarjetas gráficas entre sí debajo de Suiza para ver qué sucede cuando las partículas de la GPU chocan. En realidad, están utilizando el silicio de gráficos de Nvidia para reducir la cantidad de energía que necesita para calcular qué sucede cuando el Gran Colisionador de Hadrones (LHC) choca con otras cosas. 

Partículas y cosas. Quarks de belleza. Ya sabes, cosas de ciencia.

No es ningún secreto que, si bien la humilde GPU se concibió originalmente con el propósito expreso de arrojar polígonos alrededor de una pantalla de la manera más eficiente, resulta que la destreza de procesamiento paralelo de los chips gráficos modernos lo convierte en una herramienta increíblemente poderosa en la comunidad científica. Y uno increíblemente eficiente, también. De hecho, A Large Ion Collider Experiment (ALICE) ha estado utilizando GPU en sus cálculos desde 2010 y su trabajo ahora ha fomentado su mayor uso en varios experimentos del LHC.

La posible mala noticia es que significa que hay otro grupo desesperado por la cantidad limitada de silicio de GPU que sale de las fábricas de TSMC y Samsung. Aunque al menos este lote lo usará para un propósito más elevado que extraer monedas de dinero falso.

¿Verdad, chicos? No solo estarías extrayendo Ethereum ahora, ¿verdad?

En el lado positivo, los nodos candidatos del CERN actualmente utilizan tecnología de última generación. Para el próximo LHC Run 3, donde la máquina se vuelve a poner en servicio para un “período de producción física de tres años” después de una pausa de tres años, los nodos se representan usando un par de CPU Milan de 64 núcleos de AMD junto con dos Nvidia Tesla basados ​​en Turing. GPU T4.

See also  Enorme rayo rompe récords en 3 estados de EE. UU.

Está bien, nadie les dice cuánto más efectiva es la arquitectura Ampere en términos de poder de cómputo directo, y creo que estaremos bien. De todos modos, como calcula el CERN, si solo estuviera usando nodos puramente basados ​​en CPU para analizar los datos, necesitaría alrededor de ocho veces la cantidad de servidores para poder ejecutar sus algoritmos de compresión y reconstrucción en línea al ritmo actual. Lo que significa que ya se siente bastante bien consigo mismo. 

Dado que tales aumentos de eficiencia realmente se suman para una instalación que funcionará durante tres años seguidos, cambiar cada vez más al procesamiento de GPU parece un muy buen plan. Sobre todo porque, a partir de este año, el experimento de belleza del Gran Colisionador de Hadrones (LHCb) procesará nada menos que 4 terabytes de datos por segundo en tiempo real. Aparte del nombre de ese experimento, llamado así porque está comprobando una partícula llamada “quark de belleza”, esa es una cantidad aterradora de datos para procesar.  

refrescándose

El Gran Colisionador de Hadrones está absorbiendo tarjetas gráficas a un ritmo cada vez mayor

(Crédito de la imagen: Cooler Master, EKWB)

El mejor enfriador AIO para CPU : todo en uno y uno para todos… los componentes.
Los mejores enfriadores de aire de CPU: ventiladores de CPU que no hacen brrr.

“Todos estos desarrollos se están produciendo en un contexto de evolución y diversificación sin precedentes del hardware informático”, dice Vladimir Gligorov de LHCb, quien dirige el proyecto Real Time Analysis. “Las habilidades y técnicas desarrolladas por los investigadores del CERN mientras aprenden cómo utilizar mejor las GPU son la plataforma perfecta para dominar las arquitecturas del mañana y usarlas para maximizar el potencial físico de los experimentos actuales y futuros”.

See also  Ahorre hasta $ 340 en computadoras portátiles y de escritorio Lenovo RTX 3060 este Día del Presidente

Maldita sea, parece que tiene al menos un ojo puesto en las generaciones más recientes de GPU para estaciones de trabajo Nvidia. Así que supongo que terminaremos luchando contra los científicos por el silicio gráfico después de todo.

bullfight-doc
bullfight-doc