Archive

Archive for the ‘HPC’ Category

Tianhe-2, continua por 5ª vez como el ordenador más potente del mundo

August 19th, 2015

La nueva lista de los superordenadores más potentes del mundo muestra un estancamiento de la supercomputación a nivel mundial. De acuerdo a la nueva lista publicada hace unos días en top500.org de los ordenadores más potentes del mundo, a día de hoy Junio de 2015, el ordenador más potente del mundo continua siendo el chino Tianhe-2 (Vía Láctea-2). Este superordenador está instalado en la National University of Defense Technology (NUDT) de China y es el sucesor tecnológico de Tianhe-1A, instalado en el National Supercomputer Center en Tianjin que ya fué número 1 del top500 en la lista de Noviembre de 2010.

 

#500 supercomputer in top500Antes de entrar a comentar los detalles técnicos de este coloso, comentar que es la quinta vez consecutiva que ocupa el número 1 en la lista semestral del top500, es decir, lleva 2 años y medio como el ordenador más potente del mundo e iguala el hito del Earth Simulator japones (2002-2004). Esta es una situación atípica. La potencia de los ordenadores avanza muy rápidamente y es anormal que en 2 años no haya salido ningún nuevo superordenador que haya podido superarlo. Pero no es el único dato preocupante. Ha este dato hay que añadir, por ejemplo, que entre los 10 primeros ordenadores de esta lista apenas lleva habiendo cambios, en las 4 últimas listas sólo ha habido 4 nuevas entradas. La edad de los sistemas en el top10 no tiene precedentes. Otro dato claro que nos habla sobre la ralentización es que para el último sistema de la lista, la posición 500 tiene un comportamiento más suave o continuo que el número 1, el incremento en la potencia en el periodo 1994-2008 era de un 90% anual mientras que el los últimos 6 años ha sido del 55%. En la última lista se aprecia también que la suma de la potencia de los 500 sistemas de la lista se ralentiza dado que durante los primeros años en los que se empezó a notar el cambio de tendencia en la cola de la lista en global aún se mantenía el crecimiento debido a los nuevos superordenadores en la parte alta. Esta tendencia parece que puede romper en un futuro cercano (2016-2018) pues el gobierno de EE.UU ha lanzado el proyecto CORAL con el que pretende desarrollar dos máquinas de nivel pre-exascala (exaFLOP=1000 PFLOPS) financiado con 235 millones de dolares y otros 100 millones en desarrollo tecnológico y el Presidente Obama a lanzado una iniciativa a cinco años para impulsar la supercomputación.

Tianhe-2 Supercomputer

Tianhe-2 Supercomputer

Tianhe-2 está formado por 16.000 nodos cada uno de los cuales tiene 2 procesadores Intel Xeon Ivy Bridge y 3 coprocesadores para acelerar los cálculos Xeon Phi. Esto hace un total de 3.120.000 cores de cálculo, 384.000 Xeon y 2.736.000 cores en los coprocesadores Phi. Es una novedad que tenga 3 coprocesadores por nodo pues lo habitual son uno o dos. Estos cores le dotan de un rendimiento teórico ejecutando operaciones matemáticas de 54,9 PFLOPS (Peta=10^15 FLoating-point Operation Per Second, 1.000.000.000.000.000 operaciones matemáticas por segundo) y en el benchmark LINPACK alcanza un rendimiento real de 33,9 PFLOPS, lo cual es casi el doble que el anterior número 1 Titan.

La red de interconexión entre los nodos es un diseño propio, TH Express-2, y trata de evitar que las comunicaciones sean un cuello de botella gracias al ancho de banda bidireccional de 16 GB/s, baja latencia y topología fat tree. Tianhe-2 usa el sistema operativo Kylin, basado en Linux, y también desarrollado por la NUDT y optimizado para HPC. El hecho de estar basado en un estándar como Linux le da mucha flexibilidad a la hora de ejecutar muchos códigos sin necesidad de reprogramarlos específicamente.

Tianhe consume 17.8 MW, que equivale aproximadamente al consumo de 27.000 familias, a pesar de lo cual es también en un supercomputador muy eficiente dado el alto número de FLOPS por watio que realiza, aunque cuando se anuncie la lista green500.org de los computadores energéticamente más eficientes del mundo probablemente ocupará entorno al puesto 40.

De acuerdo a la NUDT Tianhe-2 estará dedidado a aplicaciones de simulación, análisis y seguridad nacional.

Datos más relevantes

Marca y modelo Diseño propio
Nº de cores 3.120.000: 384.000 cores xeon y 2.736.000 cores Phi
Procesador Intel Xeon E-2692 de 12 cores a 2.2 GHz
Coprocesador Intel Phi 31S1P de 57 cores a 1,1 GHz
Interconexión TH Express-2
Sistema Operativo Kylin
FLOPS teóricos 54,9 PetaFLOPS
FLOPS Linpack 33.9 PetaFLOPS
Potencia eléctrica 17.8 MW
FLOPS/W 1.9 GigaFLOPS

HPC

El superordenador más potente del mundo

June 20th, 2015

El superodenador Sunway TaihuLight es el nuevo superordenador más potente del mundo. Este superordenador chino ha relegado al segundo lugar de la lista de supercomputadoras más potentes del mundo top500.org al también chino Tianhe-2, que ha permanecido 6 listas consecutivas (se actualiza semestralmente) como la supercomputadora más potente del mundo

Sunway TaihuLight tiene un rendimiento teórico de 125 PetaFLOPS y un rendimiento real de 93 PetaFLOPS con el benchmark HPL (High Performance Linpack) lo que representa una eficiencia del 74%. Con esto casi triplica el rendimiento de su antecesor el Tianhe-2 (34 PetaFLOPS y una eficiencia del 62%) con además una eficiencia superior.

sunway-taihulight-300x240Uno de los hitos más importantes de Sunway TaihuLigth es que está construido con tecnología 100% china, entre ellas el procesador el SW26010, con lo que consigue la independencia tecnológica de EE.UU. SunWay TaihuLight no usa coprocesadores sino 40.960 nodos, con 4 procesadores cada nodo, con 64 cores de cómputo más otro de gestión que también participa del cálculo para un total de más de 10,5 millones de cores. No obstante, Sunway TaihuLight a causa de su acceso a memoria y su red de comunicación tiene un rendimiento más pobre en el bechmark más actual HPCG (High Performance Conjutate Gradients), donde incluso el Tianhe-2 lo supera, lo que puede suponer que no sea tan eficaz corriendo un espectro más amplio de aplicaciones. No obstante, si hay software que se ha desarrollado paralelamente al proyecto del hardware y que corre muy eficientemente en Sunway TaihuLigth.

China desbanca a EE.UU en el Top500

En la lista de Junio de 2016 es la primera vez en la historia del Top500 que EE.UU no es el país con el mayor número de sistemas instalados. En esta lista dispone de 165 sistemas que supera China con 167 supercomputadoras. China también es el país que más rendimiento aglutina en toda la lista, gracias especialmente a los dos superordenadores que tiene como números 1 y 2 de la lista.

 

General, HPC

El HPC ayuda a crear héroes

June 16th, 2015

Este vídeo nos muestra como el HPC ayuda a los artistas a realizar películas de animación 3D más realistas como podemos ver en las películas de Disney Frozen, Enredados o Big Hero 6. En las películas de animación 3D muchos de los movimientos de los objetos no se dibujan arbitrariamente sino que se rigen y calculan con leyes físicas programadas por ordenador. Así mismo se definen las propiedades físicas de las superficies y la posición de los focos de luz y la escena se ilumina calculando las trayectorias de los rayos de luz, un proceso tremendamente complejo.

 

 

HPC

Cómo la computación mejora nuestra vida cotidiana

June 11th, 2015

Este vídeo nos muestra como desde pasta de dientes a pañales o detergente, compañías como Procter&Gamble usan Computación de Altas Prestaciones para crear productos mejores, más eficientes, más competitivos, rentables y servicios para mejorar nuestra vida cotidiana.

HPC

El techo de cristal en computación, ¿realmente hago la ciencia que quiero?

June 4th, 2015

Un techo de cristal es una barrera que impide o limita el desarrollo o crecimiento pero que no se percibe. En computación también podemos encontrar un techo de cristal que impide el desarrollo potencial de una mejor I+D+i. El origen primero de este techo de cristal es la falta de una profesionalización del cálculo científico como actividad. La falta de recursos adecuados es un techo bien palpable por el investigador. No obstante, el efecto indirecto en su investigación a veces puede pasar desapercibido debido debido a los mecanismos subconscientes de nuestro cerebro para descartar posibilidades. Es decir, la palpable y directa ausencia de recursos suficientes genera un techo en nuestra investigación, pero no siempre se es consciente de su existencia, no se visualiza como una barrera y por tanto se plantea como obstáculo a superar.

¿Dónde está el techo de cristal?

techo-de-cristalPara encontrarlo partamos de la situación más típica que es cuando un investigador empieza a computar, a realizar cálculo científico. Evidentemente todos los investigadores tienen un PC en el que han realizado pequeños cálculos con hojas de cálculo, gráficos, etc. por lo que empezar a calcular en ese mismo PC es algo natural, de hecho en muchos casos los primeros cálculos suelen ser más sencillos y perfectamente ejecutables de forma casi inmediata en los PCs. No obstante, suele seguir un proceso de profundización y crecimiento de la complejidad que puede llevarnos al hecho que comenzamos a percibir que nuestro PC tiene unas limitaciones, y eso por supuesto es una limitación para el desarrollo de nuestra I+D+i.

Evidentemente esta barrera impuesta por los limitados recursos computacionales de nuestro PC es un techo de vigas y cemento bien palpable por los investigadores, pero genera también un sutil techo de cristal. Por supuesto, el investigador será consciente de lo que sus recursos le permiten hacer y no abordará proyectos que lo superen, será consciente de las ideas que puede llevar adelante y las que ha de aparcar y en su caso podría tratar de buscar soluciones para sortear esta barrera. El problema son los proyectos que estamos apartando por inviables de forma subconsciente,  esto nos puede dar una falsa percepción sobre nuestras verdaderas posibilidades dado que no vamos a evaluar y menos tratar de llevar a cabo proyectos que no nos estamos planteando.

Esto al lector le puede parecer absurdo o poco probable, o tal vez es que verdaderamente el techo de cristal le es invisible.

Un ejemplo se da en el ajedrez. El jugador sabe o evalúa de forma generalista donde están los puntos de interés de la partida en el tablero y evalúa unos pocos movimientos interesantes de entre todas las combinaciones existentes. La inmensa mayoría de las combinaciones son descartadas de forma automática y no consciente. Esto permite al ajedrecista jugar una buena partida a pesar de apenas explorar combinaciones, pero es también su perdición porque en muchos casos no se evalúan jugadas ganadoras. De hecho es un comentario habitual a posteriori el comentar “no vi esta jugada”, no la evaluó, fue invisible para el jugador (hasta existe el libro “Las jugadas invisibles en ajedrez”).

Este es un ejemplo de como nuestro cerebro toma decisiones lógicas basadas en nuestro conocimiento sin que seamos conscientes de ello, y como en el caso que nos ocupa puede estar creando un techo de cristal al investigador que no siempre es consciente de todos los proyectos que no está llevando a cabo. La cuestión que se plantea en este artículo no es que líneas evalúa el investigador, sino las que habrá descartado inconscientemente.

 Profesionalización de la computación

Una de las maneras de evitar este techo de cristal es la profesionalización. No nos cabe duda de que si vamos a comenzar una actividad profesional en la que queremos ser competitivos tendremos que recurrir a las herramientas adecuadas. Así, aunque la mayoría disponemos de un coche particular si para llevar a cabo nuestra actividad profesional necesitamos un vehículo de competición, de carga, de transporte de pasajeros, etc. lo adquirimos y no usamos nuestro vehículo personal, pues aunque en algunos casos podría ser suficiente para llevar a cabo la actividad no resultaría adecuado o competitivo.

En computación no se da este caso y muchos investigadores no recurren a entornos profesionales de cálculo, por decisión propia, por desconocimiento o por lo que podríamos denominar tal vez, falta de cultura en este sentido. Por aclarar esto último creo que a sería muy llamativo que un investigador comprase cristalería del Ikea para su laboratorio, aunque le podría ser suficiente en algunos casos, pero no es tan llamativo usar PCs domésticos para calcular.

En estos casos a la larga pueden verse afectados por el techo de cristal. Todos los años tenemos casos de investigadores que finalmente recurren a nosotros con cálculos que ya les son imposibles y les están produciendo situaciones de penuria, pero que para nuestras máquinas de cálculo profesionales son de pequeño tamaño.

Evidentemente un cluster como el del Servicio de Cálculo de la UPV/EHU también tiene sus limitaciones, pero el salto cualitativo de un PC a un cluster como el nuestro es mayor que el de nuestro cluster a los superordenadores más potentes del mundo. El investigador ya está usando un entorno y metodologías profesionales, la barrera física de los recursos no sólo está mucho más arriba sino que es más permeable y es más fácil encontrar soluciones a los problemas, por lo que no serán descartados inconscientemente tantos problemas científicos porque la metodología de trabajo es totalmente diferente.

HPC

Vídeo sobre como el HPC en meteorología puede salvar vidas

May 7th, 2015

La computación de altas prestaciones o HPC (por sus siglas en inglés) ayuda a los meteorólogos a realizar predicciones más precisas y en menos tiempo tiempo para avisar a la población de eventos cambiantes y peligrosos como tormentas, huracanes y temporales, salvando vidas, protegiendo recursos e infraestructuras y ahorrando dinero.

HPC

Computing Aided Design o el HPC en la empresa

March 27th, 2015

cadHace 50 años no se existía el CAD (Computer Aided Design) pero hoy en día el diseño industrial no se puede entender sin él. La evolución de los modelos de simulación que permiten simulaciones realistas de sistemas, su implementación en software y el incremento de la potencia del hardware hace posible la implementación de física y química en los modelos CAD en lo que podemos considerar un cambio de paradigma a un nuevo Computing Aidded Design, por realizar un juego de palabras. Probablemente dentro de unos años no se podrá entender el diseño industrial sin la simulación. No obstante actualmente no es un estándar y por eso el hacer computing aided design nos pone un paso por delante del resto y hacerlo con HPC nos pone 2 pasos por delante.

La computación de altas prestaciones (HPC por sus siglas en inglés) está ampliamente extendida en entornos académicos donde es una infraestructura científica que podríamos clasificar de tradicional. El HPC ha permitido grandes avances de la Ciencia a través del conocimiento adquirido por sus simulaciones o por el tratamiento masivo de datos que es capaz de realizar. En la empresa, especialmente en la mediana y pequeña su uso no es tan amplio.

Potencial del HPC y estatus en entornos académicos

Tenemos que tener en cuenta que no hablamos del uso de una estación de trabajo más o menos potente para realizar I+D+i, eso no es HPC. Cuando hablamos de HPC o supercomputación hablamos de retos científico-tecnológicos que requieren potentes clusters o superordenadores, una infraestructura científica que nos permite abordarlos y obtener investigación e innovación con un alto valor añadido. La necesidad de estas potentes máquinas vendrá determinada por que la simulación o cálculo matemático que requerimos hacer es muy complejo. Esta complejidad puede aflorar porque el modelo matemático que necesitamos emplear es complejo o porque el sistema es de tal tamaño o hay que representarlo con tal precisión que necesita grandes recursos computacionales, o ambos a la vez. También se puede dar la circunstancia de que siendo un problema que individualmente no es muy pesado si es necesario un gran número de repeticiones o variantes. Desde el punto de vista de retos que requieran el tratamiento de datos la complejidad puede venir dada por  que la cantidad de datos es enorme o porque extraer la información contenida en los datos requiere de un procesamiento complejo.

Este tipo de problemas se abordan en  Ciencia y las instituciones académicas o grupos de investigación se han provisto de las herramientas e infraestructura que necesitaban para realizar HPC o supercomputación. Las grandes empresas del sector de la aeronáutica, finanzas, petróleo, tecnológicas, etc  que lo han necesitado también disponen de esta infraestructura sin la que no podrían competir e incluso llevar adelante su actividad. No obstante, su uso en la empresa no es tan extendido, especialmente en la pequeña y mediana empresa, aunque de eso hablaremos en otro post.

HPC en la empresa

Las ventajas competitivas del HPC emergen al conseguir integrar el HPC en el proceso productivo, integración que puede ir desde el diseño hasta la producción. Desgranémoslo por etapas y dejemos para el final los beneficios acumulados globales .

Diseño en etapa temprana

Con la simulación se obtiene una información completa del sistema que nos permite reconocer mejor los elementos clave e incluso descubrir aspectos que escapan a la intuición o conocimiento dado que hoy en día los productos óptimos son cada vez más complejos. Esto incluso pueden abrir nuevos caminos de innovación. En las etapas tempranas de diseño la simulación nos va a permitir conocer la física y comportamiento de nuestro producto e identificar más claramente cuales pueden ser las líneas de mejora a seguir. Nos va a guiar en las líneas más prometedoras y vamos a descartar rápidamente diseños fallidos.

Diseño

En principio la simulación o análisis de modelos virtuales en el ordenador es en general mucho más barata y rápida que con prototipos reales. Se pueden realizar más ensayos virtuales que nos permiten ir mejorando en base a resultados y lógica, incluso se pueden usar técnicas de optimización automática y obtener un número reducido de prototipos exitosos a construir. Ayuda en el diseño de los test reales a realizar dado que se conocen de antemano los elementos donde realizar medidas o modificaciones.

Producción

El diseño y optimización de la infraestructura y procesos de la cadena productiva son igualmente sensibles al uso del HPC, además de la adecuación del producto al proceso de producción. Otros factores de logística sobre todo en el caso de distribución masiva o bajo demanda pueden ser igualmente susceptibles de simulación.

Beneficios tangibles

Los beneficios clave que el HPC reporta a una empresa son varios. La simulación nos permite reducir el número de prototipos a los más prometedores, descubrir y centrarnos en elementos y evitar prototipos fallidos en una fase temprana de diseño. Esto tiene un claro efecto en la reducción de costes. Otro efecto es la reducción del “tiempo a mercado” que nos vuelve más dinámicos y permite adelantarnos a la competencia. El apoyo del HPC en definitiva se traduce en productos de mayor calidad, mejor diseñados, más eficaces, más baratos. Se da un mayor grado de innovación, competitividad y por tanto mejor retorno de la inversión e innovación más rápida.

Información complementaria

También podéis ver el vídeo que hay en este post y que ha producido por el “Council on Competitiveness” de EE.UU., que es una asociación que trabaja por mantener a EE.UU. como un país competitivo:

Supercomputación, ¿para qué?

 

 

 

General, HPC

Workshop CFD y Supercomputación, I+D+i más competitiva

March 11th, 2015

En el workshop que se celebrará en Bilbao el día 24 de Marzo se presentarán investigaciones en CFD y como la supercomputación o computación de altas prestaciones (HPC) influye en la investigación y el CFD. A la tarde habrá una sesión privada para investigadores de la UPV/EHU con técnicos especialistas de la empresa CD-Adapco.

Página web del workshop:

http://www.ehu.eus/es/web/cfd-y-supercomputacion

 

cfd

.

HPC, IZO-SGI

Curso de programación paralela y optimización en Bilbao

March 6th, 2015

BCAM – Basque Center for Applied MathematicsEl Basque Center for Applied Mathematics (BCAM) organiza este curso los días 27 y 28 de Abril en Bilbao. Se hará una introducción a las diferentes arquitecturas (memoria compartida/distribuida, aceleradoras) y los modelos de programación más habituales (OpenMP, MPI y CUDA) y se programará en ellos.

 

Agenda

El curso es en inglés.

Monday (27/04/2015)
9:30 – 11:30 Sequential Optimizations-Shared Memory Programming (OpenMP)
11:30 – 13:30 Lab

Tuesday (28/04/2015)
9:30 – 11:30 Distributed Memory Programming (MPI)-GPU Programming (CUDA)
11:30 – 13:30 Lab

Más información

Página web del curso.

.

General, HPC

HPC: Making our world a safer place

March 4th, 2015

En este vídeo se nos muestra brevemente por que la computación de altas prestaciones (High Performance Computing) HPC importa.

La supercomputación es una herramienta empleada en problemas matemáticos, simulaciones físicas y químicas, medicina, ingeniería, meteorología y climatología, geología, etc. y está presente en la vida cotidiana donde se ha empleado en el diseño, construción, producción o distribución de hasta los elementos más inesperados.

 

 

General, HPC