Archive

Archive for May, 2016

Massively Parallel Systems Summer School (PUMPS-2016)

May 20th, 2016

Introduction

Barcelona Computing Week 2014, July 11-15, at BSC/UPC, Barcelona.

BSC - Barcelona Supercomputing CenterThe BSC/UPC has been awared by Nvidia as GPU Center of Excellence. The Programming and tUning Massively Parallel Systems Summer School (PUMPS) offers researchers and graduate students a unique opportunity to enrich their skills with cutting-edge technique and hands-on experience in developing applications for many-core processors with massively parallel computing resources like GPU accelerators.

Participants will have access to a multi-node cluster of GPUs, and will learn to program and optimize applications in languages such as CUDA and OmpSs. Teaching assistants will be available to help with assignments.

 

Important information

  • Applications due: May 31
  • Notification of acceptance: June 10
  • Summer school dates: July 11-15, 2014
  • Location: Barcelona Supercomputing Center / Computer Architecture Dept. at Universitat Politecnica de Catalunya, Barcelona, Spain. Room TDB.

Lecturers

  • Distinguished Lectures:
    • Wen-mei Hwu, University of Illinois at Urbana-Champaign.
    • David Kirk, NVIDIA Fellow, former Chief Scientist, NVIDIA Corporation.
  • Invited Lecturer: Juan Gómez Luna (Universidad de Cordoba).
  • BSC/UPC Lecturers:
    • Xavier Martorell
    • Xabier Teruel
  • .Teaching Assistants:
    • Abdul Dakkak, Carl Pearson, Simon Garcia de Gonzalo, Marc Jorda, Pau Farre, Javier Bueno, Aimar Rodriguez.

The list of topics

  • CUDA Algorithmic Optimization Strategies.
  • Dealing with Sparse and Dynamic data.
  • Efficiency in Large Data Traversal.
  • Reducing Output Interference.
  • Controlling Load Imbalance and Divergence.
  • Acceleration of Collective Operations.
  • Dynamic Parallelism and HyperQ.
  • Debugging and Profiling CUDA Code.
  • Multi-GPU Execution.
  • Architecture Trends and Implications
  • FORTRAN Interoperability and CUDA Libraries.
  • Introduction to OmpSs and to the Paraver analysis tool.
  • OmpSs: Leveraging GPU/CUDA Programming.
  • Hands-on Labs: CUDA Optimizations on Scientific Codes. OmpSs Programming and Tuning.

More information

 

 

Anuncios, HPC

Breve revisión de la computación en GPU, evolución en Nvidia

May 17th, 2016

Autor: Luis Fer Coca, alumno del centro IEFPS Elorrieta-Erreka Mari en prácticas en el IZO-SGI.

 

La GPU o Unidad de Procesamiento de Gráficos es un coprocesador dedicado al procesamiento de gráficos, que sirve para aligerar la carga de trabajo del procesador en el procesamiento de los gráficos a mostrar en pantalla.

Pero en 2007 surgió el cálculo acelerado en la GPU, que lo podemos definir como el uso de una unidad de procesamiento gráfico en combinación con la CPU para acelerar los análisis y cálculos de aplicaciones de investigación, empresa, consumo, ingeniería,etc. Desde entonces, las GPU aceleradoras han pasado a instalarse en centros de datos de laboratorios gubernamentales, universidades, grandes compañías y PYMEs de todo el mundo.

El uso y mercado de las GPU, ya no es sólo como tarjetas gráficas para disfrutar de los últimos videojuegos con la mejor calidad, si no que también en el sector del HPC con ordenadores de alto rendimiento que ejecutan miles de millones de operaciones, y donde las GPUs hacen determinadas operaciones más rápidas que una CPU del mismo rango.

La GPU frente al procesador

cpu and gpuUna forma sencilla de entender la diferencia entre el procesador y la GPU es comparar la forma en que procesan las tareas. Un procesador está formado por varios núcleos de propósito general, mientras que una GPU consta de millares de núcleos más pequeños y eficientes, diseñados para ejecutar múltiples operaciones matemáticas simultáneamente.

Las GPUs en el Top500

gpu top500

Como podemos observar en la gráfica del Top500, entre los sistemas con coprocesadores, las GPU aceleradoras de NVIDIA y AMD dominan actualmente el Top500, sobre los Intel Phi y el nuevo acelerador del fabricante de chips japoneses PEZY COMPUTING.Asímismo observamos el crecimiento que este tipo de tecnologías están teniendo en el mundo del HPC.

 Evolución de las GPU Nvidia

Las claves que han hecho la plataforma de aceleración computacional de NVIDIA las más popular para cálculo científico es que combinan las GPUs aceleradoras, el modelo de procesamiento paralelo CUDA, un amplio ecosistema de desarrolladores, proveedores de software y fabricantes de sistemas para HPC y el haber sido una de las pioneras.

Recientemente, NVDIA presentó la nueva Tesla P100 y es oficialmente la GPU más potente del mercado, orientada al sector de los HPC, forma parte de la nueva generación de chips Pascal, que sucede a la generación Maxwell. Está basado en el nuevo proceso de fabricación FinFET de 16 nm, lo que ha permitido multiplicar por dos la densidad de transistores, usando un 70% menos de energía al mismo tiempo. Es una GPU más potente, pero también más eficiente.

En la tabla se observa evolución de algunas GPUs ejemplo de Nvidia.

Arquitectura Fermi Kepler Pascal
GPU M2050 K20 K80 P100
Procesadores 448 2496 4992 3584
Velocidad (MHz) 1150 706 562 1328
RAM (GB) 3 5 24 16
Rendimiento en precisión simple 1.03 TFLOPS 3.52 TFLOPS 8.74 TFLOPS 10.6 TFLOPS
Rendimiento en doble precisión 515 GFLOPS 1.17 TFLOPS 2.91 TFLOPS 5.3 TFLOPS
Número de transistores (millones) 3.1 7.1 14.2 15.3
Consumo eléctrico 225W 225W 300W 300W

GPUs Nvidia en el Servicio de Cálculo

El Servicio de Cálculo de la UPV/EHU ha ido adquiriendo esta tecnología desde 2010 para ofrecer un pequeño entorno de producción y test en este campo a los investigadores, actualmente tiene 4 GPUs Fermi C2050, 4 Fermi  C2070 y dos Kepler K20. Igualmente está prevista la adquisición de GPUs Kepler k80.

Conclusión

Las tecnologías de coprocesamiento, entre ellas las GPUs, siguen en continuo desarrollo permitiendo el progreso del cálculo científico y preservando la posición del mismo como una herramienta muy útil para la investigación e innovación en infinidad de campos.

Referencias

http://www.nvidia.es/object/tesla-high-performance-computing-es.html

http://wccftech.com/nvidia-pascal-gpu-gtc-2016/

http://www.omicrono.com/2016/04/nvidia-tesla-100/

http://www.almatech.es/nvidia-incorpora-gpu-a-la-arquitectura-kepler/

 

 

General, HPC