Informática Aplicada a la Investigación Rotating Header Image

enero, 2012:

MCCCS Towhee 7.0.2

Towhee Monte Carlo kode libre bat da. Simulazio molekularrak egiten ditu atomoetan oinarritutako indar eremuak erabiliz.

 

Informazio orokorra

Towheek hainbat talde termodinamiko estatistiko  (NVT, NPT, UVT, NVT eta NPT) simulatu ditzake, eta Monte Carloerabiliz . (Informazio gehiago).

 

Nola erabili

send_towhee

  • Towhee ilarara bidaltzeko   send_lmp tresna sortu dugu. Komando sintaxia, honakoa da:
  • send_towhee OUT NODES PROCS_PER_NODE TIME [ MEM ] [``Other queue options'' ]
JOBNAME: Outputaren izana da
NODES: Nodo kopurua.
PROCS: Prozesagailu kopurua
TIME: Kolari eskatutako denbora hh:mm:ss formatuan.
MEM: Aukerakoal. Memoria  Gb-etan( 1GB/core-ko esleituko du adierazten ez bada).
[``Other Torque Options'' ] Optional. Kola sistemari adierazi nahi zaizkion beste hainbat aukera.
Ikus azpian adibidea..   More information about this options

Adibideak

  • OUT izango da output.a.   Lana nodo batera eta 4 prozesagailuetara bidali dugu, 4 ordutarako:
  • send_towhee OUT 1 4 04:00:00
  • Lana  2 nodo eta 8 prozesagailutara  eskatutako denbora  192 ordutakoa izanik. Memoria ere adierazi dugu,  8 GB, eta lana ez da 1234.  lana amaitu aurretik martxan jarriko.
  • send_towhee out 2 8 192:00:00 8 ``-W depend=afterany:1234'
  • Lana 4 nodo eta 4 prozesagailuetara bidali dugu. 200 ordu eta 2 GB-etako RAM-a askatu dugu. Gainera, kalkulua hasi eta amaitzean email bat bidaliko digu adierazitako emailera .
  • send_towhee OUT 4 4 200:00:00 2 ``-m be -M mi.email@ehu.es''

    Lanen Monitorizazioa

    Towhee  lanaen jarraipena egiteko  remote_vi tresna erabili daiteke.

    remote_vi JOBID

    send_towhee-n adierazitako output  fitxategia erakutsiko digu.  (Lana send_towhee-rekin bidali bada soilik).

    Informazio gehiago

    http://towhee.sourceforge.net

     

    Genepop

    General information

    4.1 version.

    Genepop is a population genetics software package, which has options for the following analysis: Hardy Weinberg equilibrium, Linkage Disequilibrium, Population Differentiation, Effective number of migrants, Fst or other correlations.

    How to use

    To execute Genepop in the queue system you must include in the script of the queue system:

    /software/bin/Genepop < input_file

    where input_file has the options for Genepop, i.e., the answer to Genepop when it runs in interactive mode. We recommend to use qsub in interactive mode to submit the jobs

     

    More information

    Genepop web page.

    Genepop

    Informazio orokorra

    4.1 bertsioa.

    Genepop is a population genetics software package, which has options for the following analysis: Hardy Weinberg equilibrium, Linkage Disequilibrium, Population Differentiation, Effective number of migrants, Fst or other correlations.

    Nola erabili

    Ilara sisteman exekutatzeko gehitu kolarako skriptean

    /software/bin/Genepop < input_file

    Non input_file Genepop-en opzioak dituen fitxeroa da, hots, Genepop interaktiboan egiten dituen galdereen erantzuna. Gomendatzen dizuegu qsub interaktiboan erabiltzea lanak kolara bidaltzeko.

     

    Informazio gehiago

    Genepopen web orrialdea.

    Genepop

    Información general

    Versión 4.1.

    Genepop is a population genetics software package, which has options for the following analysis: Hardy Weinberg equilibrium, Linkage Disequilibrium, Population Differentiation, Effective number of migrants, Fst or other correlations.

    Cómo ejecutar

    Para ejecutarlo en el sistema de colas debéis de incluir en el script para el sistema de colas la línea:

    /software/bin/Genepop < input_file

    donde input_file tiene los parametros de Genepop, i.e, las respuestas a las preguntas que realiza en interactivo. Os recomendamos usar qsub en interactivo.

     

    Más información

    Página web de Genepop.

    CLUMPP

    Informazio orokorra

    1.1.3 bertsioa. CLUMPP is a program that deals with label switching and multimodality problems in population-genetic cluster analyses. CLUMPP permutes the clusters output by independent runs of clustering programs such as structure, so that they match up as closely as possible. The user has the option of choosing one of three algorithms for aligning replicates, with a tradeoff of speed and similarity to the optimal alignment.

    Nola erabili

    Ilara sisteman exekutatzeko gehitu kolarako skriptean

    /software/bin/CLUMPP

    CLUMPPek behar dituen opzioekin. Gomendatzen dizuegu qsub interactiboan erabiltzea lanak kolara bidaltzeko.

     

    Informazio gehiago

    CLUMPPen web orrialdea.

    CLUMPP

    General information

    1.1.3 version. CLUMPP is a program that deals with label switching and multimodality problems in population-genetic cluster analyses. CLUMPP permutes the clusters output by independent runs of clustering programs such as structure, so that they match up as closely as possible. The user has the option of choosing one of three algorithms for aligning replicates, with a tradeoff of speed and similarity to the optimal alignment.

    How to use

    To execute CLUMPP in the queue system you must include in the script of the queue system:

    /software/bin/CLUMPP

    with the corresponding options of structure. We recommend to use qsub in interactive mode to submit the jobs

     

    More information

    CLUMPP web page.

    CLUMPP

    Información general

    Versión 1.1.2. CLUMPP is a program that deals with label switching and multimodality problems in population-genetic cluster analyses. CLUMPP permutes the clusters output by independent runs of clustering programs such as structure, so that they match up as closely as possible. The user has the option of choosing one of three algorithms for aligning replicates, with a tradeoff of speed and similarity to the optimal alignment.

    Cómo ejecutar

    Para ejecutarlo en el sistema de colas debéis de incluir en el script para el sistema de colas la línea:

    /software/bin/CLUMMP

    con las opciones necesarias para CLUMPP. Os recomendamos usar qsub en interactivo.

     

    Más información

    Página web de CLUMPP.

    Structure

    General information

    2.33 version.

    The program structure is a free software package for using multi-locus genotype data to investigate population structure. Its uses include inferring the presence of distinct populations, assigning individuals to populations, studying hybrid zones, identifying migrants and admixed individuals, and estimating population allele frequencies in situations where many individuals are migrants or admixed. It can be applied to most of the commonly-used genetic markers, including SNPS, microsatellites, RFLPs and AFLPs.

    How to use

    To execute the graphical user interface execute in Péndulo, Maiz or Guinness

    structure

    To execute graphical applications read how to connect to Arina.

    To execute structure in the queue system you must include in the script of the queue system:

    /software/bin/structure

    with the corresponding options of structure. We recommend to use qsub in interactive mode to submit the jobs

     

    More information

    Structure web page.

    Structure

    Informazio orokorra

    2.33 bertsioa

    The program structure is a free software package for using multi-locus genotype data to investigate population structure. Its uses include inferring the presence of distinct populations, assigning individuals to populations, studying hybrid zones, identifying migrants and admixed individuals, and estimating population allele frequencies in situations where many individuals are migrants or admixed. It can be applied to most of the commonly-used genetic markers, including SNPS, microsatellites, RFLPs and AFLPs.

    Nola erabili

    Interfaz grafikoa exekutatzeko Pendulon, Maiz edo Guinnessen exekutatu

    structure

    Aplikazio grafikoak exekutatu ahal izateko irakurri nola konektatu Arinara.

    Ilara sisteman exekutatzeko gehitu kolarako skriptean

    /software/bin/structure

    structure behar dituen opzioekin. Gomendatzen dizuegu qsub interaktiboan erabiltzea lanak kolara bidaltzeko.

     

    Informazio gehiago

    Structureren web orrialdea.

    Structure

    Información general

    Versión 2.33.

    The program structure is a free software package for using multi-locus genotype data to investigate population structure. Its uses include inferring the presence of distinct populations, assigning individuals to populations, studying hybrid zones, identifying migrants and admixed individuals, and estimating population allele frequencies in situations where many individuals are migrants or admixed. It can be applied to most of the commonly-used genetic markers, including SNPS, microsatellites, RFLPs and AFLPs.

    Cómo ejecutar

    Para ejecutar la interfaz gráfica de usuario ejecutar en Péndulo, Maiz o Guinness

    structure

    Para poder ejecutar aplicaciones gráficas leer cómo acceder a Arina.

    Para ejecutarlo en el sistema de colas debéis de incluir en el script para el sistema de colas la línea:

    /software/bin/structure

    con las opciones necesarias para structure. Os recomendamos usar qsub en interactivo.

     

    Más información

    Página web de structure.

    MCCCS Towhee 7.0.2

    Towhee is a Monte Carlo molecular simulation code originally designed for the prediction of fluid phase equilibria using atom-based force fields and the Gibbs ensemble with particular attention paid to algorithms addressing molecule conformation sampling. The code has subsequently been extended to several ensembles, many different force fields, and solid (or at least porous) phases.

    General Information

    Towhee serves as a useful tool for the molecular simulation community and allows science to move forward more quickly by eliminating the need for individual research groups to rewrite routines that already exist and instead allows them to focus on algorithm advancement, force field development, and application to interesting systems.

    Towhee may use different type of ensembles and Monte Carlo moves implemented into Towhee and can alos used different  force fields included with the distribution. (See here for more information )

    How to Use

    send_towhee

    • To send Towhee to the queue system  use the send_gulp utility. When executed,
      shows the command syntax, which is summarized below:
    • send_towhee JOBNAME NODES PROCS_PER_NODE TIME [ MEM ] [``Other queue options'' ]
    JOBNAME: Is the  name of the Output.
    NODES: Number of nodes.
    PROCS: Number of  processors.
    TIME: Time requested to the queue system, format hh:mm:ss.
    MEM: Optional. Memory in Gb ( It will used 1GB/core if not set).
    [``Other Torque Options'' ] Optional. There is the possibility to pass more variables to the queuing system.
    See examples below.   More information about this options

    Examples

    We send a Towhee job1 to 1 node, 4 processors on that node, with a requested time of 4 hours . The results will be in the OUT file.

    send_towhee OUT 1 4 04:00:00

    We send job2  to 2 compuation nodes, 8 processors on each node, with a requested time of 192 hours, 8 GB of RAM and to start running after work 1234.arinab is finished:

    send_towhee OUT 2 8 192:00:00 8 ``-W depend=afterany:1234'

    We  send the input job3 to 4 nodes and 4 processors on each node, with arequested time of 200:00:00 hours, 2 GB of RAM and we request to be send an email at the beginning and end of the calculation to the direction specified.

    send_towhee OUT 4 4 200:00:00 2 ``-m be -M mi.email@ehu.es''

    send_towhee command copies the contents of the directory from which the job is sent to /scratch or / gscratch, if we use 2 or more nodes. And there is where the calculation is done.

    Jobs Monitoring

    To facilitate monitoring and/or control of the Towhee calculations, you can use remote_vi

    remote_vi JOBID

    It show us the *.out file  (only if it was sent using send_towhee).

    More information

    http://towhee.sourceforge.net/

    MCCCS Towhee 7.0.2

    Towhee es un código de Monte Carlo (libre) de simulación molecular diseñado originalmente para la predicción de equilibrio en fluidos utilizando campos de fuerza basados en átomos.

    Información General

    Towhee puede utilizar varios tipos de conjuntos estadistícos  l (NVT, NpT, uVT, NVT and NpT) varios pasos Montecarlo  y también diferentes campos de fuerza. (Más información).

    Cómo Usar

    send_towhee

    • Para enviar Towhee  en el sistema de colas se ha creado la utilidad send_towhee. Cuando se ejecuta,
      se muestra la sintaxis del comando, que se resume a continuación:
    • send_towhee JOBNAME NODES PROCS_PER_NODE TIME [ MEM ] [``Other queue options'' ]
    JOBNAME: Nombre del Output.
    NODES: número de nodos.
    PROCS: Número de  procesadores.
    TIME: Tiempo solicitado al sistema de colas: formato hh:mm:ss.
    MEM: Opcional. Memoria en Gb ( It will used 1GB/core if not set).
    [``Other Torque Options'' ] Opcional. Otras opciones que se quieran pasar al sistema de colas.   More information about this options

    Ejemplos

    Enviamos la entrada Towhee   a un nodo, cuatro procesadores en ese nodo, con un tiempo de 4 horas solicitado. El output generado estara en el fichero OUT

    send_gulp OUT 1 4 04:00:00

    Enviamos un trabajo a 2 nodos compuation, 8 procesadores en cada nodo, con un tiempo solicitado de 192 horas, 8 GB de memoria RAM y para empezar a correr después del trabajo 1234.arina haya terminado:

    send_gulp OUT 2 8 192:00:00 8 ``-W depend=afterany:1234'

    Enviamos el  Trabajo a 4 nodos y 4 procesadores en cada nodo, con el tiempo de 200 horas, 2 GB de RAM y solicitamos se nos envíe un correo electrónico al principio y al final del cálculo de la dirección especificada .

    send_gulp OUT 4 4 200:00:00 2 ``-m be -M mi.email@ehu.es''

    El comando send_gulp  copia el contenido del directorio desde donde se envió el trabajo al /scratch o   /gscratch, si utilizamos dos o más nodos, y ahí es donde se hace el cálculo.

    Jobs Monitoring

    Para facilitar el seguimiento y/o control de los cálculos Towhee, se puede utilizar remote_vi

    remote_vi JOBID

    Nos muestra el archivo  output indicado en send_towhee  (sólo si ha sido enviado con send_towhee).

    Más información

    http://towhee.sourceforge.net/

    Gulp 4.0

    Informazio Orokorra

    GULP programak  materialeen  era askotako simulazioak  egin dintzake 0-D  (molekula eta klusterrak), 1-D (polimeroak), 2-D (azalerak, lauza, …) da , edo 3-D (solidoa peridikoak).  Kodearen helburua soluzio analitiko bat lorztea da da, “sare dinamika” (ahal denean) erabiltzen  dinamika molekularraren ordez. Indarr-eremu anitzak erabili ditzake.

    Erabili aurretik mesedez begira bere erabilera baldintzak.

    Guinness:/Softwarea/Gulp katalogoan instalatuta dago.

    Nola erabili

    send_gulp

    • GULP ilarara bidaltzeko   send_lmp tresna sortu dugu. Komando sintaxia honakoa da:
    • send_gulp JOBNAME NODES PROCS_PER_NODE TIME [ MEM ] [``Other queue options'' ]
    JOBNAME: Is the  name of the input with extension.
    NODES: Number of nodes.
    PROCS: Number of  processors.
    TIME: Time requested to the queue system, format hh:mm:ss.
    MEM: Optional. Memory in Gb ( It will used 1GB/core if not set).
    [``Other Torque Options'' ] Optional. There is the possibility to pass more variables to the queuing system.
    See examples below.   More information about this options

    Adibideak

  • Job1  lana nodo batera eta 4 prozesagailuetara bidali dugu, 4 ordutarako:
  • send_gulp job1.gin 1 4 04:00:00
  • Lana  2 nodo eta 8 prozesagailutara  eskatutako denbora  192 ordutakoa izanik. Memoria ere adierazi dugu,  8 GB, eta lana ez da 1234.  lana amaitu aurretik martxan jarriko.
  • send_gulp job2.gin 2 8 192:00:00 8 ``-W depend=afterany:1234'
  • Lana 4 nodo eta 4 prozesagailuetara bidali dugu. 200 ordu eta 2 GB-etako RAM-a askatu dugu. Gainera, kalkulua hasi eta amaitzean email bat bidaliko digu adierazitako emailera .
  • send_gulp job.gin 4 4 200:00:00 2 ``-m be -M mi.email@ehu.es''

    Lanen Monitorizazioa

    GULP lanaen jarraipena egiteko  remote_vi tresna erabili daiteke.

    remote_vi JOBID

    *. out fitxategia erakutsiko digu.  (Lana send_gulp-rekin bidali bada soilik).

    Informazio gehiago

    http://projects.ivec.org/gulp/

    Gulp 4.0

    Información General

    GULP es un programa para llevar a cabo una variedad de tipos de simulación de materiales a partir de las condiciones de contorno de 0-D (moléculas y clusters), 1-D (polímeros), 2-D (superficies, losas, …), o 3 -D (sólidos periódicos). El objetivo del código es una solución analítica, a través del uso de la “dinámica de red” (cuando sea posible) en lugar de dinámica molecular. Se pueden utilizar una gran variedad de campos de fuerza  dentro de GULP que abarca el modelo de capas de materiales iónicos, la mecánica molecular para los sistemas orgánicos, el modelo del átomo embebido de los metales y el potencial REBO de hidrocarburos. Se incluyen derivadas analíticas  por lo menos de segundo orden para la mayoría de los campos de fuerza, y de tercer orden para muchos.

    Está instalado en guinness:/software/Gulp

    Cómo Usar

    Antes de usar GULP por favor verifica que cumplas las condiciones de uso.

    send_gulp

    • Para enviar GULP en el sistema de colas se ha creado la utilidad send_gulp. Cuando se ejecuta,
      se muestra la sintaxis de comandos, que se resume a continuación:
    • send_lmp JOBNAME NODES PROCS_PER_NODE TIME [ MEM ] [``Other queue options'' ]

     

    JOBNAME: El nombre del input con extensión.
    NODES: Número de nodos.
    PROCS: Número de  procesadores.
    TIME: Tiempo pedido al sistema de colas, formato hh:mm:ss.
    MEM: Optional. Memora en Gb (Si no se especifíca usará 1GB/core).
    [``Other Torque Options'' ] Optional.  Otras .   More information about this options

    Ejemplos

    Enviamos la entrada GULP Job1 a un nodo, cuatro procesadores en ese nodo, con un tiempo de 4 horas solicitado:

    send_gulp job1.gin 1 4 04:00:00

    Enviamos un trabajo a 2 nodos compuation, 8 procesadores en cada nodo, con un tiempo solicitado de 192 horas, 8 GB de memoria RAM y para empezar a correr después del trabajo 1234.arina haya terminado:

    send_gulp job2.gin 2 8 192:00:00 8 ``-W depend=afterany:1234'

    Enviamos el  Trabajo a 4 nodos y 4 procesadores en cada nodo, con el tiempo de 200 horas, 2 GB de RAM y solicitamos se nos envíe un correo electrónico al principio y al final del cálculo de la dirección especificada .

    send_gulp job.gin 4 4 200:00:00 2 ``-m be -M mi.email@ehu.es''

    El comando send_gulp  copia el contenido del directorio desde donde se envió el trabajo al /scratch o   /gscratch, si utilizamos dos o más nodos, y ahí es donde se hace el cálculo.

    Jobs Monitoring

    Para facilitar el seguimiento y/o control de los cálculos GULP, se puede utilizar remote_vi

    remote_vi JOBID

    Nos muestra el archivo *. out (sólo si ha sido enviado con send_gulp).

    Más información

    http://projects.ivec.org/gulp/

    Gulp 4.0

    General Information

    GULP is a program for performing a variety of types of simulation on materials using boundary conditions of 0-D (molecules and clusters), 1-D (polymers), 2-D (surfaces, slabs and grain boundaries), or 3-D (periodic solids). The focus of the code is on analytical solutions, through the use of lattice dynamics, where possible, rather than on molecular dynamics. A variety of force fields can be used within GULP spanning the shell model for ionic materials, molecular mechanics for organic systems, the embedded atom model for metals and the reactive REBO potential for hydrocarbons. Analytic derivatives are included up to at least second order for most force fields, and to third order for many.

    How to Use

    First, before you use it, be aware of its usage conditions.

    send_gulp

    • To send GULP to the queue system  use the send_gulp utility. When executed,
      shows the command syntax, which is summarized below:
    • send_gulp JOBNAME NODES PROCS_PER_NODE TIME [ MEM ] [``Other queue options'' ]
    JOBNAME: Is the  name of the input with extension.
    NODES: Number of nodes.
    PROCS: Number of  processors.
    TIME: Time requested to the queue system, format hh:mm:ss.
    MEM: Optional. Memory in Gb ( It will used 1GB/core if not set).
    [``Other Torque Options'' ] Optional. There is the possibility to pass more variables to the queuing system.
    See examples below.   More information about this options

    Examples

    We send the GULP input job1 to 1 node, 4 processors on that node, with a requested time of 4 hours :

    send_gulp job1.gin 1 4 04:00:00

    We send job2  to 2 compuation nodes, 8 processors on each node, with a requested time of 192 hours, 8 GB of RAM and to start running after work 1234.arinab is finished:

    send_gulp job2.gin 2 8 192:00:00 8 ``-W depend=afterany:1234'

    We  send the input job3 to 4 nodes and 4 processors on each node, with arequested time of 200:00:00 hours, 2 GB of RAM and we request to be send an email at the beginning and end of the calculation to the direction specified.

    send_gulp job.gin 4 4 200:00:00 2 ``-m be -M mi.email@ehu.es''

    send_gulp command copies the contents of the directory from which the job is sent to /scratch or / gscratch, if we use 2 or more nodes. And there is where the calculation is done.

    Jobs Monitoring

    To facilitate monitoring and/or control of the GULP calculations, you can use remote_vi

    remote_vi JOBID

    It show us the *.out file  (only if it was sent using send_lmp).

    More information

    http://projects.ivec.org/gulp/

    LAMMPS

    LAMMPS (“Large-scale Atomic/Molecular Massively Parallel Simulator”)  Sandia National Laborategiak garatutako dinamika molekular programa bat da. LAMMPS-ek  MPI komunikazioa erabiltzen du kalkulu paraleloentzat. Kode  irekia da eta GNU General Public License baldintzapean banatzen da. 2019ko Ekainare 5eko bertsioa.

    Informazio orokorra

    LAMMPS  dinamika molekular klasikoak egiteko  kodea da. Egoera likido, solido edo gaseosoan dauden partikula multzoak simula ditzake. Sistemak atomikoak, polimerikok, biologikoak, metalikoak sistemak granularrak , eta “coarse grined” direlakoak aztertu ditzake indar-eremu eta muga-baldintza barietate desberdinak erabiliz.

    Zentzu orokorrean, LAMMPS-ek hedapen laburreko edo luzeko indarrekin elkar-interakzionatzen duten atomo-bilduma, molekula edo partíkula makroskopikoen Newtonen mugimenduaren ekuazioak integratzen ditu hasierako edo inguruneko baldintza desberdinak erabiliz.

    Nola erabili

    send_lmp

    • LAMMPS ilarara bidaltzeko   send_lmp tresna sortu dugu. Komando sintaxia, honakoa da:
    • send_lmp JOBNAME NODES PROCS_PER_NODE TIME [ MEM ] [``Other queue options'' ]
    JOBNAME: Is the  name of the input with extension.
    NODES: Number of nodes.
    PROCS: Number of  processors.
    TIME: Time requested to the queue system, format hh:mm:ss.
    MEM: Optional. Memory in Gb ( It will used 1GB/core if not set).
    [``Other Torque Options'' ] Optional. There is the possibility to pass more variables to the queuing system.
    See examples below.   More information about this options

    Adibideak

    • Job1  lana nodo batera eta 4 prozesagailuetara bidali dugu, 4 ordutarako:
    send_lmp job1.in 1 4 04:00:00
    • Lana  2 nodo eta 8 prozesagailutara  eskatutako denbora  192 ordutakoa izanik. Memoria ere adierazi dugu,  8 GB, eta lana ez da 1234.  lana amaitu aurretik martxan jarriko.
    send_lmp job2.inp 2 8 192:00:00 8 ``-W depend=afterany:1234'
    • Lana 4 nodo eta 4 prozesagailuetara bidali dugu. 200 ordu eta 2 GB-etako RAM-a askatu dugu. Gainera, kalkulua hasi eta amaitzean email bat bidaliko digu adierazitako emailera .
    send_lmp job.inp 4 4 200:00:00 2 ``-m be -M mi.email@ehu.es''

    Lanen Monitorizazioa

    LAMMPS lanaen jarraipena egiteko  remote_vi tresna erabili daiteke.

    remote_vi JOBID

    *. out fitxategia erakutsiko digu.  (Lana send_lmp-rekin bidali bada soilik).

    Informazio gehiago

    http://lammps.sandia.gov

    LAMMPS

    LAMMPS (“Large-scale Atomic/Molecular Massively Parallel Simulator”) es un programa de dinámica molecular de los Laboratorios Nacionales Sandia.  LAMMPS hace uso de MPI para la comunicación en paralelo y es un  código libre/abierto, distribuido bajo los términos de la Licencia Pública General de GNU. Versión del 5 de Junio de 2019.

    Información General

    LAMMPS es un código de dinámica molecular clásica que  modela conjuntos de partículas en estado líquido, sólido o gaseoso. Puede modelar sistemas atómicos, poliméricos, biológicos, sistemas metálicos, granulados, y de grano grueso usando una variedad de campos de fuerza y ​​condiciones de contorno.

    En sentido más general, LAMMPS integra  las ecuaciones de movimiento de Newton para las colecciones de los átomos, moléculas o partículas macroscópicas que interactúan a través de fuerzas de corto o de largo alcance con una variedad de Newton condiciones iniciales y/o  de contorno.

    Para lograr  eficiencia computacional, LAMMPS utiliza listas de vecinos para realizar un seguimiento de las partículas cercanas. Las listas están optimizadas para sistemas de partículas que son repulsivas en las distancias cortas, por lo que la densidad local de partículas nunca se vuelve demasiado grande. En las máquinas en paralelo, LAMMPS utiliza técnicas de descomposición espacial de la partición del dominio de simulación 3D en pequeños sub-dominios, uno de los cuales se asigna a cada procesador. Los  procesadores  comunican y almacenan la información de átomos “fantasma”  que rodean a sus sub-dominios. LAMMPS es más eficiente (en el sentido de cálculos en paralelo) para sistemas cuyas partículas llenan una caja rectangular en 3D con una densidad más o menos uniforme. Artículos con los detalles técnicos de los algoritmos utilizados en LAMMPS se enumeran en esta sección.

     

    Cómo Usar

    send_lmp

    • Para enviar LAMMPS en el sistema de colas se ha creado la utilidad send_lmp. Cuando se ejecuta,
      se muestra la sintaxis de comandos, que se resume a continuación:
    • send_lmp JOBNAME NODES PROCS_PER_NODE TIME [ MEM ] [``Other queue options'']

     

    JOBNAME: Is the  name of the input with extension.
    NODES: Number of nodes.
    PROCS: Number of  processors.
    TIME: Time requested to the queue system, format hh:mm:ss.
    MEM: Optional. Memory in Gb ( It will used 1GB/core if not set).
    [``Other Torque Options'' ] Optional. There is the possibility to pass more variables to the queuing system.
    See examples below.   More information about this options

    Ejemplos

    Enviamos la entrada lammps Job1 a un nodo, cuatro procesadores en ese nodo, con un tiempo de 4 horas solicitado:

    send_lmp job1.in 1 4 04:00:00

    Enviamos un trabajo a 2 nodos compuation, 8 procesadores en cada nodo, con un tiempo solicitado de 192 horas, 8 GB de memoria RAM y para empezar a correr después del trabajo 1234.arina haya terminado:

    send_lmp job2.inp 2 8 192:00:00 8 ``-W depend=afterany:1234'

    Enviamos el  Trabajo a 4 nodos y 4 procesadores en cada nodo, con el tiempo de 200 horas, 2 GB de RAM y solicitamos se nos envíe un correo electrónico al principio y al final del cálculo de la dirección especificada .

    send_lmp job.inp 4 4 200:00:00 2 ``-m be -M mi.email@ehu.es''

    send_lmp comando copia el contenido del directorio desde donde se envió el trabajo al /scratch o   /gscratch, si utilizamos dos o más nodos. Y ahí es donde se hace el cálculo.

    Jobs Monitoring

    Para facilitar el seguimiento y/o control de los cálculos LAMMPS, se puede utilizar remote_vi

    remote_vi JOBID

    Nos muestra el archivo *. out (sólo si ha sido enviado con send_lmp).

    Más información

    http://lammps.sandia.gov

    LAMMPS

    LAMMPS (“Large-scale Atomic/Molecular Massively Parallel Simulator”) is a molecular dynamics program from Sandia National Laboratories. LAMMPS makes use of MPI for parallel communication and is a free open-source code, distributed under the terms of the GNU General Public License.
    LAMMPS was originally developed under a Cooperative Research and Development Agreement (CRADA) between two laboratories from United States Department of Energy and three other laboratories from private sector firms. It is currently maintained and distributed by researchers at the Sandia National Laboratories. (Taken from Wikipedia). Jun-05-2019 version.

    General Information

    LAMMPS is a classical molecular dynamics code that models an ensemble of particles in a liquid, solid, or gaseous state. It can model atomic, polymeric, biological, metallic, granular, and coarse-grained systems using a variety of force fields and boundary conditions.

    In the most general sense, LAMMPS integrates Newton’s equations of motion for collections of atoms, molecules, or macroscopic particles that interact via short- or long-range forces with a variety of initial and/or boundary conditions. For computational efficiency LAMMPS uses neighbor lists to keep track of nearby particles. The lists are optimized for systems with particles that are repulsive at short distances, so that the local density of particles never becomes too large. On parallel machines, LAMMPS uses spatial-decomposition techniques to partition the simulation domain into small 3d sub-domains, one of which is assigned to each processor. Processors communicate and store “ghost” atom information for atoms that border their sub-domain. LAMMPS is most efficient (in a parallel sense) for systems whose particles fill a 3d rectangular box with roughly uniform density. Papers with technical details of the algorithms used in LAMMPS are listed in this section.

    How to Use

    send_lmp

    • To send LAMMPS to the queue system  use the send_lmp utility. When executed,
      shows the command syntax, which is summarized below:
    • send_lmp JOBNAME NODES PROCS_PER_NODE TIME [ MEM ] [``Other queue options'' ]
      JOBNAME: Is the  name of the input with extension.
      NODES: Number of nodes.
      PROCS: Number of  processors.
      TIME: Time requested to the queue system, format hh:mm:ss.
      MEM: Optional. Memory in Gb ( It will used 1GB/core if not set).
      [``Other Torque Options'' ] Optional. There is the possibility to pass more variables to the queuing system.
      See examples below.   More information about this options

    Examples

    We send the lammps input job1 to 1 node, 4 processors on that node, with a requested time of 4 hours:

    send_lmp job1.in 1 4 04:00:00

    We send job2  to 2 compuation nodes, 8 processors on each node, with a requested time of 192 hours, 8 GB of RAM and to start running after work 1234.arinab is finished:

    send_lmp job2.inp 2 8 192:00:00 8 ``-W depend=afterany:1234'

    We  send the input job3 to 4 nodes and 4 processors on each node, with arequested time of 200:00:00 hours, 2 GB of RAM and we request to be send an email at the beginning and end of the calculation to the direction specified.

    send_lmp job.tpr 4 4 200:00:00 2 ``-m be -M mi.email@ehu.es''

    send_lmp command copies the contents of the directory from which the job is sent to /scratch or / gscratch, if we use 2 or more nodes. And there is where the calculation is done.

    Jobs Monitoring

    To facilitate monitoring and/or control of the LAMMPS calculations, you can use remote_vi

    remote_vi JOBID

    It show us the *.out file  (only if it was sent using send_lmp).

    More information

    http://lammps.sandia.gov

    Arina klusterra

    Informazio orokorra

    Kalkuluarko baliabideen laburpena

    Arinak 3.728 kalkulu kore ditu 3.664 Xeon eta 64 Itanium2 koretan banatuta, nodo bakoitzak 16 eta 512 GB bitarteko  memoria duelarik. 4 Xeon nodoek bina Nvidia Tesla txartel dituzte, beste nodo batek bi Nvidia Kepler 20, eta badago beste bi Nvidia Kepler 40 txartel dituen bat ere. Hiru eraginkortasun handiko fitxategi sistema daude Lustren oinarrituta 4.2 TBetakoa, 22 TBetakoa eta 40 TBetakoa. Kalkulu nodo guztiak Infiniband latentzia txikiko eta banda zabaleko sarearen bitartzen konektatuta daude.

    Arina UPV/EHU-ko HPC konputagailua

     

    Beste baliabideak

    Arina klusterrera konektatzeko 3 zerbitzari erabili daitezke: arina (intanium2), katramila eta guinness (xeon), Zerbitzariak ethernet sarea bati medio dago nodoei konektatua. Sare horren bitartez esportatzen da  /home katalogoa nodo guztietara, NFS protokoloa erabiliz. Gauero katalogo honen segurtasun-kopia egiten da (/home). Nodoren batek/home-an idazten badu, informazioa zerbitzarira bidali behar da NFS protokoloaren (motela) bitartez. Horregatik, ez da komeni kalkuluak egiterakoan direktorio hori erabiltzea, hobe da kalkuluak nodo bakoitzeko tokiko diskoetan egitea. Horretarako, nodoek 36 … 500 Gb bitarteko  diskoak dituzte, /scratch direktorioan. Ikusi ataleko ilaren sistema medio lanak nodora nola bidali ikusi ilara-sistema..

    3 GB-eko diska kuota dago /home-ean erabiltzaile bakoitzeko. Hortik aurrera edukiera fakturatu egingo da. Ikus hemen.

    Nodoak ahalmen eta abiadura handiko Infiniband sarea medio daude konektatuta, kalkulua egiterakoan komunikatzeko.

    Xeon nodoen ezaugarriak

    • Cluster BullX sistema operatiboa, Red Hat Linux AS 5, AS6 eta AS7.
    • 464 Xeon 5420 prozesadoreak 2.3 GHz-etara, 648 Xeon 5645 prozesadoreak 2.4 GHz-etara, 630 Xeon 2680v2 prozesadoreak 2.8 GHz-etara eta 32 Xeon 4620v2 prozesadorea 2.6 GHz-etara memoria handiko nodoan (512 GB) eta 2.8 GHz-etako baidaurako 1.876  Xeon 2680v4 core.
    • 24 eta 512 GB bitarteko  RAM memoria nodo bakoitzeko .
    • Infiniband QDR 40 Gb/s eta FDR 56 GB/s-etara banda zabalera handiko eta latenzia txikiko sarea.
    • Konpilatzeko zerbitzari nagusia Guinness eta Katramila.

    GPGPUs nodoak

    GPGPU nodoak aurrekoa bezalakoak dira:

    • Bi nodo bi Tesla 20 C2050 txartelekin, Xeon 5420 prozesadoreak 2.3 GHz-etara, 24 GB RAM eta bi Infiband QDR txartelak.
    • Bi nodo bi Tesla 20 C2070 txartelekin, Xeon 5420 prozesadoreak 2.3 GHz-etara, 24 GB RAM eta bi Infiband QDR txartelak.
    • Nodo bat bi Tesla 20  txartelekin, Xeon 2680v2 prozesadoreak 2.8 GHz-etara, 24 GB RAM eta Infiband FDR txartelak.
    • Nodo bat bi Tesla 40  txartelekin, Xeon 2680v4  prozesadoreak 2.8 GHz-etara, 128 GB RAM eta Infiband FDR txartelak.

    Nodoen ezaugarri berariazkoak:

    Kopurua Izena Mota S.E. Proc. Cores Abiadura RAM (GB) Diskoa (GB) Etiketa
    1 Guinness Zerbitzaria RH6 2 8 2.3 GHz 12
    1 Katramila Zerbitzaria RH7 2 8 2.6 GHz 128
    1 cn3 Nodoa RH6 2 8 2.3 GHz 96 250 xeon,xeon8,xeonbull
    17 cn4-cn20 Nodoa RH6 2 8 2.3 GHz 24 250 xeon,xeon8,xeonbull
    36 cn21-56, Nodoa RH6 2 8 2.3 GHz 48 250 xeon,xeon8,xeonbull
    4 cn57-60 gpu nodo RH6 2 8 2.3 GHz 24 450 xeon,xeon8,gpu,xeonbull
    18 cn61-78 Nodoa RH6 2 12 2.4 GHz 48 250 xeon,xeon12,xeonbull
    1 cn79 Nodoa RH6 2 12 2.4 GHz 96 250 xeon,xeon12,xeonbull
    35 cn80-cn114 Nodoa RH6 2 12 2.4 GHz 24 250 xeon,xeon12,xeonbull
    30 n1-n30 Nodo RH7 2 20 2.8 GHz 128 128 xeon,xeon20,,xeonbull,rh7
    1 n31 Nodo RH7 2 32 2.6 GHz 128 1000 xeon,xeon20,,xeonbull,rh7
    1 n32 Nodo GPU RH7 2 20 2.8 GHz 128 128 xeon,xeon20,gpu,,xeonbull,rh7
    66 n1-nd14,nd16-nd67 Nodo RH7 2 28 2.8GHz 128 128 xeon,xeon28,rh7
    1 nd15 Nodo GPU RH7 2 28 2.8GHz 128 128 xeon,xeon28,rh7,gpu

    Nodo guzti hauek xeon etiketa dute. Kalkuluak egiterako garaian, nodo jakinak aukeratzeko erabili daitezke etiketak.

    Itanium nodoen ezaugarriak

    • Cluster HP Integrity Server Red Hat Linux AS 4 sistema eraginkorrarekin.
    • 128 Itanium2 koreak 1.3 y 1.6 GHz-etara.
    • 4 eta 128 GB  bitarteko RAM memoria nodo bakoitzeko.
    • SDR eta DDR a 20 eta 10 Gb/s eta latenzia txikiko Infiniband sarea.
    • Konpilatzeko zerbitzaria: arina.

    Ezaugarri berariazkoak:

    Cantidad Nombre Tipo Proc. Cores Velocidad RAM (GB) Disco (GB) Etiqueta
    1 Arina Servidor 2 4 1.6 GHz 8
    4 cndXX Nodo 4 8 1.6 GHz 16 550 itaniumb
    10 cndXX Nodo 4 8 1.6 GHz 32 550 itaniumb
    1 cnd43 Nodo 4 8 1.6 GHz 64 550 itaniumb

    Nodo guztiak itanium etiketa dute. Kalkuluak egiterako garaian, nodo jakinak aukeratzeko erabili daitezke etiketak. Ikusi ilara-sistema..

    Diska sitemaren ezaugarriak

    Nodo bakoitzak dituen disko lokalez aparte (/scratch), Itanium eta Opteron nodoek HP-SFS diska sistema globala dute 4.7 TB-etako tamainarekin (Lustre teknologian oinarrituta dago) eta Xeon prozesagailuek 22 TB-etako Lustre diska sistema bat. Lustre biltegi sistema oso eraginkorra da paraleloan idazten baitu disko askotan.

    • Bere erabilera kalkuluetan erabiltzen diren aldi baterako fitxeroentzako da.
    • /gscratch bezala montatuta dago.
    • Bakarrik kalkulu nodoetatik idatzi/irakurri egin daiteke.
    • Fitxategi sistema bakarra da, hots, nodo guztiak direktorio bera ikusten dute.
    • Ez dira segurtasun kopiak egiten.
    • Oso egonkorra da eta erredundantea.

    Bere erabilera gomendatzen dugu kasu hauetan

    • Programak asko idazten edo irakurtzen du.
    • Fitxeroak oso handiak dira disko localak erabili ahal izateko, gutxi gorabehera 8 GB erabilitako cpu bakoitzagatik.
    • Kalkulu bateko nodoak fitxero bera erabili behar badute, adibidez MPI lanak zenbait nodoetan.

    Arina cluster

    General information

    Summary

    Arina has 3.728 cores distributed in 3.664 xeon cores, and 64 Itanium2 cores with RAM memory ranging from 16 to 512 GB per node. Four of the xeon nodes have 2 Nvidia Tesla cards each, another node with  two Nvidia Kepler 20, and another one with 2 Nvidia Kepler 40 . There are 3 high performance file systems based on Lustre, one with 4.2 TB for the Itanium2 and Opteron nodes and other 2 with 22 and 40 TB for the Xeon nodes. All the nodes are connected with a high bandwidth and low latency Infiniband network.

    Other resources

    Arina has 3 servers, arina (Itanium2), katramila and guinness (Xeon) where researches can use to access the cluster. This servers work as connection, visualization, compilation and test servers. All the servers mount the same /home file system using NFS. Every night the/home is backed up. When a computing node writes in /home the data is sent using the NFS protocol using an ethernet  slow connection. We strongly recommend to use during the calculations the  the local /scratch or the shared /gscratch filesystems to storage temporary data.

    Features of the Xeon nodes

    • BullX cluster with Red Hat Linux AS, AS6 and AS7 operative system.
    • 464 Xeon 5420 at 2.3 GHz cores, 648 5645 cores at 2.4 GHz, 630 Xeon 2680v2 at 2.8 GHz cores and 32 Xeon 4620v2 at 2.6 GHz cores in the shared memory node (512 GB).
    • 1.876 Xeon 2680v4  cores 2.8GHz.
    • RAM memory which ranges from 24 to 512 GB of RAM per node.
    • 40 Gb/s QDR and 56 Gb/s FDR High bandwidth and low latency Infiniband network.
    • Main server for compile Guinness and Katramila.

    Nodes with GPGPUs

    They are similar to the previous ones:

    • Two nodes with Nvidia Tesla 20 C2050 cards, Xeon 5420 at 2.3 GHz processor, 24 GB RAM and two QDR infiniband network cards.
    • Two nodes with Nvidia Tesla 20 C2070 cards, Xeon 5420 at 2.3 GHz processor, 24 GB RAM and two QDR infiniband network cards.
    • One node with Nvidia Tesla 20 cards, Xeon 2680v2 at 2.8 GHz GHz processor, 128 GB RAM and FDR infiniband network card.
    • One node with Nvidia Tesla 40 cards, Xeon 2680v4 at 2.4 GHz GHz processor, 128 GB RAM and FDR infiniband network card.

    Specific features of the nodes:

    Amount Name Type Proc Cores Speed RAM (GB) Disk (GB) Label
    1 Guinness Server 2 8 2.3 GHz 12
    1 Katramila Server 2 8 2.6 GHz 128
    1 cn3 Node 2 8 2.3 GHz 96 250 xeon,xeon8
    17 cn4-20 Node 2 8 2.3 GHz 24 250 xeon,xeon8
    36 cn21-56 Node 2 8 2.3 GHz 48 250 xeon,xeon8
    4 cn57-60 GPU node 2 8 2.3 GHz 24 250 xeon,xeon8,gpu
    18 cn61-78 Node 2 12 2.4 GHz 48 250 xeon,xeon12
    1 cn79 Node 2 12 2.4 GHz 96 250 xeon,xeon12
    35 cn80-cn114 Node 2 12 2.4 GHz 24 250 xeon,xeon12
    30 nb1-nb30 Node 2 20 2.8 GHz 128 128 xeon,xeon20
    1 nb31 Node 2 32 2.6 GHz 512 1000 xeon,xeon20
    1 nb32 GPU node 2 20 2.8 GHz 128 128 xeon,xeon20,gpu,rh7
    66 nd1-nd14,nd16-nd67 Node 2 28 2.4 GHz 128 128 xeon,xeon28,rh7
    1 nd15 GPU Node 2 28 2.4 GHz 128 128 xeon,xeon28,rh7,gpu

    The labels are used to select specific computing nodes.

    Features of the Itanium2 nodes

    • HP Integrity Server cluster with Red Hat Linux AS 4 operative system.
    • 128 Itanium2 cores at 1.3 y 1.6 GHz.
    • Between 4 and 128 GB of RAM per node.
    • 10 Gb/s and 20 Gb/s high bandwith and low latency Infiniband SDR and DDR network.
    • Main server to compile arina.

    Specific features of the nodes:

    Amount Name Type Proc Cores Speed RAM (GB) Disk (GB) Label
    1 Arina Server 2 4 1.6 GHz 8
    1 Arinaz Server 2 2 1.3 GHz 2
    4 cndXX Node 4 8 1.6 GHz 16 550 itaniumb
    10 cndXX Node 4 8 1.6 GHz 32 550 itaniumb
    1 cnd43 Node 4 8 1.6 GHz 64 550 itaniumb

    All the Itanium2 computing nodes have the itanium label. The labels are used to select specific computing nodes.

    High performance filesystems

    In addition to the local file systems (/scratch) nodes there are three shared file systems.

    • HP-SFS with 4.7 TB, parallel write/read in disk using Lustre technology. It can write at 400MB/s and read at 600MB/s ( a normal disk can do it at about 40-60 MB/s) for Itanium2 and Opteron nodes.
    • Lustre with 22 TB for Xeon (xeon8 and xeon12) nodes.
    • Lustre with 40 TB,  6.9 GB/s write speed and 5.1 GB/s read speed for Xeon (xeon20) nodes.

    Cluster Arina

    Información general

    Resumen de recursos de cálculo

    Arina consta de un total de  3.728 cores repartidos en 3.664 cores xeon y 64 cores Itanium2  con memoria RAM entre 16 y 512 GB por nodo. 4 de los servidores xeon tienen 2 tarjetas Nvidia Tesla cada uno, un  nodo con 2 Nvidia Kepler 20 y otro con 2 Nvidia Kepler 20. Existen tres sistemas de disco de alto rendimiento para scratch de cálculos basados en Lustre, uno en los itanium2 y opteron de 4.2 TB y dos en los Xeon de 22 y 40 TB. Todos los nodos de cálculo están conectados a través de una red Infiniband de alto ancho de banda y baja latencia.

     

    Otros recursos

    Arina consta de tres servidores, arina (Itanium2), Katramila y guiness (Xeon) donde se pueden conectar los usuarios desde el exterior. Estos servidores están accesibles a los usuarios como servidores de conexión, visualización, compilación y test. Todos los servidores montan el mismo directorio /home a través de NFS sobre ethernet. Todas las noches se realiza una copia de seguridad del directorio /home. Cuando un nodo escribe en /home la información ha de ser enviada al servidor a través de la red NFS (lenta). Por ello, no es recomendable hacer uso de este directorio durante el cálculo, sino lanzar los cálculos a los discos locales de cada nodo en el directorio /scratch o al almacenamiento compartido de alto rendimiento /gscratch.

    Características de los nodos Xeon

    • Cluster BullX con sistema operativo Red Hat Linux AS 5 y AS6, y AS7.
    • 464 cores Xeon 5420 a 2.3 GHz, 648 cores Xeon 5645 a 2.4 GHz, 630 cores Xeon 2680v2 a 2.8 GHz y 32 cores Xeon 4620v2 a 2.6 GHz en el nodo de memoria compartida (512 GB), y 1.876 cores Xeon 2680v4 a 2.8 GHz.
    • Memoria entre 24 y 512 GB por nodo para adaptarse mejor a los trabajos.
    • Conexión infiniband QDR a 40 Gb/s y FDR a 56 Gb/s de ancho de banda y baja latencia.
    • Servidor principal para compilar Guinness y Katramila.

    Nodos con GPGPUs

    Los nodos con GPUs son similares a los anteriores:

    • Dos nodos con dos tarjetas Tesla 20 C2050, procesador Xeon 5420 a 2.3 GHz, 24 GB de RAM y doble tarjeta infiniband QDR.
    • Dos nodos con dos tarjetas Tesla 20 C2070, procesador Xeon 5420 a 2.3 GHz y 24 GB de RAM y doble tarjeta infiniband QDR.
    • Un nodos con dos tarjetas Kepler K20, procesador Xeon 2680v2 a 2.8 GHz y 128 GB de RAM y tarjeta infiniband FDR.
    • Un nodos con dos tarjetas Kepler K40, procesador Xeon 2680v4 a 2.8 GHz y 128 GB de RAM y tarjeta infiniband FDR.

    Características específicas de los nodos:

    Cantidad Nombre Tipo S.O Proc Cores Velocidad RAM (GB) Disco (GB) Etiqueta
    1 Guinness Servidor RH6 2 8 2.3 GHz 12
    1 Katramila Servidor RH7 2 8 2.6 GHz 128
    1 cn3 Nodo RH6 2 8 2.3 GHz 96 250 xeon,xeon8,xeonbull
    17 cn4-20 Nodo RH6 2 8 2.3 GHz 24 250 xeon,xeon8,xeonbull
    36 cn21-56 Nodo RH6 2 8 2.3 GHz 48 250 xeon,xeon8,xeonbull
    4 cn57-60 Nodo GPU RH6 2 8 2.3 GHz 24 450 xeon,xeon12,gpu,xeonbull
    18 cn61-78 Nodo RH6 2 12 2.4 GHz 48 250 xeon,xeon12,xeonbull
    1 cn79 Nodo RH6 2 12 2.4 GHz 96 250 xeon,xeon12,xeonbull
    35 cn80-cn114 Nodo RH6 2 12 2.4 GHz 24 250 xeon,xeon12,xeonbull
    30 nb1-nb30 Nodo RH7 2 20 2.8 GHz 128 128 xeon,xeon20rh7,xeonbull
    1 nb31 Nodo RH7 2 32 2.6 GHz 512 1000 xeon,xeon32,rh7,xeonbull
    1 nb32 Nodo GPU RH7 2 20 2.8 GHz 128 128 xeon,xeon20,gpu,rh7,xeonbull
    67 nd1-nd14, nd16-nd67 Nodo RH7 2 28 2.8 GHz 128 400 xeon,xeon28,rh7
    1 nd15 GPU Node 2 28 2.4 GHz 128 128 xeon,xeon28,rh7,gpu

    Las etiquetas se usan para seleccionar nodos específicos si fuese necesario a la hora de calcular.

    Características de los nodos Itanium

    • Cluster HP Integrity Server con sistema operativo Red Hat Linux AS 4.
    • 128 cores Itanium2 a 1.3 y 1.6 GHz.
    • Memoria entre 4 y 128 GB por nodo para adaptarse mejor a los trabajos.
    • Conexión infiniband SDR y DDR a 20 y 10 Gb/s de ancho de banda y baja latencia.
    • Servidor principal para compilación Arina.

    Características Técnicas del cluster:

    Cantidad Nombre Tipo Proc. Cores Velocidad RAM (GB) Disco (GB) Etiqueta
    1 Arina Servidor 2 4 1.6 GHz 8
    1 Arinaz Servidor 2 2 1.3 GHz 2
    4 cndXX Nodo 4 8 1.6 GHz 16 550 itaniumb
    10 cndXX Nodo 4 8 1.6 GHz 32 550 itaniumb
    1 cnd42 Nodo 4 8 1.6 GHz 128 550 itaniumb
    1 cnd43 Nodo 4 8 1.6 GHz 64 550 itaniumb

    Todos los nodos de cálculo tienen además la etiqueta itanium. Las etiquetas se usan para seleccionar nodos específicos si fuese necesario a la hora de calcular.

    Características de los nodos Opteron

    • Cluster DL585 Server con sistema operativo Red Hat Linux AS 4 (update 4).
    • 40 microprocesadores Opteron a 2.4 GHz.
    • Memoria entre 16 y 64 GB por nodo para adaptarse mejor a los trabajos.
    • Conexión infiniband SDR  a 10 Gb/s de ancho de banda y baja latencia.
    • Servidor principal para compilación Maiz.

    Características Técnicas del cluster:

    Cantidad Nombre Tipo Proc. Cores Velocidad RAM (GB) Disco (GB) Etiqueta
    1 Maiz Servidor 2 4 1.8 GHz 4
    2 cno02-03 Nodo 4 8 2.4 GHz 16 72 opteron
    1 cno05 Nodo 4 8 2.4 GHz 32 72 opteron

    Conexión de red para cálculo infiniband con 10 GB/s de ancho de banda y baja latencia. Las etiquetas se usan para seleccionar nodos específicos si fuese necesario a la hora de calcular.

    Sistemas de archivo de alto rendimiento

    A parte de los discos locales de cada nodo (/scratch) se tienen tres sistemas de archivos global para cálculo.

    • HP-SFS de 4.7 TB de capacidad neta, de escritura y lectura paralela en discos y basado en tecnología Lustre. Alcanza los 400MB/s de ancho de banda en escritura y los 600MB/s en lectura (un disco normal anda en 30-40 MB/s).
    • Lustre de 22 TB de capacidad neta en los nodos Xeon (xeon8 y xeon12).
    • Lustre de 40 TB de capacidad neta, 6.9 GB/s de velocidad en escritura y 5.1 GB/s en lectura en los nodos Xeon (xeon20)

    Arina klusterra

    Informazio orokorra

    Kalkuluarko baliabideen laburpena

    Arinak 1400 kalkulu kores ditu 1112 Xeon koretan , 248 Itanium2 koretan eta 40 opteron koretan banatuta eta 16 y 128 GB nodo bakoitzeko bitarteko memoriarekin. 4 Xeon zerbitzariak 2 Nvidia Tesla txartelak dituzte bakoitzak. Bi errendimendu altuko fitxero sistema daude Lustren oinarritatuta 4.2 TBetatkoa eta 22 TBetakoa. Kalkulu nodo guztiak Infiniband latenzia txikiko eta banda zabaleko sarearen bitartzen konektatuta daude.

    Beste baliabideak

    Arinaren zerbitzariei, arina (intanium2) eta maiz (opteron), erabiltzaileak kanpotik konektatzen dira. Zerbitzaria ethernet sarea medio dago nodoei konektatua. Sare horren bitartez esportatzen da direktorioa /home nodo guztietara, NFS bidez. Gauero direktorioaren segurtasun-kopia egiten da /home. Nodoren batek/homen idazten badu, informazioa zerbitzarira bidali behar da NFS sarea (motela) medio. Horregatik, ez da komeni kalkuluak egiterakoan direktorio hori erabiltzea, hobe da kalkuluak nodo bakoitzeko tokiko diskoetatik bidaltzea. Horretarako, nodoek 36 edo 72 Gb-ko tokiko diskoa dute, /scratch direktorioarekin (kalkulu berezietarako 130 Gb-ko nodo bat dago). Ikusi ataleko ilaren sistema medio lanak nodora nola bidali ikusi ilara-sistema..

    3 GB-eko diska kuota dago /homeean usuario bakoitzeko. Hortik aurrera edukiera fakturatu egingo da. Ikus hemen.

    Nodoak ahalmen eta abiadura handiko Infiniband sarea medio daude konektatuta, kalkulua egiterakoan komunikatzeko.

    Arinak 1112 Xeon kore ditu, 260 Itanium2 eta beste 40 Opteron. Lau zerbitzari erabili daitezke konektatzeko eta konpilatzeko: Arina eta Arinaz Itanium2 procesadoreekin eta prozesadore hauentzako programak konpilatzeko,Guinness Xeon procesadoreekin eta prozesadore hauentzako programak konpilatzeko eta Maiz opteron prozesadoreekin opteron nodoentzako programak konpilatzeko. Guztira 740 prozesadore (Kore) eta 4.7 eta 7.1 TB diska (gehi disko lokalak) daude.

    Ezaugarriak (Xeon)

    • Cluster BullX sistema operatiboa, Red Hat Linux AS 5.
    • 464 Xeon 5420 korak 2.3 GHz-etara eta 648 Xeon 5645 koreak 2.4 GHz-etara.
    • 24 eta 96 GB RAM nodo bakoitzeko bitartean.
    • Infiniband QDR a 40 Gb/s eta latenzia txikiko sarea.
    • Konpilatzeko zerbitzari nagusia Guinness.

    GPGPUs nodoak

    GPGPU nodoak aurrekoa bezalakoak dira baina infiniband QDR konexio bikoitza dute eta Nvidia Tesla 20 kalkulura zuzendutako tartelak

    • Bi Tesla 20 C2050 txartelekin bi nodo
    • Bi Tesla 20 C2070 txartelekin bi nodo

    Nodoen ezaugarri berariazkoak:

    Kopurua Izena Mota Proc. Cores Abiadura RAM (GB) Diskoa (GB) Etiketa
    1 Guinness Zerbitzaria 2 8 2.3 GHz 12
    1 cn3 Nodoa 2 8 2.3 GHz 96 250 xeon8
    17 cn4-cn20 Nodoa 2 8 2.3 GHz 24 250 xeon8
    36 cn21-56, Nodoa 2 8 2.3 GHz 48 250 xeon8
    4 cn57-60 gpu nodo 2 8 2.3 GHz 24 450 gpu
    18 cn61-78 Nodoa 2 12 2.4 GHz 48 250 xeon12
    1 cn79 Nodoa 2 12 2.4 GHz 96 250 xeon12
    35 cn80-cn114 Nodoa 2 12 2.4 GHz 24 250 xeon12

    Todos los nodos de cálculo tienen además la etiqueta xeon. Las etiquetas se usan para seleccionar nodos específicos si fuese necesario a la hora de calcular. Los procesadores Xeon tienen la misma arquitectura que los Opteron por lo que los programas compilados en Guinness con compatibles en los nodos Opteron.

    Itanium nodoen ezaugarriak

    • Cluster HP Integrity Server Red Hat Linux AS 4 sistema operatiboarekin.
    • 248 Itanium2 koreak 1.3 y 1.6 GHz-etara.
    • 4 y 128 GB nodo bakoitzeko RAM memoria bitartean.
    • SDR y DDR a 20 y 10 Gb/s eta latenzia txikiko Infiniband sarea.
    • Konpilatzeko zerbitzaria: Maiz.

    Ezaugarri berariazkoak:

    Cantidad Nombre Tipo Proc. Cores Velocidad RAM (GB) Disco (GB) Etiqueta
    1 Arina Servidor 2 4 1.6 GHz 8
    1 Arinaz Servidor 2 2 1.3 GHz 2
    5 cn01-10 Nodo 4 4 1.3 GHz 4 36 itanium4
    3 cn11-14 Nodo 4 4 1.3 GHz 16 36 itanium4
    3 cn15-18 Nodo 4 8 1.6 GHz 16 72 itanium8
    8 cnd20-27 Nodo 4 8 1.6 GHz 16 550 itaniumb
    14 cnd28-41 Nodo 4 8 1.6 GHz 32 550 itaniumb
    1 cnd42 Nodo 4 8 1.6 GHz 128 550 itaniumb
    1 cnd43 Nodo 4 8 1.6 GHz 64 550 itaniumb

    Kalkulurako nodoen arteko infiniband QDR 40 GB/s-ko konexioa da.

    Kalkulo nodo guztiek taulan agertzen den etiketaz gainera xeon etiketa dute. Etiketak nodo horiek aukeratzeko kalkulua egiterako oruan erabiltzen da, ikusi ilara-sistema.

    Xeon eta Opteron prozesadoreak arkitektura berdina dute, beraz, Guinnessen konpilatutako programak Opteron nodoekin konpatibleak dira.

    Xeonetan Instalatutako softwarea honakoa da:

    Area Programas
    Química Gaussian 09 Qsite Jaguar NWchem CPMD
    Física Ab-Init BigDFT Siesta Espresso
    Ingeniería StarCCM+
    Bioquímica Gromacs Macromodel
    Compiladores gnu Intel PGI
    Librerias MKL FFTW GSL hdf5 netcdf

    Ezaugarriak (itanium2)

    Arina Clusterrak 280 Itanium2 prozesagailu (Kore) ditu, RedFat AS 4(4) sistema eragilearekin lanean. Guztia, Infiniband sare beten bitartez lotua dagoelarik.

    Kopurua Izena Mota Proc. Cores Abiadura RAM (GB) Diskoa (GB) Etiketa
    1 Arina Serbitzaria 2 4 1.6 GHz 8
    1 Arinaz Serbizaria 2 2 1.3 GHz 2
    10 cn01-10 Nodoa 4 4 1.3 GHz 4 36 itanium4
    4 cn11-14 Nodoa 4 4 1.3 GHz 16 36 itanium4
    4 cn15-18 Nodoa 4 8 1.6 GHz 16 72 itanium8
    8 cnd20-27 Nodoa 4 8 1.6 GHz 16 550 itaniumb
    14 cnd28-41 Nodoa 4 8 1.6 GHz 32 550 itaniumb
    1 cnd42 Nodoa 4 8 1.6 GHz 128 550 itaniumb
    1 cnd43 Nodoa 4 8 1.6 GHz 64 550 itaniumb

    Kalkulurako nodoen arteko infiniband konexioa.

    Kalkulo nodo guztiek taulan agertzen den etiketaz gainera itanium etiketa dute. Etiketak nodo horiek aukeratzeko kalkulua egiterako oruan erabiltzen da, ikusi ilara-sistema..

    Itaniumetan Instalatutako softwarea honakoa da:

    Ezaugarriak (opteron)

    HP DL585 Server klustera 40 Opteron mikroporzesadoreekin eta Red Hat Linux AS 4 (update 4) sistema eragilearekin.

    Lukuaren ezaugarri teknikoak:

    Kopurua Izena Mota Proc. Cores Abiadura RAM (GB) Diskoa (GB) Etiketa
    1 Maiz Serbitzaria 2 4 1.8 GHz 4
    4 cno01-04 Nodoa 4 8 2.4 GHz 16 72 opteron
    1 cno05 Nodoa 4 8 2.4 GHz 32 72 opteron

    Kalkulurako nodoen arteko infiniband konexioa.

    Etiketak nodo horiek aukeratzeko kalkulua egiterako oruan erabiltzen da, ikusi ilara-sistema..

    Opteronetan Instalatutako softwarea honakoa da:

    Diska sitemaren ezaugarriak

    Noo bakoitzak dituen disko lokalez aparte (/scratch), Itanium eta Opteron nodoek HP-SFS diska sistema globala dute 4.7 TB-etako tamainarekin (Lustre teknologian oinarrituta dago) eta Xeon procesadoreak 7.1 TB-etako Lustre diska sistema bat. Lustre biltegi sistema oso eraginkorra da paralelon idazten baitu diska askotan.

    • Bere erabilira kalkuluetan erabiltzen diren aldi baterako fitxeroentzako da.
    • /gscratch bezala montatuta dago.
    • Bakarrik kalkulu nodoetatik idatzi/irakurri egin daiteke.
    • Fitzategi sistema bakarra da, hots, nodo guztiak direktorio bera ikuste dute.
    • Ez dira segurtasun kopiak egiten.
    • Oso egonkorra da eta erredundantea.

    Bere erabilera gomendatzen dugu kasu hauetan

    • Programak asko idazten edo irakurtzen du.
    • Fitxeroak oso handiak dira disko localak erabili ahal izateko, gutxi gorabehera 8 GB erabilitako cpu bakoitzagatik.
    • Kalkulu bateko nodoak fitxero bera erabili behar badute, adibidez MPI lanak zenbait nodoetan.