Archivo de la categoría: Bioquímica

MCCCS Towhee 7.0.2

Towhee es un código de Monte Carlo (libre) de simulación molecular diseñado originalmente para la predicción de equilibrio en fluidos utilizando campos de fuerza basados en átomos.

Información General

Towhee puede utilizar varios tipos de conjuntos estadistícos  l (NVT, NpT, uVT, NVT and NpT) varios pasos Montecarlo  y también diferentes campos de fuerza. (Más información).

Cómo Usar

send_towhee

  • Para enviar Towhee  en el sistema de colas se ha creado la utilidad send_towhee. Cuando se ejecuta,
    se muestra la sintaxis del comando, que se resume a continuación:
  • send_towhee JOBNAME NODES PROCS_PER_NODE TIME [ MEM ] [``Other queue options'' ]
JOBNAME: Nombre del Output.
NODES: número de nodos.
PROCS: Número de  procesadores.
TIME: Tiempo solicitado al sistema de colas: formato hh:mm:ss.
MEM: Opcional. Memoria en Gb ( It will used 1GB/core if not set).
[``Other Torque Options'' ] Opcional. Otras opciones que se quieran pasar al sistema de colas.   More information about this options

Ejemplos

Enviamos la entrada Towhee   a un nodo, cuatro procesadores en ese nodo, con un tiempo de 4 horas solicitado. El output generado estara en el fichero OUT

send_gulp OUT 1 4 04:00:00

Enviamos un trabajo a 2 nodos compuation, 8 procesadores en cada nodo, con un tiempo solicitado de 192 horas, 8 GB de memoria RAM y para empezar a correr después del trabajo 1234.arina haya terminado:

send_gulp OUT 2 8 192:00:00 8 ``-W depend=afterany:1234'

Enviamos el  Trabajo a 4 nodos y 4 procesadores en cada nodo, con el tiempo de 200 horas, 2 GB de RAM y solicitamos se nos envíe un correo electrónico al principio y al final del cálculo de la dirección especificada .

send_gulp OUT 4 4 200:00:00 2 ``-m be -M mi.email@ehu.es''

El comando send_gulp  copia el contenido del directorio desde donde se envió el trabajo al /scratch o   /gscratch, si utilizamos dos o más nodos, y ahí es donde se hace el cálculo.

Jobs Monitoring

Para facilitar el seguimiento y/o control de los cálculos Towhee, se puede utilizar remote_vi

remote_vi JOBID

Nos muestra el archivo  output indicado en send_towhee  (sólo si ha sido enviado con send_towhee).

Más información

http://towhee.sourceforge.net/

Gulp 4.0

Información General

GULP es un programa para llevar a cabo una variedad de tipos de simulación de materiales a partir de las condiciones de contorno de 0-D (moléculas y clusters), 1-D (polímeros), 2-D (superficies, losas, …), o 3 -D (sólidos periódicos). El objetivo del código es una solución analítica, a través del uso de la «dinámica de red» (cuando sea posible) en lugar de dinámica molecular. Se pueden utilizar una gran variedad de campos de fuerza  dentro de GULP que abarca el modelo de capas de materiales iónicos, la mecánica molecular para los sistemas orgánicos, el modelo del átomo embebido de los metales y el potencial REBO de hidrocarburos. Se incluyen derivadas analíticas  por lo menos de segundo orden para la mayoría de los campos de fuerza, y de tercer orden para muchos.

Está instalado en guinness:/software/Gulp

Cómo Usar

Antes de usar GULP por favor verifica que cumplas las condiciones de uso.

send_gulp

  • Para enviar GULP en el sistema de colas se ha creado la utilidad send_gulp. Cuando se ejecuta,
    se muestra la sintaxis de comandos, que se resume a continuación:
  • send_lmp JOBNAME NODES PROCS_PER_NODE TIME [ MEM ] [``Other queue options'' ]

 

JOBNAME: El nombre del input con extensión.
NODES: Número de nodos.
PROCS: Número de  procesadores.
TIME: Tiempo pedido al sistema de colas, formato hh:mm:ss.
MEM: Optional. Memora en Gb (Si no se especifíca usará 1GB/core).
[``Other Torque Options'' ] Optional.  Otras .   More information about this options

Ejemplos

Enviamos la entrada GULP Job1 a un nodo, cuatro procesadores en ese nodo, con un tiempo de 4 horas solicitado:

send_gulp job1.gin 1 4 04:00:00

Enviamos un trabajo a 2 nodos compuation, 8 procesadores en cada nodo, con un tiempo solicitado de 192 horas, 8 GB de memoria RAM y para empezar a correr después del trabajo 1234.arina haya terminado:

send_gulp job2.gin 2 8 192:00:00 8 ``-W depend=afterany:1234'

Enviamos el  Trabajo a 4 nodos y 4 procesadores en cada nodo, con el tiempo de 200 horas, 2 GB de RAM y solicitamos se nos envíe un correo electrónico al principio y al final del cálculo de la dirección especificada .

send_gulp job.gin 4 4 200:00:00 2 ``-m be -M mi.email@ehu.es''

El comando send_gulp  copia el contenido del directorio desde donde se envió el trabajo al /scratch o   /gscratch, si utilizamos dos o más nodos, y ahí es donde se hace el cálculo.

Jobs Monitoring

Para facilitar el seguimiento y/o control de los cálculos GULP, se puede utilizar remote_vi

remote_vi JOBID

Nos muestra el archivo *. out (sólo si ha sido enviado con send_gulp).

Más información

http://projects.ivec.org/gulp/

DL_POLY

Información general

Versión 4.02 del completo programa de dinámica molecular para macromoléculas, polímeros, sistema iónicos, disoluciones y otros sistemas moleculares desarrollado en el Laboratorio Daresbury. Se ha instalado la versión 4.02 (2.2 en Pendulo). Existe también DL_POLY_CLASSIC que por el momento no se desarrolla.

 

El programa se ha compilado con soporte para GPGPUs.

Cómo mandar

El programa está instalado para todas las arquitecturas, en Arina y en Péndulo (dl_poly_2.2). Para ejecutar el programa incluir en los scripts:

/software/bin/DL_POLY/DL_POLY.Z

El programa se ejecutará en las GPGPUs si entra en dichos nodos. También se puede seleccionar este tipo de nodos con la etiqueta gpu del [intlink id=»244″ type=»post»] sistema de colas[/intlink].

También se ha instalado la interfaz gráfica. Para ejecutarla:

/software/bin/DL_POLY/gui

Se han instalado una serie de utilidades que vienen incluidas y cuyas fuentes están en el directorio /software/bin/DL_POLY/.

Benchmark

Presentamos los datos de tres pequeños benchmark realizados con dl_ploly_4.02 en los que se mide su paralelización así como su eficiencia sobre GPGPUs.

System 1 cores 4 cores 8 cores 16 cores 32 cores 64 cores
Itanium 1.6 GHz 1500 419 248 149 92 61
Opteron 1230 503 264 166 74
Xeon 2.27 GHz 807 227 126 67 37 25

Como ya observamos en este primer test el rendimiento en los nodos xeon es superior y para trabajos largos se recomienda su uso. Por otro lado también se observa que escala muy bien al aumentar el número de procesadores. En los siguientes benchmark además medimos el rendimiento de al correr sobre las GPGPUs.

System 1 cores 2 cores 4 cores 8 cores 16 cores 32 cores
Itanium 1.6 GHz 2137 303 165 93 47
Opteron 1592 482 177 134 55
Xeon 2.27 GHz 848 180 92 48 28
1 GPGPU 125 114 104 102
2 GPGPU 77 72 69
4 GPGPU 53 50
8 GPGPU 37
System 1 cores 2 cores 4 cores 8 cores 16 cores 32 cores 64 cores
Xeon 2.27 GHz 2918 774 411 223 122 71
1 GPGPU 362 333 338 337
2 GPGPU 240 222 220
4 GPGPU 145 142
8 GPGPU 97

 

Como se observa la GPGPU acelera el cálculo. El usar más cores apenas incrementa la velocidad cuando se usan GPGPUs. Doblar el número de GPGPUS sólo consigue que la velocidad se multiplique por 1.5 por lo que al final correr en paralelo en muchos cores resulta más eficiente. Tomemos como ejemplo el último benchmark. Cada nodo tiene 2 GPGPUs y 8 cores. Usando 8 cores se tarda 411 s. y usando las GPGPUs podemos bajar hasta los 220 s. Usando 2 nodos, 4 GPGPUs vs 16 cores aun son más rápidas las GPGPUs. Pero con 32 cores el cálculo tarda 71 s mientras que usando las 8 GPGPUs disponibles en los 4 nodos tardamos 97 s. Podemos concluir que para un PC o en nuestro cluster para un nodo la tarjeta gráfica puede acelerar significativamente el cálculo, pero para cálculos masivamente paralelos la paralelización sobre CPUs es más efectiva.

DL_POLY está diseñado para sistemas grandes e incluso el uso de miles de cores. Según la documentación de DL_POLY:

The DL_POLY_4 parallel performance and efficiency are considered very-good-to-excellent as long as (i) all CPU cores are loaded with no less than 500 particles each and (ii) the major linked cells algorithm has no dimension less than 4.

Más información

Página principal de DL_POLY.

Manual de DL_POLY (pdf).

Manual de la interfaz gráfica de DL_POLY (pdf).

NAMD

La versión instalada es la 2.8

Programa con potenciales empíricos que incluye dinámica molecular, minimización de energía y Monte Carlo, desarrollado en la Universidad de Illinois. Especialmente orientado a la simulación de sistemas biológicos.

El software se encuentra instalado tento en arina como en pendulo, el el directorio
/software/NAMD_2.6. Se ha creado también el script send_namd para enviar trabajos de NAMD.

Como mandar NAMD

Existen dos formas de ejecutar NAMD en Arina y Pendulo:

    • Usando send_namd.
    • Creando un script torque y enviar esté a la cola.
  1. send_namd
      • Para lanzar al sistema de colas NAMD existe la utilidad send_namd. Al ejecutarlo,
        muestra la sintaxis del comando, que se resume a continuación:
      • Modo de Uso:send_namd JOBNAME PROCS_PER_NODE[property] TIME MEM [«Other queue options» ]
        JOBNAME: Nombre del input de NAMD completo, con extensión
        NODES: Número de nodos
        PROCS: Número de procesadores.
        TIME: Tiempo solicitado a la cola, formato hh:mm:ss.
        MEM: memoria en Gb y sin especificar la unidad.
        [``Otras opciones de Torque'' ] Existe la posibilidad de pasar más variables al sistema de colas.
        Ver ejemplos más abajo. [intlink id=»244″ type=»post»]Más información sobre estas opciones[/intlink]

    Ejemplos:

    Mandamos NAMD con el input job1 a 16 procesadores  con un tiempo solicitado de 4 horas y 1 GB de RAM:

    send_namd job1.namd 2 8:xeon20 04:00:00 1

    Mandamos NAMD con el input job2 con 4 procesadores, y con un tiempo solicitado de 192 horas, 8 GB de RAM y que se ejecute despues del trabajo 1234.arinab:

    send_namd job2.conf 1 8 192:00:00 8 ``-W depend=afterany:1234''

Monitorización de los cálculos:

remote_vi Para facilitar el seguimiento y/o control de los cálculos, se puede utilizar remote_vi. Nos enseña con el editor gvim el *.out del cálculo de NAMD (sólo si ha sido enviado usando send_namd).

Ejemplos:

  • remote_vi 38143.arina

Más Información

NAMD home page.

 

 

 

 

AMBER

Información general

Versión 14 de AMBER (Assisted Model Building with Energy Refinement) junto con amber tools15. Programa con potenciales empíricos que incluye dinámica molecular, minimización de energía. Especialmente orientado a la simulación de sistemas biológicos.

Cómo usar

Están compilados las versiones en serie y paralelas de AMBER y se pueden encontrar en

/software/bin/amber

send_amber

Para mandar cálculos de AMBER se ha preparado el comando send_amber. Uso:

send_amber "Sander_options" Nodes Procs_Per_Node[property] Time [or Queue] [Mem] ["Other_queue_options"]

Sander_options: the options you want to use in the calculation, inside quotes
Nodes: is the number of nodes
Procs: is the number of processors (you may uinclude the node type) per node.
Time: or Queue the walltime (in hh:mm:ss format) or the queue name of the calculation
Mem: the PBS memory (in gb)
[Mem] and ["Other_queue_options"] are optional

Para «Other queue options» see examples below:

send_amber "sander.MPI -O -i in.md -c crd.md.23 -o file.out" job1 1 8 p_slow
send_amber "sander.MPI -O -i in.md -c crd.md.23 -o file.out" 2 8:xeon vfast 16 "-W depend=afterany:1234"
send_amber "sander.MPI -O -i in.md -c crd.md.23 -o file.out" 4 8 24:00:00 32 "-m be -M mi.email@ehu.es"

Más información

Amber home page.

Manual en línea.

Tutoriales.

 

NWchem

Información general

Nwchem es un paquete de química computacional con varios métodos para calcular propiedades de sistemas moleculares y periódicos, usando descripciones mecánico-cuánticas estándar para las funciones de onda o la densidad electrónica. Además, puede realizar simulaciones de dinámica molecular y QM/MM. La versión que está instalada es la versión 5.1.

Como mandar NWchem

Ver la sección del sistema de colas [intlink id=»222″ type=»post»]como mandar trabajos NWchem[/intlink].

Más información

Nwchem home page.