Archivo de la categoría: MM/MD

Qbox

Información general

Versión: 1.62.3

Qbox is a C++/MPI scalable parallel implementation of first-principles molecular dynamics (FPMD) based on the plane-wave, pseudopotential formalism. Qbox is designed for operation on large parallel computers.

2. Cómo usar

Para enviar trabajos a la cola se puede usar el comando

send_qbox  JOBNAME NODES PROCS_PER_NODE[property] TIME

Al ejecutar send_box [Enter] aparecen más las opciones de uso

Más información

Página web de  Qbox.

LAMMPS

LAMMPS (“Large-scale Atomic/Molecular Massively Parallel Simulator”) es un programa de dinámica molecular de los Laboratorios Nacionales Sandia.  LAMMPS hace uso de MPI para la comunicación en paralelo y es un  código libre/abierto, distribuido bajo los términos de la Licencia Pública General de GNU. Versión del 5 de Junio de 2019.

Información General

LAMMPS es un código de dinámica molecular clásica que  modela conjuntos de partículas en estado líquido, sólido o gaseoso. Puede modelar sistemas atómicos, poliméricos, biológicos, sistemas metálicos, granulados, y de grano grueso usando una variedad de campos de fuerza y ​​condiciones de contorno.

En sentido más general, LAMMPS integra  las ecuaciones de movimiento de Newton para las colecciones de los átomos, moléculas o partículas macroscópicas que interactúan a través de fuerzas de corto o de largo alcance con una variedad de Newton condiciones iniciales y/o  de contorno.

Para lograr  eficiencia computacional, LAMMPS utiliza listas de vecinos para realizar un seguimiento de las partículas cercanas. Las listas están optimizadas para sistemas de partículas que son repulsivas en las distancias cortas, por lo que la densidad local de partículas nunca se vuelve demasiado grande. En las máquinas en paralelo, LAMMPS utiliza técnicas de descomposición espacial de la partición del dominio de simulación 3D en pequeños sub-dominios, uno de los cuales se asigna a cada procesador. Los  procesadores  comunican y almacenan la información de átomos «fantasma»  que rodean a sus sub-dominios. LAMMPS es más eficiente (en el sentido de cálculos en paralelo) para sistemas cuyas partículas llenan una caja rectangular en 3D con una densidad más o menos uniforme. Artículos con los detalles técnicos de los algoritmos utilizados en LAMMPS se enumeran en esta sección.

 

Cómo Usar

send_lmp

  • Para enviar LAMMPS en el sistema de colas se ha creado la utilidad send_lmp. Cuando se ejecuta,
    se muestra la sintaxis de comandos, que se resume a continuación:
  • send_lmp JOBNAME NODES PROCS_PER_NODE TIME [ MEM ] [``Other queue options'']

 

JOBNAME: Is the  name of the input with extension.
NODES: Number of nodes.
PROCS: Number of  processors.
TIME: Time requested to the queue system, format hh:mm:ss.
MEM: Optional. Memory in Gb ( It will used 1GB/core if not set).
[``Other Torque Options'' ] Optional. There is the possibility to pass more variables to the queuing system.
See examples below.   More information about this options

Ejemplos

Enviamos la entrada lammps Job1 a un nodo, cuatro procesadores en ese nodo, con un tiempo de 4 horas solicitado:

send_lmp job1.in 1 4 04:00:00

Enviamos un trabajo a 2 nodos compuation, 8 procesadores en cada nodo, con un tiempo solicitado de 192 horas, 8 GB de memoria RAM y para empezar a correr después del trabajo 1234.arina haya terminado:

send_lmp job2.inp 2 8 192:00:00 8 ``-W depend=afterany:1234'

Enviamos el  Trabajo a 4 nodos y 4 procesadores en cada nodo, con el tiempo de 200 horas, 2 GB de RAM y solicitamos se nos envíe un correo electrónico al principio y al final del cálculo de la dirección especificada .

send_lmp job.inp 4 4 200:00:00 2 ``-m be -M mi.email@ehu.es''

send_lmp comando copia el contenido del directorio desde donde se envió el trabajo al /scratch o   /gscratch, si utilizamos dos o más nodos. Y ahí es donde se hace el cálculo.

Jobs Monitoring

Para facilitar el seguimiento y/o control de los cálculos LAMMPS, se puede utilizar remote_vi

remote_vi JOBID

Nos muestra el archivo *. out (sólo si ha sido enviado con send_lmp).

Más información

http://lammps.sandia.gov

NAMD

La versión instalada es la 2.8

Programa con potenciales empíricos que incluye dinámica molecular, minimización de energía y Monte Carlo, desarrollado en la Universidad de Illinois. Especialmente orientado a la simulación de sistemas biológicos.

El software se encuentra instalado tento en arina como en pendulo, el el directorio
/software/NAMD_2.6. Se ha creado también el script send_namd para enviar trabajos de NAMD.

Como mandar NAMD

Existen dos formas de ejecutar NAMD en Arina y Pendulo:

    • Usando send_namd.
    • Creando un script torque y enviar esté a la cola.
  1. send_namd
      • Para lanzar al sistema de colas NAMD existe la utilidad send_namd. Al ejecutarlo,
        muestra la sintaxis del comando, que se resume a continuación:
      • Modo de Uso:send_namd JOBNAME PROCS_PER_NODE[property] TIME MEM [«Other queue options» ]
        JOBNAME: Nombre del input de NAMD completo, con extensión
        NODES: Número de nodos
        PROCS: Número de procesadores.
        TIME: Tiempo solicitado a la cola, formato hh:mm:ss.
        MEM: memoria en Gb y sin especificar la unidad.
        [``Otras opciones de Torque'' ] Existe la posibilidad de pasar más variables al sistema de colas.
        Ver ejemplos más abajo. [intlink id=»244″ type=»post»]Más información sobre estas opciones[/intlink]

    Ejemplos:

    Mandamos NAMD con el input job1 a 16 procesadores  con un tiempo solicitado de 4 horas y 1 GB de RAM:

    send_namd job1.namd 2 8:xeon20 04:00:00 1

    Mandamos NAMD con el input job2 con 4 procesadores, y con un tiempo solicitado de 192 horas, 8 GB de RAM y que se ejecute despues del trabajo 1234.arinab:

    send_namd job2.conf 1 8 192:00:00 8 ``-W depend=afterany:1234''

Monitorización de los cálculos:

remote_vi Para facilitar el seguimiento y/o control de los cálculos, se puede utilizar remote_vi. Nos enseña con el editor gvim el *.out del cálculo de NAMD (sólo si ha sido enviado usando send_namd).

Ejemplos:

  • remote_vi 38143.arina

Más Información

NAMD home page.

 

 

 

 

AMBER

Información general

Versión 14 de AMBER (Assisted Model Building with Energy Refinement) junto con amber tools15. Programa con potenciales empíricos que incluye dinámica molecular, minimización de energía. Especialmente orientado a la simulación de sistemas biológicos.

Cómo usar

Están compilados las versiones en serie y paralelas de AMBER y se pueden encontrar en

/software/bin/amber

send_amber

Para mandar cálculos de AMBER se ha preparado el comando send_amber. Uso:

send_amber "Sander_options" Nodes Procs_Per_Node[property] Time [or Queue] [Mem] ["Other_queue_options"]

Sander_options: the options you want to use in the calculation, inside quotes
Nodes: is the number of nodes
Procs: is the number of processors (you may uinclude the node type) per node.
Time: or Queue the walltime (in hh:mm:ss format) or the queue name of the calculation
Mem: the PBS memory (in gb)
[Mem] and ["Other_queue_options"] are optional

Para «Other queue options» see examples below:

send_amber "sander.MPI -O -i in.md -c crd.md.23 -o file.out" job1 1 8 p_slow
send_amber "sander.MPI -O -i in.md -c crd.md.23 -o file.out" 2 8:xeon vfast 16 "-W depend=afterany:1234"
send_amber "sander.MPI -O -i in.md -c crd.md.23 -o file.out" 4 8 24:00:00 32 "-m be -M mi.email@ehu.es"

Más información

Amber home page.

Manual en línea.

Tutoriales.

 

NWchem

Información general

Nwchem es un paquete de química computacional con varios métodos para calcular propiedades de sistemas moleculares y periódicos, usando descripciones mecánico-cuánticas estándar para las funciones de onda o la densidad electrónica. Además, puede realizar simulaciones de dinámica molecular y QM/MM. La versión que está instalada es la versión 5.1.

Como mandar NWchem

Ver la sección del sistema de colas [intlink id=»222″ type=»post»]como mandar trabajos NWchem[/intlink].

Más información

Nwchem home page.