Informática Aplicada a la Investigación Rotating Header Image

septiembre, 2010:

Gaussian nola bidali

send_gauss agindua

G09 lanak bidaltzeko agindu hau erabiltzea gomendatzen dugu. Honek, gaussianeko *.com-ean prozesagauilu kopurua eta memoria egokitzeaz gain, torqueren kolako sarrera fitxategia ere prestatuko du.

Lana, exekuzio nodoetan egingo da eta emaitza bertan gorde. Lana jarraitu ahal izateko remote_vi eta remote_molden prestatu ditugu (ikusi beherago).

send_gauss erabiltzeko modua honakoa da:

send_gauss lana denbora  proz_kop [mem] [ TORQUE beste aukerak]

Zein:

  • lana: gaussian inputaren izena da *.com estensiorik gabe.
  • denbora:  oo:mm:ss formatoan, kakuluarentzat eskatzen den denbora.
  • proz_kop: Erabiltzea nahi den prozesagailu kopurua, 8 baino txikiagoa edo 8ren multiploa izan behar du . Prozesagailu mota ere adierazi daiteke “:xeon”, “:itanium”, edo “:opteron”.
  • mem:  zenbat memoria eskatzen den nodo bakiotzeko
  • [TORQUE Aukera Aurreratuak]: torque ilara sistemari adierazi nahi zaizkion aukera aurreratuak.

Adibideak

send_gauss h2o 400:00:00 16

h2o lana  16 prozesagailuetara bidaliko du, 8 prozesagailu nodo bakoitzean,  400:00:00 ordutarako.  Memoria defektuzkoa jarriko zaio,  (nproc*900mb), 7200mb.

send_gauss h2o 10:00:00 8 60

h2o  8 prozesagailuetara bidaliko du (nodo bakarrera)   60gb-etako  RAM memoria eskatuz. Lanak 10 ordu iraungo ditu gehienez.

send_gauss h2o 23:00:00 16:itaniumb 16 ``-m be -M niri@ehu.es -W depend=afterany:4827''

h2o en 16   itaniumb motako prozesagailuetara bidaliko du, 16gb-etako   RAM memoria erreserbatuz. Eskatutako denbora 23 ordutakoa da. Torque ilara sistema, lana hasi eta bukatzean email bay bidaliko du “niri@ehu.es” helbidera.  Gainera,  4827 lana bukatu harte ezingo da hasi.

qsub interaktiboa

qsub

exekutatzen bada menu interaktibo bat agertuko zaigu eta honek egindako galderak erantzunez g09 bidlai hal izango da. qsub interaktiboari buruzko informazio gehiago.

Ohiko qsub

Torquerako qsub skritp bat presta daiteke zuzenean. Esteka honetan adibide batzuk daude.

Lanaren jarraipena

remote_vi eta remote_molden aginduek, lana exekutatzen ari den bitartean .log fitxeroa ikusteko edo Molden-ekin marrasteko aukera eskeintzen dute. Lana send_gauss edo qsub interaktiboarekin bidali behar da.

remote_vi 2341
remote_molden 2341.arina

edo

remote_vi 2341.arina
remote_molden 2341

non 2341(.arina) lanaren identifikadorea den.

Zerbitzuak

Zerbitzuk bere hardware propioa du, komunitate zientifikoak erabiltzeko eskura dagoena. Baliabide hauek baliagarriak izan daitezkeen alor eta aplikazio posibleak hauek dira:

  • Simulazioa.
    • Material eta molekulen simulazioa maila atomikoan dinamika molekular atomikoarekin.
    • Quantum montecarlo.
    • Egitura elektronikoko metodoak orokorrean.
    • Biopolimeroen modelizazioa (proteinak, DNA …) egitura mailan nahiz dinamika molekularrean.
    • Materialen simulazioa maila makroskopikoan, bero-difusioa, esfortzuari erresistentzia,…
    • Meteorologiako eta fluidoen simulazioak.
  • Bioinformatika aplikazioak.
  • Irudiak errendatu.
  • Datu-baseen tratamendua.
  • Beren ezaugarriak direla eta, potentzia handiagoko ordenagailu bat gomendatu edo eskatzen dituzten kalkuluak. Edo, behar hori gabe, zerbitzarietan egotea egokia denean.
  • Burtsa merkatu, enpresen kudeaketa eta abarren simulazioak
  • Kalkulu paraleloa.

Teknikariek ondoko mailetan eskaintzen dute laguntza:

SIESTA

(más…)

Siesta nola bidali

Nola bidali Siesta

Koletara bidaltzeko hiru era daude:

  • send_siesta komandoa erabiliz.
  • qsub interaktiboan erabiliz.
  • Qsub-entzako script arrunt bat sortuz.

send_siesta

send_siesta agindua sortu dugu Siesta lanak bidaltzeko. send_siesta Arina-n egikaritzean, aginduaren sintaxia erakusten da, jarraian laburtzen dugu:

send_siesta JOBNAME NODES PROCS_PER_NODE[property] TIME MEM ["Other queue options"]

JOBNAME: Extensiorik gabeko inputaren izena.
NODES: Nodo kopurua.
PROCS: Prozesadore kopurua.
TIME: Eskatutako denbora hh:mm:ss formatoan.
MEM: Memoria Gb-etan, unitatea adierazi gabe.
["Other queue options"] Torqueri aldagai gehiago pasatzeko aukera hematen digu. Dana komatxoen artean adieraziz.

Adibideak
job1 lana, nodo batean eta 4 itaniumb prozesadoretan bidalzteko:

send_siesta job1 1 4:itaniumb 04:00:00 1

job2 lana 2 nodo eta bakoitzeko 4 prozesadoretan, 192 ordu eta 8gb-etako memoria eskatuz. Gainera, job2 lana dagoneko kolan dagoen 1234 lanaren odoren sartzea nahi dugu:

send_siesta job2 2 4 192:00:00 8 ``-W depend=afterany:1234''

job2 lana 4 nodo 8 prozesadoretan baokitzean bidaltzeko, 200 ordu, eta 15 gb etako RAM memoria eskatuz. Gainera, lana hasi eta bukatzean email bat bidalzteko adierazten diogu esandako email helbidera.

send_siesta job2 4 8 200:00:00 15 ``-m be -M nire.emaila@ehu.es''

send_siesta aginduak, lana bidalitako katalogoaren edukia /scratch edo /gscratch -n burutuko du -azken kasua 2 edo nodo gehiago erabiliz gero-. Bukatzean, emaitza bidalitako katalogora kopiatuko du azpikatalogo batera.

 

Qsub interaktiboa

Exekutatu

qsub

eta erantzun galderei.

qsub tradizionala

Sortu pbs-rentzako scrip bat, hemen adibideak daude, non siesta exekutatzeko gehitu lerro hau

/software/bin/siesta/siesta_mpi < input.fdf > log.out

non input fitxeroa gehitu estensio gabe.

Lanen jarraipena

      send_siesta edo qsub interaktiboa erabiliz bidalitako lanen jarraipena erraztearren, hurrengo tresnak eskura ditu erabiltzaileak:
remote_vi
gvim erabiliz, siesta kalkuluaren outputa *.out fitxategia irekiko digu.
remote_xmakemol
xmakemol erabiliz, siesta kalkuluaren *.ANI fitxategia irekiko digu.
remote_qmde
xmgrace programarekin Dinamila Molekularra egiten ari den siesta kalkulu beten, energia vs denbora irudikatuko digu.

Tresna hauen erabilera berdintsua da, agindua eta jarraian aztertzea nahi del lanaren kola identifikatzailea adierazi behar delarik. Adibideak 3465 lanarentzako:

remote_vi 3465
remote_xmakemol 3465
remote_qmde 3465

Siesta

Información general

Spanish Initiative for Electronic Simulation with Thousands Atoms. Programa de cálculo ab-initio de DFT para sólidos y moléculas. Permite realizar relajaciones y simulaciones de dinámica molecular. Usa orbitales localizados y permite calcular con un gran número de átomos. Se distribuye gratuitamente, pero se requiere solicitar la licencia académica.  Las versiones instaladas son la 2.0.1 en Itanium y la 3.0rc1 en x86-64.

Cómo mandar Siesta

Sigue este enlace.

Más información

Siesta home page.

Manual en línea de Siesta.

Macromodel Nola Bidali

  1. Sarrera fitxategiak prestatu eta gero, kalkulua ilara sistemara bidaltzeko moduak honakoak dira:
    • send_mmodel:
      send_mmodel JOBNAME
      JOBNAME input-aren izena delarik.
    • qsub interaktibo-a erabiliz.

    Macromodel-en eskuliburuak arina:/software/schrodinger/docs-en daude eskuragarri.

Gaussian 03 eta 09

Gaussian kimika konputazionaleko pakete bat da. Hainbat metodo ditu sistema molekular eta periodikoen propietateak kalkulatzeko; uhin-funtzioetarako edo dentsitate elektronikorako deskripzio mekaniko-kuantiko estandarrak erabiltzen ditu. (más…)

Euskarri Estrategikoa

  • Konputazio zientifikoaren alorrean garapen aipagarrienen jarraipena, Zerbitzua hobetzeko asmoarekin.
  • Zerbitzu berarentzako edo eskatzen duen erakundeko ikertzaile edo ikertzaile taldeentzako Kalkulu zientifikorako ekipamendu berri bat eskuratzeari buruzko aholkularitza.
  • Ikerketa taldeek erabiltzeko softwarea eskuratzeko kudeaketa.
  • EHUn dagoen softwarearen arrazionalizazioa.
  • Kalkulu zientifikoko ekipamendua eskuratzeko deialdi publiko lehiakorrentzako eskaerak prestatzeari buruzko aholkularitza, bai eta deialdi horietan erakundearentzat eraginkorrenak diren ikertzaileen aliantzei buruzkoak.

Baliabideen administrazioa

Zerbitzuari esleitu zaizkion lanak, Lukuaren mantentze lanarekin eta funtzionamendu egokiarekin erlazia dutenak, hauek dira: (más…)

VASP

Informazio orokorra

Vienna Ab-initio of Simulation Package

DFT-ko ab-inito kalkulu programaren 5.4.4 bertsioa. Uhin lau eta pseudo-potentzialen (ultrasoft eta PAW-augmented wave method) oinarriarekin, Vienako Unibertsitatean garatua. Lasaitze atomikoak egitea baimentzen du (dinamika molekularra). VSTS tresnekin konpilatuta.

Lizentzia izatea beharrezkoa da.

Nola erabili

Paraleloan honekin exekutatu daiteke:

/software/bin/vasp

p4vasp eta XCrySDen ikustarazteko softwarea instalatuta dago. Fitxeroak XCrySDen formatora pasatzeko XfsConvert instalatuta dago, erabiltzeko exekutatu:

v2xfs

Kalkuluen jarraipena

Kalkuluen conbergentzia aztertzeko

remote_vi JOB_ID

komandoa dago. Honek OSZICAR eta OUTCAR fitxeroak irekitzen ditu eta energia eta energiaren aldaketa marrazten ditu. Honetarako ssh -X erabili behar da konexioa irekitzerakoan edo X2GO erabili grafikoen lehioak ireki ahal izateko.

Informazio gehiago

VASP home page eta dokumentazioa.

VTST tools.

NWchem

Informazio orokorra

5.1 bertsioa HPMPI eta MPI-BULL-ekin konpilatua dago. QM eta QM/MM kalkuloak egiteaz gain, sistema periodikoak eta dinamika kuantikoa egiteko gai da programa hau.

Nola erabili NWchem

Informazio gehiago

NWchem home page.

Zerbitzuaren bitartez lortutako Argitalpenak

Zerbitzuaren bitartez lortutako Argitalpenak ikusi edo bidali ditzazkezu etal honetan,
(más…)

Estatistikak

Arina eta Penduloren erabilerari buruzko hilabeteroko estatistikak. (más…)

Aurkezpenak

Arkitektura Paraleloak ikasgaiko ikasleei egindako zerbitzuaren aurkezpena (2010-12-17).
(más…)

Zerbitzura sartzeko politika

Sarbidea

Informatika Zerbitzu Nagusia (Kalkulu Zientifikoa) (IZN) EHUko Ikerkuntzarako Zerbitzu Orokorren (SGIker) parte da; beraz, haien protokoloak eta araudiak betetzen ditu.
Ikertzaileek kalkulu-kontuak eska ditzakete baliabide konputazionaletarako; bestela, teknikariengana ere jo dezakete, laguntza eskatzera. Institutu publikoetarako eta enpresetarako sarrera eskatzeko teknikariekin jarri behar dute harremanetan. Informazio gehiago honako loturan aurkitu dezakete: Tarifak Informazioa Enpresentzat.[/intlink]

Ordenagailuan nahi beste denbora egon daiteke, baina kalkulu-denbora fakturatu egiten da, bai EHUko ikertzaileei, bai enpresei, bai institutu publikoei, bai gainerako agenteei (Tarifakikus kanporako tarifak[/intlink]). UPV/EHUko ikertzailek beheko fakturazioa jarraitzen dute. Diskontuak adostu daitezke kalkulu kopuru handiagatik edo beste unibertsitatekin, enpresekin edo erakundeekin eraturako hitzarmenen bitartez.

Tarifak

Tarifa hau indarrean egongo da 2011 azaroaren 30a arte, zerbitzuko azpiegitura nabarmen aldatzen ez bada (ez dago ezer programatuta).

2010 uztailaren 1etik 2010 azaroaren 30 arte proportzionalki fakturatuko da.

Tarifas por uso de CPU

  1. Talde batentzako tarifa 0.044 euro/ordu/core izango da taldeak zerbitzuak duen kalkulu denboraren %3.7 iritsi arte (10.100 kalkulu egunak 10.000 euro direnak).
  2. Kontsumo hemendik aurrera kalkulatzen dena 0.0044 euros/ordu/core salneurrira fakturatuko da.

Diska/Biltegiratze tarifak

Hurrengo irizpideak jarraituz fakturatuko da.

  1. Zerbitzuak gehiago erabiltzen duena, hots datuak erabiltzen dituena, gutxiago ordainduko du. Horregatik kalkulu denboraren araberako tarifak ezartzen dira.
  2. Ez da fakturatuko 3 GBetatik baino gutxiatik.
  3. Hilabete bakoitzeko fakturatuko da hilabete horretan erabilitako diskoaren batezbestekoa kontutan hartuz.
  4. Beheko taulako salneurriak erabiliko dira taldeak urtean erabili duen kalkulu denboraren arabera.
GB apartengatik ezarri diren tarifak kalkulu denboraren arabera.
Rango de uso de CPU Tarifa de Almacenamiento
(en días al año) (Euros/Gb) al mes
2500< cpu 0.1
100< cpu <2500 0.5
1< cpu <100 1.0
0< cpu <1 1.5

EHUko ikertzaileen fakturazioa BGUen bitartez egin behar da (BGUrik ez izanez gero, teknikariekin harremanetan jarri behar da). Lukua ez saturatzeko eta kudeaketa errazteko eta optimizatzeko kalkulurako denbora-eskaria egin behar da.

Kalkulu Baliabideak Banatzeko Batzordea – KB3


Ikerkuntza Errektoreordeari sarrera-politikak eta erabiltzaileentzako gastuak (aholkularitza-zerbitzua eta hardwarearen erabilera) zehazten laguntzeko Kalkulu Baliabideak Banatzeko Batzordea (KB3) osatu da. Erabakiak irizpide hauek oinarri hartuko dira:

  1. IZNko baliabideen eskuragarritasuna.
  2. Eskarien garrantzi akademikoa.
  3. KB3 batzordeak erabakitzeko.

KB3 hauek osatzen dute:

  1. Ikerkuntzako errektoreordea.
  2. Campus bakoitzeko arduradun bana.
  3. Kalkulu zientifikoan gaitasun ziurtatua duen zientzialari bat, Ikerkuntzako errektoreordeak izendatua.
  4. Zerbitzuko teknikariak.

Hona hemen KB3 batzordeak hartutako erabaki nagusiak:

  • EHUko ikertzaile guztiek eska dezakete  kalkulu-kontuak  Arinan. Kontratatuta ez daudenek Unibertsitateko irakasle baten bermea beharko dute. Lukua erabiltzaile guztiek berdin erabiliko dute.
  • Baliabideak eskaera bidez esleituko dira (eskaera ikertzaile-taldeek egin behar dute). Ikertzaile-talde bakoitzak PUZa erabiltzeko denbora jakin bat izango du eta denbora hori fakturatu egingo da.
  • Kalkulu-denboren banaketa.

Kalkulu denbora eskaera

Kalkulatu ahal izateko, kalkulu-denbora eskatu behar da Arinan. Kalkulatzeko denbora eska dezakete, batetik, EHUk kontratatutako irakasle eta ikertzaileek; eta bestetik, kanpoko agenteek (erakunde publiko edo pribatuak, enpresak…). EHUko ikertzaileek formularioa bete behar dute: indarrean dagoen deialdian beharko duten denbora eskatu behar dute, 2009. urtea. (más…)

Kontuak eskatzea

EHUko ikertzaile guztiek erabil ditzakete baliabide konputazionalak. EHUk kontratatuta ez dauden pertsonek EHUko kideren baten bermea behar dute. Enpresa edo institutu publikoetako kanpo-erabiltzaileek teknikariekin jarri behar dute harremanetan.
(más…)

MKL Intelen matematika-liburutegiak

Informazio orokorra

Liburutegi horiek osagai hauek dituzte: LAPACK eta BLAS liburutegiak, Fourier-en transformatuak, PARDISO (ekuazio linealen sistema handiak ebazten ditu), funtzio matematikoak (Vector Math Library-VML) eta funtzio estatistikoak (Vector Statistical Library-VSL).

Zalantzak badituzu edo informazio gehiagorako galdetu  teknikariei.

 

Nola linkatu

Arkitektura desberdinentzako nola linkatu ez badakizu mesedez kontsultatu teknikariei.

Defektuz instalatutako liburutegiak

  • 11.1 Itanium2 nodoetan (/opt/intel/Compiler/11.1/073/mkl/lib/64).
  • 15.0 Xeon nodoetan (/software/intel/composerxe/mkl/lib/intel64).
  • 15.0 Pendulon (/software/intel/composerxe/mkl/lib/intel64).

Informazio gehiago

MKL 10.1 erabiltzailearen eskuliburua pdf formatuan.

MKL 10.1 liburutegien eskuliburua.

VSL 9.1ren eskuliburua pdf

Online informazioa.

Intel Konpilatzaileak

Informazio orokorra

Itanium2 nodoetan bereziki, konpilatzaile hauek erabiltzea goemndatzen dugu. GNU konpilatzailean baino eraginkorragoak baitira.

Zerbitzuko zerbitzaritan konpilatzeko txosten bat (pdf) prestatu dugu. Oso gomendagarria da irakurtzea. Bertan, zerbitzuko makina guztietarako programak nola konpilatu eta erabili azltzen dugu ere.

Zalantzak badituzu edo informazio gehiagorako galdetu  teknikariei.

 

Nola exekutatu

Fortran, C edo C++ exekutatzeko erabili ifort, icc, icpc.

Defektuz instalatutako konpilatzaileak

  • Itanium nodoetan Intel 11.1 Fortran (ifort), C (icc) eta C++ (icpc).
  • Xeon nodoetan Intel 15.0 Fortran (ifort), C (icc) eta C++ (icpc).

Informazio Gehiago:

Egikaritu, ifort -help konpilatzaile bakoitzarentzat edo galdetu  teknikariei.

Fortan Eskuliburua

Fortran Konpilatzailearen Eskuliburua

C Konpilatzailearen Eskuliburua

MPI Liburutegiak

Informazio orokorra

MPI liburutuegiak kalkulu paraleloak banatuak egiterakoan gehien erabilzten diren liburutegiak dira. MPI inplementazio mota desberdinak daude. Zerbitzuan hainbat ditugu instalatuta: HP-MPI, Bull-MPI,… Azkeneko bertsioak IntelMPI 4.0.3, MPIbull2 1.3, hpMPI 2.02, openMPI 1.4 eta mvapich2 1.5 dira. Taula honetan erraz ikusi dezakezu bakoitza non dagoen eskuragarri.

Zalantzak badituzu edo informazio gehiago behar baduzu galdetu teknikariei.


Defektuz instalatutako liburutegiak

Defektuz erabiltzen direnak hauek dira

  • Itanium  nodoetan (Arina), MPIbull2.
  • Opteron nodoetan (Maiz) IntelMPI.
  • Xeon nodoetan (Guinness eta Katramila) Intelmpi.
  • OpenMPI Pendulon.

IntelMPI liburutegiak

Xeon y opteron nodoetan (Arina y maiz) eskuragarri daude. Defektuzkoa ez badira kargatu daitezke exekutatzen

source /software/intel/impi_latest/bin64/mpivars.sh

Inteleko Fortran, C y C++ kompiladoreak erabiltzeko exekutatu mpiifort, mpiicc e mpiicpc hurrenez hurren. GNU konpiladoreak erabiltzeko exekutatu mpif90, mpicc e mpiCC.

MPIbull2 liburutegiak

Xeon eta itanium nodoetan (Guinness eta Arina) ezkuragarri daude. Defektuzkoa ez badira kargatu daitezke exekutatzen

source /opt/mpi/mpibull2-1.3.9-18.s/share/mpibull2.sh

Inteleko Fortran, C y C++ kompiladoreak erabiltzeko exekutatu mpif90, mpicc e mpiCC.

HpMPI liburutegiak

Itanium eta opteron nodoetan (Arina y Maiz) eskuragarri daude. Defektuzkoa ez badira kargatu daitezke exekutatzen

export PATH=/opt/hpmpi/bin:$PATH

Inteleko Fortran, C y C++ kompiladoreak erabiltzeko exekutatu mpif90, mpicc e mpiCC.

OpenMPI liburutegiak

Xeon nodoetan (Guinness) eta Pendulon eskuragarri daude. /software/openmpi direktorioan instalatuta daude. Erabili ahal izateko path osoa zehaztu behar da, adibidez

/software/openmpi/bin/mpif90

Inteleko Fortran, C y C++ kompiladoreak erabiltzeko exekutatu mpif90, mpicc e mpiCC.

mvapich2 liburutegiak

Xeon nodoetan (Guinness) eskuragarri daude. /software/mvapich2 direktorioan instalatuta daude. Erabili ahal izateko path osoa zehaztu behar da, adibidez

/software/mvapich2/bin/mpif90

Inteleko Fortran, C y C++ kompiladoreak erabiltzeko exekutatu mpif90, mpicc e mpiCC.

Txostenak

Arina modu eragimkorrean erabiltzeko hainbat txosten bildu ditugu.
(más…)

NX Zerbitzaria

Informazio orokorra

NX terminal edo remotoko konexio grafiko bat egiteko tresna da.
Gure PC-tik aplikazio grafikoak modu eraginkorrean erabilzteko oso gomendagarria da, esate baterako, Maestro, ADFView, starccm+, gaussview ea,. bezalako programa grafikoak. Konexioa Arinarekin egiterako garaian, Guinness, Pendulo edo Maiz erabili beharko dira.

Nola erabili

Dokumentu honetan pausoz pauso azaltzen dugu nola egin konexioa.

Informazio gehiago

NX bezeroak Nomachine web-orritik jeitxi dezakezue.

Zerbitzuko baliabideak edozein  enpresa edo unibertsitatetik kanpo dagoen edozein erakundearentzat eskuragarri daude. Informazio gehiago beharrez gero arremanetan jarri Zerbitzuko Teknikeriekin.

Empresentzako tarifak

CPU tarifa

Konputazio baliabideak erabiltzeko tarifa 0.018 €/ordu bakoitzeko eta kore bakoitzeko da (B.E.Z. gabe). Laguntza teknikoa barne dago lan eta arazo txikientzako. Ez dago barne datuentzako diskoa ezta teknikarien zerbitzu espezializatuak, hauentzako aurrekontua eskatu beharko da.

Disko tarifa

Hurrengo irizpideak jarraituz fakturatuko da.

  1. Zerbitzuak gehiago erabiltzen duena, hots datuak erabiltzen dituena, gutxiago ordainduko du. Horregatik kalkulu denboraren araberako tarifak ezartzen dira.
  2. Ez da fakturatuko 3 GB baino gutxiatik.
  3. Hilabete bakoitzeko fakturatuko da hilabete horretan erabilitako diskoaren batezbestekoa kontutan hartuz.
  4. Hurrengo taulan salneurriak erabiliko dira taldeak urtean erabili duen kalkulu denboraren arabera.
Taula: GB apartengatik ezarri diren tarifak kalkulu denboraren arabera. 
CPU erabilera Diska tarifa
(egunak) (Euro/Gb/hilabete)
2500< cpu 0.1
100< cpu <2500 0.5
1< cpu <100 1.0
0< cpu <1 1.5

B.E.Z. gabe.

Qsite

Schrodinger programa bat da  QM/MM kalkuluak egiten dituena. (más…)

NBO 5

NBO5 versión 5 del Natural Bond Orbital. (más…)

NBO 5

NBO5 Natural Bond Orbital programa.
(más…)

MACROMODEL

Macromodel es un paquete de Schrodinger (más…)

Macromodel

Schrodinger-en Mekanika Molekularra erabiliz hainbat kalkuku mota egiten dituen programa da.

Informazio Orokorra

2011-ko otsaileraino izango da erabilgarria. Lizentziaren berritzea erabileraren araberakoa izango da. 18 schrodinger token daude, macromodelek 2 behar ditu kalkulatzeko. Token-en egoera ikusteko

checklicenses

tresna erabili dezakezue uneoro zenbat token libre dauden jakiteko.

Maestro erabili daiteke Macromodel programarako behar den inputa eraikitzeko. Maestro, Schrodinger-en tresna guztiak bateratzen dituen interface grafikoa da MAIZ, Guinness eta Pendulotik erabili daiteke.

Maestro egikaritzeko agindua honakoa da:

maestro &.

NX bezeroaren bitartez erabilztea gomendatzen dugu. Ikus hemen nola:

Nola Erabili

Informazio Gehiago

Macromodel-en eskuliburuak arina:/software/schrodinger/docs-en daude eskuragarri.

JAGUAR

Jaguar Schrodinger-ek sortutako QM kalkuluak egiten dituen programa da. Arinan, 8 prozesu eduki ditzakegu batera kalkulatzen, bakoitza, nahi adina prozesagailutan. Lizentziaren berritzea erabileraren araberakoa izango da. (más…)

Nola bidali Jaguar

send_jaguar komandoa

Jaguar lanak bidaltzeko send_jaguar agindua sortu dugu.

send_jaguar JOBNAME NODES PROCS_PER_NODE TIME MEM [``Other queue options'']

non

JOBNAME: Jaguarren sarrera datuen fitxategia.
NODES: Nodo kopurua.
PROCS: Prozesagailu kopurua.
TIME: Kaluluaren denbora hh:mm:ss fromatuan
MEM: memoria Gb-etan eta unitatea adierazi gabe
[``Other queue options''] Kola sistemari pasa nahi zaizkion beste aukerak.
Aukera hauei buruzko informazio gehiago.

Adibideak

  • job1 inputa duen kalkulua itaniumb motako nodo batera eta bertako 4 prozesagailu erabil ditzan esaten dugu. Memoria Gb batekoa eta denbora 4 ordu izanik.
send_jaguar job1 1 4:itaniumb 04:00:00 1
  • job3 inputa duen kalkuluari, bi nodo, eta bakoitzek 4 prozesagailu erabil ditzan eskatzen dizkiogu. Memoria 8 Gb batekoa eta denbora 60 ordu izanik. Gainera 1234 lana bukatu ondoren abiatu daitekela soilik adieratzen dugu.
send_jaguar job3 2 4 60:00:00 8  ``-W depend=afterany:1234''>
  • job3 inputa bidalzten dugu, nodo bat, eta 4 prozesagailu erabil ditzan eskatuz. Memoria 15 Gb-etakoa eta denbora 400 ordu izanik. Gainera, lana hasi eta bukatzean email bat bidaltzeko adierazten dugu nire.emaila@ehu.es helbidera.
send_jaguar job3 1 4 400:00:00 15 ``-m be -M nire.emaila@ehu.es''

Qsub interaktiboa

Kalkuluak bidali daitezke ere qsub interaktiboa. komandoarekin.

DL_POLY

Informazio orokorra

Daresbury Laborategian garatutako dinamika molekularreko programaren 4.02 bertsioa makromolekula, polimero, sistema ioniko, disoluzio eta beste sistema molekularentzako. Programa arkitektura guztietan instalatu egin da, Arinan eta Pédulon (2.2 bertsioa).

Nola erabili

Programa exekutatzeko idatzi skriptetan:

/software/bin/DL_POLY/DL_POLY.Z

GPGPU nodoetan sartzen bada programa GPGPUak erabilik exekutatuko da. gpu etiketa erabiliz kola sisteman bideratu daiteke lana GPGPU nodo batetara.

Interfaz grafikoa ere instalatu egin da. Hau exekutatzeko gomendatzen dizuegu Pendulon edo Maizen egitea, azkarragoa baita. Exekutatzeko:

/software/bin/DL_POLY/gui

Hainbat tresnen iturriak ere instalatu dira ondorengo direktorioan /software/bin/DL_POLY/.

Benchmark

Benchmark txiki batzuen datuak egin ditugu 4.02 bertsioarekin. Bai paralilizazioa bai GPGPUen eraginkortasuna neurtzen da.

System 1 cores 4 cores 8 cores 16 cores 32 cores 64 cores
Itanium 1.6 GHz 1500 419 248 149 92 61
Opteron 1230 503 264 166 74
Xeon 2.27 GHz 807 227 126 67 37 25

Lehenengo bencharmark honetan ikusten da xeon nodoak eraginkorragoak direla eta gomandagarriak lan luzeetarako. DL_POLYk oso ondo paralelizatzen du.

System 1 cores 2 cores 4 cores 8 cores 16 cores 32 cores
Itanium 1.6 GHz 2137 303 165 93 47
Opteron 1592 482 177 134 55
Xeon 2.27 GHz 848 180 92 48 28
1 GPGPU 125 114 104 102
2 GPGPU 77 72 69
4 GPGPU 53 50
8 GPGPU 37
System 1 cores 2 cores 4 cores 8 cores 16 cores 32 cores 64 cores
Xeon 2.27 GHz 2918 774 411 223 122 71
1 GPGPU 362 333 338 337
2 GPGPU 240 222 220
4 GPGPU 145 142
8 GPGPU 97

GPGPUak kalkulua bizkortzen dute. GPGPU kopurua bikoizterakoan abiadura 1.5 alditan igotzen da, hau dela etaazkenean prozesadore asko erabiltzea eraginkorragoa da. Hartu dezagun azken benchmarka. Nodo bakoitzak 8 kore ditu eta 2 GPGPU. Nodo batean GPGPUak erabiliz 220 s behar dira eta koreak erabiliz 411 s. 4 GPGPU 32 kore baino azkarragoak dira baina 64 kore jadanik 71 s behar dituzte lana bukatzeko eta 8 GPGPU 97 s. GPGPUak PC bat edo nodo batean egindako kalkulu bat dezente bizkortzen dute baina kalkulu paralelo handientzako koreetako paralelizazioa eraginkorragoa da.

DL_POLY sistema handietarako da eta milaka kore erabili ahal ditu. DL_POLYko dokumentazioaren arabera:

The DL_POLY_4 parallel performance and efficiency are considered very-good-to-excellent as long as (i) all CPU cores are loaded with no less than 500 particles each and (ii) the major linked cells algorithm has no dimension less than 4.

Informazio Gehiago

DL_POLYren web orrialde nagusi.

DL_POLYren eskuliburua (pdf).

DL_POLY interfaz grafikoaren eskuliburua (pdf).

DL_POLY

Información general

Versión 4.02 del completo programa de dinámica molecular para macromoléculas, polímeros, sistema iónicos, disoluciones y otros sistemas moleculares desarrollado en el Laboratorio Daresbury. Se ha instalado la versión 4.02 (2.2 en Pendulo). Existe también DL_POLY_CLASSIC que por el momento no se desarrolla.

 

El programa se ha compilado con soporte para GPGPUs.

Cómo mandar

El programa está instalado para todas las arquitecturas, en Arina y en Péndulo (dl_poly_2.2). Para ejecutar el programa incluir en los scripts:

/software/bin/DL_POLY/DL_POLY.Z

El programa se ejecutará en las GPGPUs si entra en dichos nodos. También se puede seleccionar este tipo de nodos con la etiqueta gpu del sistema de colas.

También se ha instalado la interfaz gráfica. Para ejecutarla:

/software/bin/DL_POLY/gui

Se han instalado una serie de utilidades que vienen incluidas y cuyas fuentes están en el directorio /software/bin/DL_POLY/.

Benchmark

Presentamos los datos de tres pequeños benchmark realizados con dl_ploly_4.02 en los que se mide su paralelización así como su eficiencia sobre GPGPUs.

System 1 cores 4 cores 8 cores 16 cores 32 cores 64 cores
Itanium 1.6 GHz 1500 419 248 149 92 61
Opteron 1230 503 264 166 74
Xeon 2.27 GHz 807 227 126 67 37 25

Como ya observamos en este primer test el rendimiento en los nodos xeon es superior y para trabajos largos se recomienda su uso. Por otro lado también se observa que escala muy bien al aumentar el número de procesadores. En los siguientes benchmark además medimos el rendimiento de al correr sobre las GPGPUs.

System 1 cores 2 cores 4 cores 8 cores 16 cores 32 cores
Itanium 1.6 GHz 2137 303 165 93 47
Opteron 1592 482 177 134 55
Xeon 2.27 GHz 848 180 92 48 28
1 GPGPU 125 114 104 102
2 GPGPU 77 72 69
4 GPGPU 53 50
8 GPGPU 37
System 1 cores 2 cores 4 cores 8 cores 16 cores 32 cores 64 cores
Xeon 2.27 GHz 2918 774 411 223 122 71
1 GPGPU 362 333 338 337
2 GPGPU 240 222 220
4 GPGPU 145 142
8 GPGPU 97

 

Como se observa la GPGPU acelera el cálculo. El usar más cores apenas incrementa la velocidad cuando se usan GPGPUs. Doblar el número de GPGPUS sólo consigue que la velocidad se multiplique por 1.5 por lo que al final correr en paralelo en muchos cores resulta más eficiente. Tomemos como ejemplo el último benchmark. Cada nodo tiene 2 GPGPUs y 8 cores. Usando 8 cores se tarda 411 s. y usando las GPGPUs podemos bajar hasta los 220 s. Usando 2 nodos, 4 GPGPUs vs 16 cores aun son más rápidas las GPGPUs. Pero con 32 cores el cálculo tarda 71 s mientras que usando las 8 GPGPUs disponibles en los 4 nodos tardamos 97 s. Podemos concluir que para un PC o en nuestro cluster para un nodo la tarjeta gráfica puede acelerar significativamente el cálculo, pero para cálculos masivamente paralelos la paralelización sobre CPUs es más efectiva.

DL_POLY está diseñado para sistemas grandes e incluso el uso de miles de cores. Según la documentación de DL_POLY:

The DL_POLY_4 parallel performance and efficiency are considered very-good-to-excellent as long as (i) all CPU cores are loaded with no less than 500 particles each and (ii) the major linked cells algorithm has no dimension less than 4.

Más información

Página principal de DL_POLY.

Manual de DL_POLY (pdf).

Manual de la interfaz gráfica de DL_POLY (pdf).

NAMD

Illinois-eko Uniberstitateak Dinamika Molekularreko kulkuluak egiten dituen kodea da NAMD. 2.6 Bertsioa dago instalatuta.
(más…)

NAMD

La versión instalada es la 2.8

Programa con potenciales empíricos que incluye dinámica molecular, minimización de energía y Monte Carlo, desarrollado en la Universidad de Illinois. Especialmente orientado a la simulación de sistemas biológicos.

El software se encuentra instalado tento en arina como en pendulo, el el directorio
/software/NAMD_2.6. Se ha creado también el script send_namd para enviar trabajos de NAMD.

Como mandar NAMD

Existen dos formas de ejecutar NAMD en Arina y Pendulo:

    • Usando send_namd.
    • Creando un script torque y enviar esté a la cola.
  1. send_namd
      • Para lanzar al sistema de colas NAMD existe la utilidad send_namd. Al ejecutarlo,
        muestra la sintaxis del comando, que se resume a continuación:
      • Modo de Uso:send_namd JOBNAME PROCS_PER_NODE[property] TIME MEM [“Other queue options” ]
        JOBNAME: Nombre del input de NAMD completo, con extensión
        NODES: Número de nodos
        PROCS: Número de procesadores.
        TIME: Tiempo solicitado a la cola, formato hh:mm:ss.
        MEM: memoria en Gb y sin especificar la unidad.
        [``Otras opciones de Torque'' ] Existe la posibilidad de pasar más variables al sistema de colas.
        Ver ejemplos más abajo. Más información sobre estas opciones

    Ejemplos:

    Mandamos NAMD con el input job1 a 16 procesadores  con un tiempo solicitado de 4 horas y 1 GB de RAM:

    send_namd job1.namd 2 8:xeon20 04:00:00 1

    Mandamos NAMD con el input job2 con 4 procesadores, y con un tiempo solicitado de 192 horas, 8 GB de RAM y que se ejecute despues del trabajo 1234.arinab:

    send_namd job2.conf 1 8 192:00:00 8 ``-W depend=afterany:1234''

Monitorización de los cálculos:

remote_vi Para facilitar el seguimiento y/o control de los cálculos, se puede utilizar remote_vi. Nos enseña con el editor gvim el *.out del cálculo de NAMD (sólo si ha sido enviado usando send_namd).

Ejemplos:

  • remote_vi 38143.arina

Más Información

NAMD home page.

 

 

 

 

GROMACS

Informazio orokorra

2018 bertsioa. GROMACS is a versatile package to perform molecular dynamics, i.e. simulate the Newtonian equations of motion for systems with hundreds to millions of particles.

It is primarily designed for biochemical molecules like proteins, lipids and nucleic acids that have a lot of complicated bonded interactions, but since GROMACS is extremely fast at calculating the nonbonded interactions (that usually dominate simulations) many groups are also using it for research on non-biological systems, e.g. polymers.

Nola erabili

send_gmx

GROMACS lanak kolara bidalzeko send_gmx tresna sortu dugu. Egikaritzerakona, aginduaren laguntza erakusten da. Erabiltzeko modua:

send_gmx ``JOB and Options'' NODES PROCS_PER_NODE TIME MEM [``Other queue options'' ]
``JOB and Options'': Kalkuluaren opzioak eta inputaren izena (extensioarekin). Oso garrantzitsua da komilla arten jartzea.
NODES: Nodo kopurua.
PROCS: Prozesagailu kopurua.
TIME: kolari eskatutako denbora hh:mm:ss. formatuan
MEM: memoria en Gb-etan.
[``Torque beste aukerak'' ] kola sistemari agindu gehiago pasatzeko modua.
Ikus beheko adibideak. informazio gehiago

Adibideak

send_gmx ``-s job1.tpr'' 1 4 04:00:00 1

send_gmx ``-s job2.tpr'' 2 8 192:00:00 8 ``-W depend=afterany:1234''

send_gmx ``-s job.tpr'' 1 8 200:00:00 2 ``-m be -M mi.email@ehu.es''

Ohiko pbs script bat sortu eta hau ere bidlai daiteke gero kolara. send_gmx erabili dezakezue adibide bat sortzeko.

Kalkuluen monitorizazioa

remote_vi  erabiliz md.log fitxeroa ikutsiko dugu.

Informazio gehiago

http://www.gromacs.org/About_Gromacs

GROMACS

(más…)

AMBER

Información general

Versión 14 de AMBER (Assisted Model Building with Energy Refinement) junto con amber tools15. Programa con potenciales empíricos que incluye dinámica molecular, minimización de energía. Especialmente orientado a la simulación de sistemas biológicos.

Cómo usar

Están compilados las versiones en serie y paralelas de AMBER y se pueden encontrar en

/software/bin/amber

send_amber

Para mandar cálculos de AMBER se ha preparado el comando send_amber. Uso:

send_amber "Sander_options" Nodes Procs_Per_Node[property] Time [or Queue] [Mem] ["Other_queue_options"]

Sander_options: the options you want to use in the calculation, inside quotes
Nodes: is the number of nodes
Procs: is the number of processors (you may uinclude the node type) per node.
Time: or Queue the walltime (in hh:mm:ss format) or the queue name of the calculation
Mem: the PBS memory (in gb)
[Mem] and ["Other_queue_options"] are optional

Para “Other queue options” see examples below:

send_amber "sander.MPI -O -i in.md -c crd.md.23 -o file.out" job1 1 8 p_slow
send_amber "sander.MPI -O -i in.md -c crd.md.23 -o file.out" 2 8:xeon vfast 16 "-W depend=afterany:1234"
send_amber "sander.MPI -O -i in.md -c crd.md.23 -o file.out" 4 8 24:00:00 32 "-m be -M mi.email@ehu.es"

Más información

Amber home page.

Manual en línea.

Tutoriales.

 

Casino

Quantum Monte Carloren Casino programaren 2.4 bertsioa, Cambridgeko Unibertsitatean garatua.

Informazio orokorra

Sistema finituei edo periodikoei aplikatzeko programa paralelotua, uhinen funtzioak hedatzeko oinarri anizkunekin. Baimena nahitaezkoa da.

Nola erabili

Exekutatzeko erabili runqmc agindua. Honek defektuz, casino lana 8 itanium core-tara bidlaiko du, 36 ordutarako 4gb memoria eskatuz.

runqmc aginduaren beste aukerak ikusteko, exekutatu

runqmc -help

Jarraian hainbat adidbide erakusten dira:

  • Lan bat bi opteron nodo bakoitzari 8 core eskatuz bidaltzeko vfast ilarara eta 15gb RAM-a eskatuz.
runqmc -queue vfast -nnodes 2 -tpn 8 -arch opteron -mem 15072
  • Lan bat lau itanium nodoetara bakoitzari 8 core eskatuz bidaltzeko p_slow ilarara eta 22gb RAM-a eskatuz.
runqmc -queue p_slow -nnodes 4 -tpn 8 -arch itanium -mem 22072

Informazio gehiago

Casino Program home page.

Eskuliburua pdf formatuan.

Casino

Versión 2.4 (v213 realised on 20/7/2009) de Casino, programa de Quantum Monte Carlo desarrollado en la Universidad de Cambridge. (más…)

MIKA

Multigrid Instead of K-spAce. DFT kalkuluak espazio errealean egiteko programa-paketearen .81 bertsioa, sistema periodiko eta finituetarako; bertsioa hauek garatu dute: CSC eta Helsinkiko Unibertsitate Teknologikoa (HUT). (más…)

MIKA

Multigrid Instead of K-spAce. Versión .81 del paquete de programas de cálculo DFT en el espacio real, tanto para sistemas periódicos, como finitos, desarrollado por el CSC y la Universidad Tecnológica de Helsinki (HUT).

Información general

Incluye un paquete que resuelve las ecuaciones de Kohn-Sham en 3 dimensiones (rspace) y otro para problemas con simetría cilíndrica (cyl2). Para más información MIKA home page

Como usar

  • rspace
  • Programa para cálculos DFT en celdas ortorrómbicas, usando pseudopotenciales no locales (dispone de una pequeña librería en /software/MIKA/potentials). Puede realizar simulaciones en celdas con condiciones periódicas de contorno y en sistemas finitos con funciones de onda que se anulan en los bordes de celda. Se puede ejecutar en paralelo (muy eficientemente) con

    mpirun /software/bin/rspace_p

    y en serie con

    rspace_s
  • cyl2
  • Programa para cálculos DFT en sistemas con simetría cilíndrica, resuelve numéricamente las ecuaciones de Kohn-Sham en la dirección radial y longitudinal. Se puede ejecutar en paralelo con

    mpirun /software/bin/cyl2_p

    Nota: No usar más microprocesadores n que el número cuántico m , se recomienda n menor o igual m. La versión en serie se ejecuta con

    cyl2_s

Más información

MIKA home page

Quick reference quide.

WRF

The Weather Research and Forecasting (WRF) Model (3.1 bertsioa) is a next-generation mesocale numerical weather prediction system designed to serve both operational forecasting and atmospheric research needs. (más…)

WRF

The Weather Research and Forecasting (WRF) Model (version 3.1) is a next-generation mesocale numerical weather prediction system designed to serve both operational forecasting and atmospheric research needs. (más…)

NCL – NCAR

Información General

The NCAR Command Language (NCL), a product of the Computational & Information Systems Laboratory at the National Center for Atmospheric Research (NCAR), is a free interpreted language designed specifically for scientific data analysis and visualization. NCL has robust file input and output. The graphics are world class and highly customizable.

Como Ejecutar

Se ejecutan por ejemplo:

/software/bin/ncdump

o en el servidor directamente:

ncdump

Por ahora sólo está compilado para la arquitectura itanium2. Se ha compilado con soporte para NETCDF-4, HDF4, HDF5, HDFEOS, GRIB2, vis5d+ y usando triangle.

Más Información

Página web de NCL.

NCL – NCAR

Informazio Orokorra

The NCAR Command Language (NCL), a product of the Computational & Information Systems Laboratory at the National Center for Atmospheric Research (NCAR), is a free interpreted language designed specifically for scientific data analysis and visualization.

NCL has robust file input and output. The graphics are world class and highly customizable.

Nola Erabili

Exekutatzeko adibidez:

/software/bin/ncdump

edo zerbitzarian zuzenean:

ncdump

Momentuz bakarrik itanium2 arkitekturentzako konpilatuta dago. Konpilatu da NETCDF-4, HDF4, HDF5, HDFEOS, GRIB2, vis5d+ soportearekin eta triangle erabiliz.

Informazio Gehiago

NCL web orrialdea.

Erakunde publikoentzako tarifak

Konputazio baliabideak erabiltzeko tarifa 0.012 euro ordu bakoitzeko eta kore bakoitzeko da (B.E.Z. gabe). Laguntza teknikoa barne dago lan eta arazo txikientzako. Ez dago barne datuentzako diskoa ezta teknikarien zerbitzu espezializatuak, hauentzako aurrekontua eskatu beharko da.

Disko tarifak

Hurrengo irizpideak jarraituz fakturatuko da.

  1. Zerbitzuak gehiago erabiltzen duena, hots datuak erabiltzen dituena, gutxiago ordainduko du. Horregatik kalkulu denboraren araberako tarifak ezartzen dira.
  2. Ez da fakturatuko 3 GBetatik baino gutxiagotik.
  3. Hilabete bakoitzeko fakturatuko da hilabete horretan erabilitako diskoaren batezbestekoa kontutan hartuz.
  4. Hurrengo taulan  salneurriak erabiliko dira taldeak urtean erabili duen kalkulu denboraren arabera.
Tabla : GB apartengatik ezarri diren tarifak kalkulu denboraren arabera.
CPU erabilera Diska tarifa
(egunak) (Euro/Gb/hilabete)
2500 cpu 0.1
100 cpu 2500 0.5
1 cpu 100 1.0
0 cpu 1 1.5

B.E.Z. gabe.

Organismos Públicos de Investigación (OPIs) según el MINECO
Organismos Públicos de Investigación dentro de los Agentes de la Red Vasca de Ciencia, Tecnología e Innovación

SGIker-eko zuzendaritzak Estatuko unibertsitate publikoak  OPI taldean sartu ditu baita izan ditzateketen Hospital Unibertsitarioak ere.

 

Arina Clusterra

Configuración

La configuración física de Arina y Maiz se detalla en .

Arina consta de dos servidores, arina (itanium2) y maiz (opteron), a donde se conectan los usuarios desde el exterior. El servidor esta conectado a los nodos a traves de un red ethernet. Es a traves de esta red que se exporta el directorio /home a todos los nodos a traves de NFS. Todas las noches se realiza una copia de seguridad del directorio /home. Cuando un nodo escribe en /home la información ha de ser enviada al servidor a traves de la red NFS (lenta). Por ello no es recomendable hacer uso de este directorio durante el cálculo, sino lanzar los cálculos desde los discos locales de cada nodo. Para ello los nodos poseen un disco local de 36 o 72 GB con el directorio/scratch (existe un nodo para cálculos especiales de 130 GB). También se dispone de un sistema de almacenamiento de altas prestaciones para cálculo con 4.7 TB de espacio.

Arina consta de 280 núcleos o cores Itanium2 y 40 núcleos opteron. Existen 4 servidores de conexión y compilación: Arina y Arinaz con procesadores Itanium2 para compilar programas para procesadores Itanium2, Maiz, con procesadores opteron para compilar programas para procesadores opteron y Guinness con
procesadores Xeon. En total hay 720 núcleos y 4.7 TB en un sistema de disco especial de scratch para cálculo.

Caracteristicas de los Nodos Xeon

Cluster BullX con 440 microprocesadores Xeon 5420 y sistema operativo Red Hat Linux AS 5.

Características Técnicas del cluster:

Cantidad Nombre Tipo Proc. Cores Velocidad RAM (GB) Disco (GB) Etiqueta
1 Guinness Servidor 2 8 2.3 GHz 12
19 cn3-20,57 Nodo 2 8 2.3 GHz 24 250 xeon
36 cn21-56, Nodo 2 8 2.3 GHz 48 250 xeon

Conexión de red para cálculo infiniband QDR con 40 GB/s de ancho de banda y baja latencia.

Todos los nodos de cálculo tienen además la etiqueta xeon. Las etiquetas se usan para seleccionar esos nodos a la hora de calcular. Ver el sistema de colas.

Los procesadores Xeon tienen la misma arquitectura que los Opteron por lo que los programas compilados en Guinness con compatibles en los nodos Opteron.

Software disponible en los Nodos Xeon

Area Programas
Química Gaussian 09 Qsite Jaguar NWchem CPMD
Física Ab-Init BigDFT Siesta Espresso
Ingeniería StarCCM+
Bioquímica Gromacs Macromodel
Compiladores gnu Intel PGI
Librerias MKL FFTW GSL hdf5 netcdf

Caracteristicas de los Nodos Itanium

Cluster HP Integrity Server con 280 microprocesadores Itanium2 y sistema operativo Red Hat Linux AS 4.

Características Técnicas del cluster:

Cantidad Nombre Tipo Proc. Cores Velocidad RAM (GB) Disco (GB) Etiqueta
1 Arina Servidor 2 4 1.6 GHz 8
1 Arinaz Servidor 2 2 1.3 GHz 2
10 cn01-10 Nodo 4 4 1.3 GHz 4 36 itanium4
4 cn11-14 Nodo 4 4 1.3 GHz 16 36 itanium4
4 cn15-18 Nodo 4 8 1.6 GHz 16 72 itanium8
8 cnd20-27 Nodo 4 8 1.6 GHz 16 550 itaniumb
14 cnd28-41 Nodo 4 8 1.6 GHz 32 550 itaniumb
1 cnd42 Nodo 4 8 1.6 GHz 128 550 itaniumb
1 cnd43 Nodo 4 8 1.6 GHz 64 550 itaniumb

Conexión de red para cálculo infiniband con 10 GB/s de ancho de banda y baja latencia.

Todos los nodos de cálculo tienen además la etiqueta itanium. Las etiquetas se usan para seleccionar esos nodos a la hora de calcular.

Software disponible en los Nodos Itanium

Caracteristicas de los Nodos Opteron

Cluster DL585 Server con 40 microprocesadores Opteron y sistema operativo Red Hat Linux AS 4 (update 4).

Características Técnicas del cluster:

Cantidad Nombre Tipo Proc. Cores Velocidad RAM (GB) Disco (GB) Etiqueta
1 Maiz Servidor 2 4 1.8 GHz 4
4 cno01-04 Nodo 4 8 2.4 GHz 16 72 opteron
1 cno05 Nodo 4 8 2.4 GHz 32 72 opteron

Conexión de red para cálculo infiniband con 10 GB/s de ancho de banda y baja latencia.

Las etiquetas se usan para seleccionar esos nodos a la hora de calcular. Ver el sistema de colas.

Software disponible en los Nodos Opteron

Sistema de Archivos Paralelos

A parte de los discos locales de cada nodo (scratch) se tiene un sistema de archivos global para cálculo HP-SFS de 4.7 TB de capacidad, de escritura y lectura paralela en discos y basado en tecnología Lustre. Alcanza los 400MB/s de ancho de banda en escritura y los 600MB/s en lectura (un disco normal anda en 30-40 GB/s).

Recomendamos su uso si se da alguna de estas cirscunstancias.


BigDFT

Informazio orokorra

DFTren ab-initio kalkulu-programaren 1.5 bertsioa. Wavelet base bat erabiltzen du espazio errealean. (más…)

BigDFT

Información general

Versión 1.5.1 del del programa de cálculo de estructura electrónica ab-initio de DFT masivamente paralelo usando una base de wavelets en el espacio real. (más…)

Yambo

3.2.2 version of the program for Many-Body calculations in solid state and molecular physics.
(más…)

Abinit

Informazio Orokorra

DFTren ab-initio kalkulu-programaren 7.0.4 bertsioa, uhin lau eta pseudopotentzialeko (ultrasoft eta PAW-augmented wave method) oinarriduna; bertsioa Lovainako Unibertsitate Katolikoan garatu dute. Lasaitze atomikoak egiteko aukera ematen du (dinamika molekularra).

Hainbat plugginekin konpilatu egin da netcdfbigdftwannier90etsf_io eta libxc.

Nola Erabili

Programak /software/bin/abinit direktorioan daude. Horrela abinit exekutatzeko erabili

/software/bin/abinit/abinit < input.files > out.log

Eskatutako kore kopuruaren arabera paralelon exekutatuko da. Kalkuluak bidali daitezke ere qsub interaktiboa. komandoarekin.

Beste erabilera eta programa batzuk ere baditu, adibidez:

abinetcdf, abinitgw, aim, anaddb, anascr, band2eps, conducti, cut3d, lwf, macroave, mrgddb, mrggkk, mrgscr, newsp, optic, etab.

Benchmark

Benchmark baten datuak aurkezten dizuegu 6.12.3 bertsioarekin egindakoak.

System 1 cores 4 cores 8 cores
Xeon12 7218 2129 1045
Xeon8 7275 1918 1165
Itanium 8018 2082 1491
Opteron 17162 4877 2802

Itanium eta xeon nodoak hoberenak direla ikusten da. Opteronak zertzobait atzean geratzen dira.

Informazio gehiago

Abiniteko web orrialdea.
Eskuliburuak.

Yambo

3.2.2 version of the program for Many-Body calculations in solid state and molecular physics.
(más…)

WIEN2k

Ab-initio kalkulu programaren 2k_14.2 bertsioa; full-potential (linearized) augmented plane-wave ((L)APW) + local orbitals (lo) method-etan oinarritua, Vienako Teknologia Unibertsitatean garatua.
(más…)

Wien2k Nola Bidali

WIEN2k programak fitxero berezia erabiltzen du lanak koletara bidaltzeko. Script hau bidaltzeko erabili

qsub script_file

run_lapw programa paraleloa egikaritzen duen scriptaren plantilla

#!/bin/bash
#PBS -l nodes=[val]:ppn=[val]
#PBS -l walltime=[val]
#PBS -l mem=[val]

# Vamos a nuestro home
cd $PBS_O_WORKDIR

#Creamos el fichero .machines
cat $PBS_NODEFILE |cut -c1-6 >.machines_current
aa=$(wc -l .machines_current |cut -d " " -f 1)
echo '#' > .machines

i=1
while [ $i -le $aa ];do
echo -n '1:' >>.machines
head -$i .machines_current |tail -1 >> .machines
let i=i+1
done
echo 'granularity:1' >>.machines
echo 'extrafine:1' >>.machines

#Nuestro directorio de scratch
scrt=/scratch/$USER/$(echo $PBS_O_WORKDIR |xargs basename)
outdir=bukatuta_$PBS_JOBID
export SCRATCH=$scrt/scratch

#Creamos el directorio
mkdir $scrt
mkdir $scrt/scratch

#Copiamos los archivos al directorio scratch
#Usaremos cp -r $scrt para copiar también subdirectorios.
cp $PBS_O_WORKDIR/* $scrt
cp .machines $scrt

#Nos movemos de directorio
cd $scrt

#Ejecutamos WIEN2k en paralelo
run_lapw -p
#Movemos los archivos finales
mkdir  $PBS_O_WORKDIR/$outdir
mv -f $scrt/* $PBS_O_WORKDIR/$outdir
mv -f $scrt/.machines $PBS_O_WORKDIR/$outdir

#Borramos el directorio
rmdir $scrt
rm .??*

#PBS-rekin hasten diren lerroak ilara-kudeatzailearentzako aginduak dira; hauek aukeratzen dituzte:

nodes: [opcional] Kalkulu-nodoa aukeratzeko erabil daiteke (adibidea: [name]=cn14).

mem: Kalkulatzeko gordetako RAM memoria, mb edo gb-tan neurtua (adibide: [val]=100mb).

walltime: Mikroprozesadorean erreserbatutako denbora, ordua/minutua/segundoa formatuan (adibidea: [val]=24:00:00).

#-rekin hasten diren gainerako lerroak komentarioak dira.

Scriptean $USER aldagaiak erabiltzailearen izena bueltatzen du, $PBS_O_WORKDIR aldagaiak qsub agindua exekutatzen den lan-direktorioa eta $PBS_JOBID aldagaiak lanaren identifikazio-zenbakia.

WIEN2k

Versión 2k_14.2 del programa de cálculo ab-initio basado en full-potential (linearized) augmented plane-wave ((L)APW) + local orbitals (lo) method, desarrollado en la Universidad Tecnológica de Viena.
(más…)

Espresso

Informazio orokorra

opEn-SourceP ackage for Research in Electronic Structure, Simulation, and Optimization

DFTren ab-initio kalkulu-programa paketearen 6.1. bertsioa, uhin lau eta pseudopotentzialeko (ultrasoft eta PAW-augmented wave method) oinarriduna.

Programa DEMOCRITOS National Simulation Center of the Italian INFMn garatu dute. Paketeak osagai hauek dauzka: uhin lauko (PW) oinarridun egitura elektronikoko programa bat, lehen printzipioetan (FPMD) oinarritutako dinamika molekularreko programa bat eta Car-Parrileno (CP). Halaber, pseudopotentzialak sortzeko programa bat eta Pwrako interfaze grafikoa ditu. Serieko eta paraleloko bertsioak daude.

Nola erabili

Espresso lanak kola sistemara bidaltzeko send_espresso agindua prestatu dugu. Ikus

Espresso nola bidali

Kalkuluen monitorizazioa

  • remote_vi JOBID Kalkuluarein *.out fitxeroa erakutsiko digu.
  • myjobs: Kalkulua martxan dagoenean CPU eta memoria (SIZE) erabilera erakutsiko digu.

Benchmark

pw.x eta ph.x programen benchmark txiki batzuen datuak aurkezten dizkizuegu zerbitzuko makinetan. Benchmarkean ikusi daite Xeonak hoberenak direla eta bikain eskalatzen dutela 32 kore arte, badirudi nabaritzen dela nodo hauen sare berriagoa.

Tabla 1: pw.x exekuzio denborak (4.2.1 bertsioarekin egindakoak).
System 8 cores 16 cores 32 cores
Xeon 1405 709 378
Itanium2 2614 1368 858
Opteron 2.4 4320 2020 1174
Core2duo 2.1
Tabla 2: ph.x exekuzio denborak(4.2.1 bertsioarekin egindakoak).
System 8 cores 16 cores 32 cores
Xeon 2504 1348 809
Itanium2 2968 1934 1391
Opteron 2.4 6240 3501 2033
Core2duo 2.1

Informazio gehiago

Espresso home page.
Web dokumentazioa.
Espresso wiki.

 

TB-LMTO


Informazio orokorra

Tight Binding Linear Muffin-Tin Orbital DFTko programaren 4.6 bertsioa linear muffintin orbital (LMTO) metodoan oinarrituta. Dohaineko softwarea da baina egilearen baimena behar da.

Nola erabili


Programak exekutatzeko erabili adibidez:

/software/bin/lm.run

Itaniumetan konpilatu ahal izateko optimizazioa jaitxi behar izan da eta nabarmen astiroago doa, opteronetan eta Penduloren aldean. Nahiko kode zaharra da eta era berezi batean kudeatzen du memoria, horrek itaniumetan arazoak dakartza.

Benchmarka

Benchmark txiki baten datuak aurkezten dizuegu non itaniumean aipatu dugun jokaera ikusten da

System segunduak
Itanium dual core 1225
Opteron 450
Core2Duo 332

Informazio gehiago

TB-LMTO-ko web orrialdea.

ADF

Informazio orokorra

Amsterdam Density Functional (2016.01 bertsioa).

The ADF package is software for first-principles electronic structure calculations. ADF is used by academic and industrial researchers in such diverse fields as pharmacochemistry and materials science. It is particularly popular in the research areas of homogeneous and heterogeneous catalysis, inorganic chemistry, heavy element chemistry, various types of spectroscopy, and biochemistry. Key Benefits of ADF

  • Spectroscopic properties and environments for any type of molecule
  • Excels in transition and heavy metal compounds
  • Accurate, robust, and fast
  • Expert staff and active community
  • Uses Slater functions, beats Gaussians!

ADF-ek bai molekulak bai solidoak kalkula ditzake (ADFBAND). Tresna grafiko potenteak ditu eta emaitzen azterketarako (Katramila-etik erabili daitezke soilik).

4 koreentzako lizentzia dauka zerbitzuak.

Nola erabili

Tresna grafikoak egikaritzeko erabili, Katramilan,

adfview

Arinatik adfinput tresnarekin sortutako lan bat kolara bidaltzeko send_adf komandoa gomendatzen dugu, bere sintaxia honakoa delarik:

send_adf JOBNAME NODES PROCS[property] TIME MEM [``Otherqueue options'' ]
  • JOBNAME: input-aren izena, extensiorik gabe (file.run izan behar du).
  • NODES: Nodo kopurua.
  • PROCS: Prozesagailu kopurua.
  • TIME:Eskatutako denbora hh:mm:ss formatuan.
  • MEM: memoria GB-etan.
  • [“Otras opciones de Torque”] Kolari adierazi nahi zazikion beste aukera batzuk.

Adibidea

Adibidez au_min2.run inputa bidaltzeko 4 prozesadoretara, 20 orduko walltimekin eta 4 GB RAM erabili

send_adf au_min2.run 1 4 20:00:00 4

Informazio gehiago

ADFko web orrialdea.

ADFko documentazioa.

ADF

Información general

Amsterdam Density Functional (2016.01)

The ADF package is software for first-principles electronic structure calculations. ADF is used by academic and industrial researchers in such diverse fields as pharmacochemistry and materials science. It is particularly popular in the research areas of homogeneous and heterogeneous catalysis, inorganic chemistry, heavy element chemistry, various types of spectroscopy, and biochemistry. Key Benefits of ADF

  • Spectroscopic properties and environments for any type of molecule
  • Excels in transition and heavy metal compounds
  • Accurate, robust, and fast
  • Expert staff and active community
  • Uses Slater functions, beats Gaussians!

ADF puede calcular tanto sistemas finitos (moléculas) y sistemas periódicos (con ADFBAND). Incluye potentes interfaces gráficas y herramientas para el análisis de los resultados accesibles desde Katramila.

Se dispone de licencia para 4 cores.

Cómo usar

Para ejecutar las interfaces gráficas (generador de input, visualización de resultados,…) usar desde Katramila:

adfview

Para lanzar un ADF en arina usar un input creado con adfinput recomendamos usar el comando send_adf donde su sintaxis es:

<code>send_adf JOBNAME NODES PROCS[property] TIME MEM [``Otherqueue options'' ]
  • JOBNAME: Nombre del input de nwchem sin extensión.
  • NODES: Number of nodes.
  • PROCS: Número de procesadores.
  • TIME: Tiempo solicitado a la cola, formato hh:mm:ss.
  • MEM: memoria en GB y sin especificar la unidad.
  • [“Otras opciones de Torque”] Existe la posibilidad de pasar más variables al sistema de colas. Ver ejemplos más abajo. Más información sobre estas opciones

Ejemplo

Para mandar el input au_min2.run a 4 procesadores, con un walltime de 20 horas y 4 GB de RAM usar

send_adf au_min2.run 1 4 20:00:00 4

Más información

Página principal de ADF.

Documentación de ADF

OOMMF

Informazio orokorra

Simulazio mikromagnetikoak egiteko programa. 1.2 bertsioa instalatuta dago. Ez da tcl-ko bertsio paraleloarekin kompilatu.

Nola erabili

oommf.tcl

egikaritzen bada grafikoki lan egin dezakegu kalkuluak prestatzeko eta emaitzak aztertzeko. Kalkulu koletara bidaltzeko ondorengo agindua exekutatu dezakezue

send_oommf

eta koleentzako scripta prestatu eta bidaliko du, gainara.

Benchmark

Benchmark txiki bat egin da 1.2 bertsioarekin. Paraleloan OOMMFek ondo eskalatzen du 4 koreetaraino, bakarrik xeonetan egin dugu hor lortzen baitira emaitza hoberenak.

 Node type xeon20 xeon12 xeon8
Time
776
905 1224

Informazio gehiago

OOMMF home page.

OOMMF dokumentazioa.

OOMMF

Información general

Versión 1.2 del programa para realizar simulaciones micromagnéticas. No está compilado con la versión paralela de tcl.

Cómo usar

Ejecutando

oommf.tcl

nos aparece la interfaz gráfica. Para poder preparar y analizar los cálculos. Para mandar cálculos a las colas de cálculo se puede usar el comando

send_oommf

que nos crea un script adecuado y lo envía a la cola, además de asegurar la coherencia entre los cores solicitados al sistema de colas y a OOMMF.

Benchmark

Se ha realizado un pequeño benchmark con la versión 1.2. En la versión paralela en xeon OOMMF tiene un rendimiento aceptable hasta los 4 cores con el input empleado, no hemos realizado el benchmark paralelo en otras arquitecturas dado que los nodos xeon son los más adecuados.

Node type xeon20 xeon12 xeon8
Time
776
905 1224

 

Más información

Página web de OOMMF.

Manuales de OOMMF.

Gamess-US 12 JAN 2009 (R1)

Informazio orokorra

Kimika Konputazional programa bat da, sistema molekularren hainbat ezaugarri kalkulatu ditzakeenak metodo desberdinak erabiliz.

Nola bidali Gamess

Esteka honetan ikus dezakezu nola Gamess lanak bidali kola sistemara eta nola monitorizatu hauek.

Informazio gehiago

GAMESS-US web orria

GAMESS-US 12 JAN 2009 (R1)

Información general

Gamess es un paquete de química computacional con varios métodos para calcular propiedades de sistemas moleculares, usando descripciones mecánico-cuánticas estándar para las funciones de onda o la densidad electrónica. La versión 12 JAN 2009 (R1) se encuentra instalada en el cluster. En estos momentos, se puede ejecutar gamess en varios nodos, con 8 o más procesadores.

Como mandar Gamess

En este enlace puedes ver cómo mandar cálculos de Gamess y como ir monitorizándolos.

Más información

Página de GAMESS-US

Dirac 08

Informazio orokorra:

Dirak programa Zerbitzuko makina guztietan instalatua dago /software/Dirac08 katalogoan. Programa honek molekulen propietateak modelo kimiko kuantiko erlatibistak erabiliz kalkulatzen ditu.

Nola erabili

Zerbitzuko edozein makinatan erabiltzeko, torque script bat sortu behar da eta dirac-en pam erabili lanak bidaltzeko. SGI/IZO-k pam eguneratu du -mpi aukera ezabatuz kola sistemarekin integratuz. Dirac (baseak eta pam barne) /software/Dirac08 katalogoan daude.

Adibide moduan erabili daitekeen script hemen aurkitu daiteke.

Benchmarkak

Dirac kalkuluak konputazio baliabide dexente behar dituzte, batez ere I/O eragiketak egiteko eta beheko taulan ikusi daitekenez, ez du oso ongi paralelizatzen.

Frogetarako erabili den inputa eta sistema.

nproc Itanium Opteron Pendulo (1:ppn=nproc)
1 2176 4650 3603
2 2056 (1.04) 3370 (1.37) 3100 (1.16)
4 990 (2.19) 1847 (2.5) 1840 (1.97)
8 730(2.98) 1054 (4.4) NA
negritaz kalkuluen speed-up-a erakusten da.

Informazio Geiago

DIRAC Wikia eta dokumentazioa.

Dirac 08



Información general

La versión que se encuentra instalada en el cluster es DIRAC08. Dirac es un paquete de química computacional con varios métodos para calcular propidedades de sistemas moleculares usando mecánica-cuántica relativista.

Como ejecutar

Para ejecutar dirac hay que crear un script para torque y utilizar la herramienta de pam de dirac. El SGI/IZO ha actualizado pam deshabilitando la opción -mpi, ya que el sistema de colas se encarga de gestionar los procesadores. Dirac (bases y pam incuidos) esta instalado en /software/Dirac08.

Un script de ejemplo se encuentra aquí.

Benchmarks

El tipo de cálculos que realiza dirac requiere de bastantes recursos computacionales, y realiza muchas operaciones I/O por ello, no paralaliza muy bien como se puede ver en la pruebas realizadas:

nproc Itanium Opteron Pendulo (1:ppn=nproc)
1 2176 4650 3603
2 2056 (1.04) 3370 (1.37) 3100 (1.16)
4 990 (2.19) 1847 (2.5) 1840 (1.97)
8 730(2.98) 1054 (4.4) NA
El speed-up se muestra en negrita.

Input y sistema utilizado para los benchmarks.

Más información

Página de DIRAC y documentación.

Blast2GO

Informazio orokorra

Blast2GO is an ALL in ONE tool for functional annotation of (novel) sequences and the analysis of annotation data. 2.5 bertsioa instalatuta dago.

Nola exekutatu

Maiz, Pendulo edo Guinnessen exekutatzen bada

blast2go

bertsio grafikoa exekutatzen da eta Blast2GOko data baseetara konektatzen da. Hala ere, opteron edo xeon nodoetan, eta bakarrik hauetan, data baseak lokalki instalatu ditugu kalkuluak oso era eraginkorran egin ahal izateko.

Nodoetan kalkulatzeko nahikoa da Torqueko skripetan gehitzea:

/software/bin/blast2go -v -a -in input_file.xml -out outfile -prop b2gPipe.properties

edo nahi diren opzioekin eta b2gPipe.properties fitxeroa zuzen konfiguratzea. B2gPipe.properties adibide fitxero bat kopiatu dezakezue

cp /software/b2g4pipe/b2gPipe.properties .

Lokalean instalatutak dauden data baseetara konektatzeko blast2go.properties fitxeroa konfiguratu behar da interfaz grafikoarekin (tools -> DB configuration) edo zuzenean editatuz datu hauekin:

// GO and B2G-Mapping Database
Dbacces.dbhost=localhost
Dbacces.dbname=b2g
Dbacces.dbuser=blast2go
Dbacces.dbpasswd=blast4it

Beharrezkoa da opteron etiketa erabiltzea kalkulua nodo hauetara bideratzeko eta seriean exekutatzen dan programa bat da, adibidez:

#PBS -l nodes=1:ppn=1:opteron

Data baseren bat instalatu edo eguneratu nahi bada jar zaitez harremanetan teknikariekin.

Informazio Gehiago

BLASTeko mpiBLAST bertsio paraleloa ere instalatuta dago.

Blast2GOko tutoriala.

Informazio gehiago Blast2GO web orrialdea.

mpiBLAST

Informazio orokorra

mpiBLAST blast-en  bertsio paralelo bat da nodo askotan exekutatu ahal izateko. 1.6.0 bertsioa instalatuta dago. Proteinen eta nukleotidoen sekuentziak alderatzen ditu base datuekin erlazio funtzionalak eta ebolutiboak ikertzeko eta gen familien kideak identifikatzeko.

Errendimendu arrazoiengatik ez da Itanium nodoetan instalatu.

Ikusi dugu kale eginten duela 1350 bp baino gehiago dituzten sekuentzietan.

mpiBLAST BLASTeko bertsio zaharrean oinarrituta dago eta sintaxi zaharra erabiltzen du,  esteka honetan eskuragarri dago.

Base datuak

Serbitzuak hainbat base datuak instalatuta ditu, kontsultatu teknikariekin. Data baseren bat eguneratu edo instalatu nahi baduzu jar zaitez harremanetan teknikariekin behar ez diren kopiak ez edukitzeko.

Nola erabili

Lanak kola sistemara bidaltzeko gomendatzen dizuegu

send_blast

komandoa. Galdera batzuen bidez mpiBLAST edo BLAST arrunta bidali dezake, sekuentzien fitxeroa zatitu dezake paralelizatzeko datuetan eta hainbat gauza.

Zure Torqueko skriptetan exekutatu nahi baduzu honakoa gehitzea nahikoa da:

/software/bin/mpiblast -use-virtual-frags -use-parallel-write -output-search-stats

Adibidez, blastx erabiltzeko nr base datuarekin eta emaitzak XMLn lortzeko eta Blast2GOrekin gero erabiltzeko honako agindua erabili beharko litzateke:

/software/bin/mpiblast -output-search-stats -use-virtual-frags -use-parallel-write -p blastx -d nr -m 7 -I T -i input_file.fas -o out_file.xml

send_blast behin exekutatu dezakezue adibide script bat lortzeko. Gomendagarria da -use-virtual-frags aukera erabiltzea data basearen kopia lokal bat egin ez dadin, hau memorian kargatuko da. Penduloko nodoak memoria gutxi dute eta garrantzitsua da jakitea zenbat memoria erabiliko duen kalkulua zuzen exekutatzeko (ikus mpiBLAST errendimenduari buruzko txostena).

Beharrezkoa da data basea formateatzea zatitan eta kore (cpu) bakotzari zati bat ematea. Adibidez, nr data basea 6 zatitan formateatzeko erabili:

/software/bin/mpiformatdb -N 6 -i nr -o T

mpiBLAST kalkulorako eskatu behar diren kore kopurua data basearen zatiak gehi bi izan behar da, kasu honetan 8 kore adibidez.

mpiBLAST oso ondo eskalatzen du. Test eta benchmark batzuk egin ditugu memoriaren ta cpuren erabilera aurreikusteko ondorengo mpiBLAST errendimenduari buruzko txostenean.

Errendimendua

Kalkuluak prestatzeko lagungarri izan daiteke errendimenduari buruzko txostena. Konparatu dugu ere mpiBLAST, NCBIko BLAST normalarekin eta gpuBLASTarekin, emaitzak Zerbitzuko blogean aurkitzen dira.

Informazio gehiago

mpiBLASTeko web orrialdea. Hemen manualak eta tutorialak topatu ditzazkezu.
Blast2GO ere instalatuta dago zerbitzuko makinetan.

mpiBLAST errendimenduari buruzko txostenean

Blast2GO

Información general

Blast2GO is an ALL in ONE tool for functional annotation of (novel) sequences and the analysis of annotation data. Está instalada la versión 2.5.

Cómo usar Blast2GO

Si se ejecuta en Maiz, Péndulo o Guinness

blast2go

se ejecuta la versión gráfica que se conecta por red a las bases de datos de Blas2GO. No obstante, sólo en los nodos opteron y xeon hemos instalado localmente las bases de datos y para poder realizar cálculos de forma muy eficiente.

Para calcular en en los nodos basta incluir en el script de Torque:

/software/bin/blast2go -v -a -in input_file.xml -out outfile -prop b2gPipe.properties

o con las opciones deseadas y haber configurado correctamente el fichero b2Pipe.properties. Una plantilla de b2gPipe.properties la podéis copiar desde

cp /software/b2g4pipe/b2gPipe.properties .

Para acceder a las bases de datos locales configurar en el fichero b2gPipe.properties a través de la interfaz gráfica de Blast2GO (tools -> DB configuration) o editándolo directamente con los siguientes datos.

// GO and B2G-Mapping Database
Dbacces.dbhost=localhost
Dbacces.dbname=b2g
Dbacces.dbuser=blast2go
Dbacces.dbpasswd=blast4it

Es necesario incluir la etiqueta opteron para dirigir el cálculo a estos nodos y es un programa que se ejecuta en serie, es decir:

#PBS -l nodes=1:ppn=1:opteron

Si se desea actualizar o incluir alguna base de datos localmente contactar con los técnicos.

Más información

También está instalada la versión paralela de BLAST mpiBLAST.

Tutorial de Blast2GO.

Más información en la página web de Blast2GO.

mpiBLAST

Información general

mpiBlAST es una versión paralela de blast que permite su ejecución paralela en muchos nodos. Está instalada la versión 1.6.0. Compara secuencias de nucleótidos o proteínas con bases de datos y para estudiar relaciones funcionales y evolutivas así como identificar miembros de familas de genes.

Por razones de rendimiento no se ha instalado en los Itanium.

En nuestras pruebas falla si el fichero de secuencias tiene secuencias de más de aproxímadamente 3150 bp.

mpiBLAST está basado en la antigua versión de blast y usa la sintáxis antigua. Puedes verla en este link.

Bases de datos

El Servicio tiene instaladas varias bases de datos para uso compartido, consulta con los técnicos para más información. Si quieres actualizar o instalar más bases de datos contacta con los técnicos para evitar copias múltiples innecesarias.

Cómo ejecutar

Para enviar trabajos al sistema de colas recomendamos el uso del comando

send_blast

Este comando realiza una serie de preguntas y permite lanzar mpiBLAST o el BLAST normal, así como trocear el fichero de datos orginal para paralelizar sobre los datos o ajustar el tiempo de ejecución a Péndulo.

También puedes crear tú propio script de Torque incluyendo esta línea.

/software/bin/mpiblast -use-virtual-frags -use-parallel-write -output-search-stats

Por ejemplo, para usar blastx con la base de datos nr y obtener los resultados en formato XML y luego poder usarlos con Blast2GO:

/software/bin/mpiblast -use-virtual-frags -use-parallel-write -output-search-stats -p blastx -d nr -m 7 -I T -i input_file.fas -o out_file.xml

Para tener un script de ejemplo puedes ejecutar un vez send_blast. También tenemos programas para facilitar el uso de BLAST, consulta con los técnicos.

Es recomendable usar el flag -use-virtual-frags para que no realice una copia local de la base de datos, esta se cargará íntegramente en memoria. Para Péndulo, que tiene poca memoria por nodo, es importante saber cuanta memoria va a necesitar nuestro cálculo para que entre perféctamente (ver informe sobre rendimiento).

Es necesario formatear la base de datos en fragmentos y asignar un fragmento a cada core (cpu). Recomendamos usar las bases de datos instaladas por los técnicos. Para fomatear las bases de datos nr en 6 trozos por ejemplo, está el comando:

/software/bin/mpiformatdb -N 6 -i nr -o T

El número de cores a solicitar para el cálculo con mpiBLAST a de ser igual al número de fragmentos de la base de datos más dos, en este caso solicitaríamos 8 cores.

mpiBLAST escala muy bien. Hemos realizado unos test y benchmark que nos puede servir para predecir el uso de memoria y cpu de los cálculos, que hemos plasmado en el  informe sobre el rendimiento de mpiBLAST.

 

Rendimiento

Para preparar los cálculos puede ser muy instructivo el informe sobre rendimiento de mpiBLAST. También hemos comparado mpiBLAST con el BLAST normal de NCBI y gpuBLAST. Se pueden encontrar los resultados en el blog del Servicio.

Más información

Para más información página web de mpiBLAST. Aquí se pueden encontrar manuales y tutoriales.

También está instaldado Blast2GO.

Informe sobre el rendimiento de mpiBLAST.

BEAST

Informazio orokorra

BEAST 1.8.2 is a cross-platform program for Bayesian MCMC analysis of molecular sequences. It is entirely orientated towards rooted, time-measured phylogenies inferred using strict or relaxed molecular clock models. It can be used as a method of reconstructing phylogenies but is also a framework for testing evolutionary hypotheses without conditioning on a single tree topology. BEAST uses MCMC to average over tree space, so that each tree is weighted proportional to its posterior probability.

Nola erabili

input.xml sarrera fitxeroa exekutatzeko erabili:

/software/bin/beast input.xml > output.log

Beste BEAST instalatutako programak:

beast, beauti, loganalyser, logcombiner eta treeannotator.

Benchmark

Aurkezten ditugu zerbitzuko makinetan egindako benchamrk txikia BEASTeko errendimendua aztertzeko. Beast oso ondo eskalatzen du 8 koreetaraino. 16 koreak erabiltzea pena merezi dezake oso lan luzeetan denbora oraindik nahiko murrizten delako, baina efizienzia ez da jadanik oso ona.

Koreak Denbora (s)
Efizienzia (%)
1 12692 100
4 3573 89
8 1889 84
16 1200 66
20 1149 55

 

Informazio gehiago

BEAST programari buruz BEAST.

BEAST

Información General

BEAST 1.8.2 is a cross-platform program for Bayesian MCMC analysis of molecular sequences. It is entirely orientated towards rooted, time-measured phylogenies inferred using strict or relaxed molecular clock models. It can be used as a method of reconstructing phylogenies but is also a framework for testing evolutionary hypotheses without conditioning on a single tree topology. BEAST uses MCMC to average over tree space, so that each tree is weighted proportional to its posterior probability.

Cómo usar Beast

Para ejecutar el fichero de entrada input.xml en BEAST usar:

/software/bin/beast input.xml > output.log

Otros programas de BEAST instalados

beast, beauti, loganalyser, logcombiner eta treeannotator.

Benchmark

Presentamos los resultados de un pequeño benchmark realizado en las máquinas del servicio para analizar el rendimiento de beast. Como vemos paraleliza muy bien hasta 8 cores. Para cálculos muy largos puede que usar 16 cores merezca la pena pues aun hay una reducción significativa pero la eficacia en el uso de los procesadores ya cae de forma importante.

Cores Tiempo (s)
Eficiencia (%)
1 12692 100
4 3573 89
8 1889 84
16 1200 66
20 1149 55

Más información

Página web de BEAST con tutoriales y documentación.

SatrCD

StarCD CFD programa bat da, eta bere bi bariante desberdinak daude Arina, Arinaz eta Maiz-en instalatuta. StarCDStarCCM+. Stardesign tresna berriz, Maizen dago bakarrik erabilgarri.Stardesign.

Programa hauek rabiltzeko:

Starcd 3.26
Lehengo starcd3 egikaritu eta ondoren erabiltzea nahi den tresna, adibidez: starlaunch &.
Starcd 4.04
Lehengo starcd4 egikaritu eta ondoren erabiltzea nahi den tresna, adibidez: starlaunch &.
starccm+
zuzenean egikaritu starccm+ aguindua.

stardesign
(Maizen Soilik!). egikaritu stardesign.

Bestalde, programa hauek Maizetik eta bertan dagoen FreeNXtresnaren bitartez erabiltzea gomendatzen dizuegu. Ikus hemen nola.

StarCD

StarCD es un programa de Dinámica de Fluídos. Existen dos variantes del programa las dos disponibles en Arina, StarCD y StarCCM+.
(más…)

STAR-CCM+

Informazio orokorra

StarCCM+ CFD programa bat da. Bi bariante daude zerbitzuan, StarCCM+ 14.04.013 bertsioa. Itanium arkitekturarentzako egindako azken bertsioa eta instalatutakoa 6.04 da.

StarCCM+ Zerbitzuko zerbitzari batean exekutatzen bada aplikazio grafikoa irekitzen da, nodoetan kola sitemaren bitartez exekutatu behar, da interfaz grafikorik gabe.

Starview+ programa ere eskuragarri dago.

Nola erabili

Modu interaktiboan (interfaz grafikoarekin)

Erabiltzaileek ziurtatu behar dute Zerbitzuko makinetan exekutatu aplikazio grafikoak erabiltzaile bakoitzaren ordenagailuan ikuzi ahal dituela. Hori zerbitzura nola konektatu atalean azaltzen da.

Starccm+, stardesign edo starview+ erabiltzeko exekutatu:

starccm+
starview+

Kola sisteman

Kalkulu nodoetan Starmcc+ kola sisteman erabiltzeko exekutatu qsub interaktibon:

qsub

eta beharrezkoak diren galderak egingo dizkizue, lehenengo galderan, bigarren aukera Starccm+ da erabiltzea da. Komando honek Xeon nodoak aukeratzen ditu, errendimendo hoberena ematen dutenak.

Torqueko skripta erabili nahi baduzue egikaritu beharreo agindua honbakao da:

/software/bin/starccm+ -run macro_file.jar input_file.sim > log_file.log

sarrera eta log fitxeroei dagokien izenekin. “-run macro_file.java” hautazkoa da.  Link honetan adibide skript bat dago eta gomendagarria da begiratzea. 8 koreetara era paraleloan lanak bidaltzeko kalkulu intentsiboko lizantzia badago.

Kalkuluak nola jarraitu

Era erraz batean kalkulu baten jarraipena eta konbergentzia egiteko, adibidez 1111.arina zenbakiarekin exekutatzen hari den kalkuluaren jarraipena egiteko, erabili:

starccm+_plot 1111

Kolan kalkulatzen ari den lan bat era garbi batean bukatzeko, adibidez 1111.arina zenbakiarekin exekutatzen hari denean, erabili:

starccm+_abort 1111

Baita konekta zaitezkete nodoetara aplikazio grafikoaren bitartez, “ni” komandoa zuen lana zein nodoan exekutatzen ari den erakuzten du.

Benchmarkak

Aurkezten ditugu zerbitzuko 8 koretako xeon makinetan (E5520 – 2.27 GHz) egindako benchmark bat STAR-CCM+-eko errendimendua aztertzeko, 8.02 bertsioa erabili da. Iterazio bakoitzak behar duen batez besteko denbora (segundutan) erabilitako kore kopuruaren arabera neurtu da.

8 cores 16 cores 32 cores
Tiempo por iteración 32.8 14.6 7.6
Aceleración ideal 1 2 4
Aceleración 1 2.2 4.3
Eficiencia 1 112 % 108 %

Lehenengo ikusten duguna STAR-CCM+-k oso ondo eskalatzen duela kore kopurua handitzen dugun einean da. Kore kopurua bikoizten dugunean denbora zati bi da. Izan ere adibide honetan errendimendu superlineala lortzen dugu eraginkortasuna %100 baino handiagoa izanik.

 

Informazio gehiago

StarCCM+ programari buruz CD-dapco.

Programaren interfaz grafikoak eskuliburu zabala du.

Mathematica

Informazio orokorra

Erabilera anitzeko matematika-programa, osagaiak: kalkulu numerikoa eta sinbolikoa, bistaratzea eta programazio-lengoaia (Mathematicaren script direlakoak). Guinnessen 10.0 bertsioa instalatuta dago eta Arinan (itanium nodoetan) 6.0a. Katramila eta nodo berrientzako 11.2 bertsioa instalatuta dago.

Mathematica paralelizatu daiteke.

Nola erabili

Interaktiboan

Interfaze grafikoa honekin exekuta daiteke:

mathematica

Mathematicako terminala

math

Oharra: Iturriekin arazoak izanez gero zure ordenagailuan iturriak instalatu behar dituzu. Errore mezua ezikusten baduzu (lehioa itxi “X” botoiarekin) funtzionatuko du baina baliteke sinboloak ondo ez ikustea.

Kola sisteman

Ilaretara bidaltzeko scriptetan linea hau erabili:

/software/bin/math < input > output

non input Mathematicarako aginduak dituen artxiboa da eta output ftxeroan pantailako irtera gordeko da.

Informazio gehiago

Mathematica home page.

Lineako dokumentazioa.

Matlab

Informazio orokorra

Erabilera anitzeko matematika-programaren 7.9 (2009b) bertsioa Opteronetan eta 7.12 (2010a) Xeonetan (inkopatibilitateak direla eta). Osagaiak: kalkulu numerikoa eta sinbolikoa, bistaratzea eta programazio-lengoaia (Matlab script direlakoak).

Nola erabili

Bakarrik eskuragarri dago opteron eta xeonentzako beraz Maizetik edo Guinnessetik (gomendatuta) erabili behar duzue. Ikus zerbitzarietara nola konektatu. Interfaze grafikoa honekin exekuta daiteke:

matlab

Ilaretara bidaltzeko scriptetan linea hau erabili:

/software/bin/matlab < input_file > output_file

input_file Mathematicarako aginduak dituen artxiboa da eta out_filera bideratzen da irtera estandarra. Arazoak izan ditugu 169 lerro baino gehiago dituzten .m programekin. Idukiz gero beste .m programa baten bitartez deitzen badira arazoa ebazten da.

Kalkulua nodoetara bidaltzeko opteron edo xeon etiketa erabili behar da. Beste aldetik bakarrik bi lizentzia ditugu momentuz eta beraz kola berezia sortu dugu nodoetako lanak ez daitezen hil lizentzia arazoengatik. Beraz, lerro hauek gehitu behar dira zuen scriptei Adibidez:

#PBS -q matlab
#PBS -l nodes=1:ppn=1:xeon

edo Opteronetara bidaltzeko

#PBS -q matlab
#PBS -l nodes=1:ppn=1:opteron

Benchmarkak

Octave, Scilab eta Matlab konparatzeko benchmark batzuk egin dira.

Toolboxes

Ezyfit toolbox askea instalatu egin da.

Optimization matlabeko toolboxa instalatu egin da.

Statistics matlabeko toolboxa instalatu egin da.

Informazio gehiago

Matlab home page.

Lineako dokumentazioa.

Scilab

Ezaugarri Orokorrak

Zenbakizko kalkuluko programa matematikoaren 5.1.1 bertsioa Itanium, Opteron eta Pendulo nodoetan eta 5.2.2 bertsioa Xeonetan. Interfaz grafikoa bakarrik Pendulon eta Guinnessen eskuragarri dago. Matlab-en antzekoa funtzionalitateei dagokienez. Ondokoentzako tresnak ditu:

  • 2D eta 3D bistaratzea.
  • Programazio hizkuntza (scripts de scilab).
  • Ekuazio diferentzialak ebaztea.
  • Sistema hibridoen modelizatzaile eta simulatzailea: seinale tratamendua, kontrol sistemak, sistema biologikoak…
  • Algebra simbolikoa (Maple).

Nola Exekutatu

scilab

eta interfaz grafikoa irekiko du Pendulon eta terminal bat maizen. Ilaretara jaurtitzeko script-etan

/software/bin/scilab -f script_scilab > output_file

erabili, hemen script_scilab Scilab-entzako aginduak dituen fitxetegia da.

Informazio Gehiago

Informazio eta dokumentazio gehiago Scilabi buruz Scilab home page.

Benchmarkak

Benchmark batzuk egin ditugu Scilab, Octave eta Matlab konparatuz zerbitzuko makinetan. Benchmark handi bat egin dugu eta beste bat berdina baina txikiagoa Pendulon egin ahal izateko. Lehenengo taulan puntuen laburpen bat daukagu eta bigarrenean eta hirugarrenean denbora emaitzak daude.

Tabla 3: Benchmark handien laburpena. Puntuazioa benchmarketan lorutako 3 scoreeen batezbesteko geometrikoa.
Octave Scilab Matlab
Itanium Opteron Xeon Opteron Xeon Opteron Xeon
Total score 47.6 31.4 14.5 31.6 15.6 22.0 9.5

Laburbilduz, Matlab eta Octaveko azken bertsioek Xeon nodoetan antzerako errendimendua dute (bukleen ejekuzioan ezik, irakurri beherago). Scilab %50 mantxoagoa da gutxi gora behera. Makinei begiratuta Xeon berriek Opteronak edo Itaniumak bikoizten dute errendimenduan. (NOTA: Scilab eta Octave konpilatu eta optimizatuta daude eta instalatzen diren binarioak baino bi aldiz azkarragoak dira)

3. taulan programa bakoitzak lortutako puntuazioa ikusten dugu. Xeonetan zentratuko gara. Horietan badirudi Matlab azkarrena dela baina denboretan fijatzen bagara 4 taulan ikusten dugu Octave antzerako denborak dituela Programation 4 benchmarkean ez ezik, non Octave oso gaizki doa. Benchmark honetan bukleak exekutatzeko denbora neurtzen da Toeplitz matriz bat zortuz. Matlaben teknologiak bukleak oso azkar exekutatzen ditu baina Octavek ez. Horregatik bukleen ordez operazio vektorialak edo funtzioak erabiltzea gomendatzen da (Adibidez, Octaven toeplizt(c,r) funtzioa erabiliz benchmark horretan ez du ia denborarik behar).

Benchmark txikian Pendulo ere neurtu dugu Opteron eta Itanium nodoen errendimendua lortuz gutxi gorabehera. Pendulon Octave eta Scilab ez dira konpilatu, binarioak instalatu dira

Matlabeko lizentzia kopurua limitatua da, baina Scilab edo Octave dohanik dira eta asko kalkulatu behar bada ez dauka lizentzien edo prozesuen muga.

Tabla 4: Benchmark handiaren emaitzak segundutan. Scorea batezbesteko geometrikoa da emaitza txarrena eta hoberena kenduta. Bukaeran benchmarkak deskribatzen dira. ++ oso denbora handiak dira eta ez dira kontutan hartzen bataz bestekoan.
Octave Scilab Matlab
Itanium Opteron Xeon Opteron Xeon Opteron Xeon
Matrix calculation
Matrix calc 1 108.6 35.9 12.8 93.0 33.2 24.5 12.4
Matrix calc 2 49.5 3.8 7.5 9.8 9.3 18.1 13.4
Matrix calc 3 122.3 32.8 25.1 27.8 25.6 24.8 18.4
Matrix calc 4 72.2 137.0 41.5 172.1 80.2 132.8 40.8
Matrix calc 5 37.2 42.5 17.9 40.0 18.0 54.8 18.7
Score 72.9 36.8 17.9 46.9 24.8 32.1 16.6
Matrix functions
Matrix func 1 2.6 1.2 0.5 11.0 0.9 1.7 0.6
Matrix func 2 153.5 99.5 37.2 290.9 71.8 124.0 39.9
Matrix func 3 48.1 50.8 22.1 48.1 21.6 65.8 23.0
Matrix func 4 57.1 72.8 29.1 66.1 29.8 106.5 32.8
Matrix func 5 32.1 42.9 16.1 39.7 16.3 51.0 16.5
Score 44.5 54.1 21.8 50.2 21.9 71.0 23.2
Programation
Programation 1 4.7 2.2 1.4 2.8 1.7 4.7 3.1
Programation 2 48.1 22.2 5.3 18.4 5.7 13.7 6.4
Programation 3 3.9 1.5 0.4 3.7 1.3 1.6 0.6
Programation 4 161.2 76.2 66.1 35.5 35.6 0.1 0.0
Programation 5 ++ ++ ++ ++ ++ ++ ++
Score 33.2 15.5 7.8 13.4 7.0 4.7 2.2
Tabla 5: Benchmark txikiaren emaitzak segundutan. Scorea batezbesteko geometrikoa da emaitza txarrena eta hoberena kenduta. Bukaeran benchmarkak deskribatzen dira.
Octave Scilab Matlab
Pendulo Itanium Opteron Xeon Pendulo Opteron Xeon Opteron Xeon
Matrix calculation
Matrix calc 1 2.2 3.1 2.4 1.0 4.3 5.6 2.8 2.1 1.1
Matrix calc 2 0.9 5.2 0.3 0.7 1.1 1.1 0.9 1.2 1.2
Matrix calc 3 1.5 1.8 1.4 1.3 1.9 1.8 1.3 1.0 0.9
Matrix calc 4 1.8 1.8 3.8 1.2 18.4 6.4 2.3 3.0 1.2
Matrix calc 5 1.0 2.5 1.4 0.6 3.5 1.7 0.6 1.6 0.6
Score 1.4 2.4 1.7 0.96 3.1 2.6 1.7 1.6 1.1
Matrix functions
Matrix func 1 0.4 0.63 0.4 0.2 0.9 2.6 0.5 0.8 0.3
Matrix func 2 3.0 3.3 4.3 1.9 7.5 9.4 2.3 4.3 2.0
Matrix func 3 1.1 1.0 1.6 0.7 4.3 1.6 0.6 1.6 0.7
Matrix func 4 1.3 1.3 2.0 0.9 5.2 2.7 0.9 2.3 0.9
Matrix func 5 0.9 0.7 1.2 0.5 3.2 1.6 0.5 1.2 0.5
Score 1.1 1.0 1.6 0.65 4.2 2.2 0.67 1.7 0.66
Programation
Programat. 1 0.5 0.6 0.6 0.4 0.6 0.8 0.5 1.1 0.9
Programat. 2 30.0 2.6 3.9 1.1 4.3 3.5 1.2 2.6 1.3
Programat. 3 0.6 0.3 0.4 0.1 1.0 1.2 0.4 0.3 0.2
Programat. 4 8.2 14.3 7.2 5.8 3.3 3.7 3.2 0.0 0.0
Programat. 5 24.0 27.8 36.0 14.8 67.8 57.4 33.2 38.9 17.5
Score 4.9 2.8 2.6 1.4 2.4 2.5 1.3 0.9 0.58

Benchmarken deskribapena.

Matrix calculation
Matrix calc Creation, transp., deformation of a matrix.
Matrix calc Normal distributed random matrix ˆ1000.
Matrix calc Sorting of random values.
Matrix calc Cross-product matrix (b = a’ * a).
Matrix calc Linear regression over a matrix (c = a b’).
Matrix functions
Matrix func FFT over random values.
Matrix func Eigenvalues of a random matrix.
Matrix func Determinant of a random matrix.
Matrix func Cholesky decomposition of a matrix.
Matrix func Inverse of a random matrix.
Programation
Programation Fibonacci numbers calculation (vector calc).
Programation Creation of a Hilbert matrix (matrix calc).
Programation Grand common divisors of pairs (recursion).
Programation Creation of a Toeplitz matrix (loops).
Programation Escoufier’s method on a matrix (mixed).

Coin-or

Informazio orokorra

1.7.5 version. The Computational Infrastructure for Operations Research (COIN-OR**, or simply COIN) project is an initiative to spur the development of open-source software for the operations research community. Konpilatu egin da CPLEX erabiliz.

Nola erabili

blis, cbc, clp, OSSolverService eta symphony programak /software/bin/CoinAll karpetan daude. Adibidez, clp erabiltzeko exekutatu torque skriptetan

/software/bin/CoinAll/clp

Informazio gehiago

Coin-or home page.

Coin-or

Información general

1.7.5 version. The Computational Infrastructure for Operations Research (COIN-OR**, or simply COIN) project is an initiative to spur the development of open-source software for the operations research community. Se ha compilado incluyendo CPLEX.

Cómo usar

Los ejecutables blis, cbc, clp, OSSolverService y symphony se encuentran instalados en /software/bin/CoinAll. Para usar, por ejemplo clp ejecutar en los scripts de torque:

/software/bin/CoinAll/clp

Más información

Coin-or home page.