Archive

Archive for December, 2014

Tianhe-2, still the most powerful computer of the world

December 18th, 2014

According to the well known top500.org, the list of the most powerful supercomputers in the world, the supercomputing speedup is suffering an slow down. Today November 2014, the world’s most powerful computer is Tianhe-2 (Milky Way-2). This supercomputer is installed at the National University of Defense Technology (NUDT) in China and is the technological successor of Tianhe-1A, installed at the National Supercomputer Center in Tianjin, that was already No. 1 on the top500 list in November 2010.

(Nota: There is a new supercomputer more powerfull, you can read about Tianhe-2 here)

#500 supercomputer in top500Before describing this colossus we must to mention that is the fourth consecutive time it is positioned in the first place of the top500.org semestral list, 2 years. This is an atypical situation. The computing evolves very fast and it is abnormal that in 2 years there has not been a faster supercomputer. But this is not the only worrying fact. In two years there have been only 2 new systems in the top 10 positions of the list and the age of this top 10 systems has not precedents. In addition, the power of the 500th system, the last one of the list, which use to have a smoother and continuous behavior, increased a 90% a year in the 1994-2008 range, but in the last 6 years it has dropped to a just 55% of increase. We hope this tendency will be broken soon thanks to the CORAL project in which the USA government is going to fund with 235 million dollars to build 2 pre-exascale (exaFLOPS=1000 PFLOPS) systems and with other 100 million dollars for technological development.

Tianhe-2 Supercomputer

Tianhe-2 Supercomputer

Tianhe-2 consists of 16,000 nodes each of which has 2 Intel Xeon Ivy Bridge processors and 3 Xeon Phi co-processors, to accelerate the calculations. This makes a total of 3,120,000 computing cores, 384,000 Xeon Ivy Bridge cores and 2,736,000 cores in the Phi coprocessors. It is a novelty that it has 3 coprocessors per node, usually there are one or two. These cores provide to Tianhe-2 a theoretical peak performance running mathematical operations of 54.9 PFLOPS (Peta = 10 ^ 15 Floating-point Operation Per Second, 1,000,000,000,000,000 mathematical operations per second) and with the LINPACK benchmark the real performance reaches 33 .9 PFLOPS, which almost doubles the previous record of the Titan supercomputer located at the Oak Ridge National Laboratory (ORNL) in Tennessee.

The interconnection network between the nodes, namely TH Express-2, is a proprietary design firstly installed in Tianhe-2 and aims to avoid communications bottlenecks implementing a bidirectional bandwidth of 16 GB/s, low latency and fat tree topology. Tianhe-2 uses the Kylin operating system based on Linux optimized for high performance computing and also developed by the NUDT. Being based on a standard Linux Kylin gives great flexibility to run many codes without specifically reprogram them.

Tianhe-2 consumes 17.8 MW, which is roughly equivalent to the consumption of 27,000 families. Nevertheless, it is energetically a very efficient supercomputer given the high number of FLOPS per watt it obtains. In the green500.org list of the energetically most efficient computers of the world Tianhe-2 is in the 32th position with 1,902 MFLOPS/W.

According to the NUDT Tianhe-2 will be dedicated to simulations, analysis and national security.

Most outstanding data

Model Own design
Nunber of cores
3.120.000: 384.000 Xeon Ivy-Bridge cores y 2.736.000 Phi cores
Processor Intel Xeon E-2692 with 12 cores at 2.2 GHz
Coprocessor Intel Phi 31S1P with 57 cores at 1,1 GHz
Interconection TH Express-2
Operative System Kylin
Theoretical FLOPS
54,9 PetaFLOPS
Linpack FLOPS
33.9 PetaFLOPS
Electric power
17.8 MW
FLOPS/W 1.9 GigaFLOPS

 

 

HPC

Tianhe-2, todavía el ordenador más potente del mundo

December 18th, 2014

La nueva lista de los superordenadores más potentes del mundo muestra un estancamiento de la supercomputación a nivel mundial. De acuerdo a la nueva lista publicada hace unos días en top500.org de los ordenadores más potentes del mundo, a día de hoy Diciempbre de 2014, el ordenador más potente del mundo continua siendo el chino Tianhe-2 (Vía Láctea-2). Este superordenador está instalado en la National University of Defense Technology (NUDT) de China y es el sucesor tecnológico de Tianhe-1A, instalado en el National Supercomputer Center en Tianjin que ya fué número 1 del top500 en la lista de Noviembre de 2010.

(Nota: Ya existe un nuevo ordenador más potente, puedes leer sobre Tianhe-2 en este enlace)

 

#500 supercomputer in top500Antes de entrar a comentar los detalles técnicos de este coloso, comentar que es la cuarta vez consecutiva que ocupa el número 1 en la lista semestral del top500, es decir, lleva 2 años como el ordenador más potente del mundo. Esta es una situación atípica. La potencia de los ordenadores avanza muy rápidamente y es anormal que en 2 años no haya salido ningún nuevo superordenador que haya podido superarlo. Pero no es el único dato preocupante. Ha este dato hay que añadir, por ejemplo, que entre los 10 primeros ordenadores de esta lista apenas lleva habiendo cambios, en los dos últimos años sólo ha habido 2 nuevas entradas. La edad de los sistemas en el top10 no tiene precedentes. Otro dato claro que nos habla sobre la ralentización es que para el último sistema de la lista, la posición 500 tiene un comportamiento más suave o continuo que el número 1, el incremento en la potencia en el periodo 1994-2008 era de un 90% anual mientras que el los últimos 6 años ha sido del 55%. Esta tendencia parece que puede romper en un futuro cercano (2016-2018) pues el gobierno de EE.UU ha lanzado el proyecto CORAL con el que pretende desarrollar dos máquinas de nivel pre-exascala (exaFLOP=1000 PFLOPS) financiado con 235 millones de dolares y otros 100 millones en desarrollo tecnológico.

Tianhe-2 Supercomputer

Tianhe-2 Supercomputer

Tianhe-2 está formado por 16.000 nodos cada uno de los cuales tiene 2 procesadores Intel Xeon Ivy Bridge y 3 coprocesadores para acelerar los cálculos Xeon Phi. Esto hace un total de 3.120.000 cores de cálculo, 384.000 Xeon y 2.736.000 cores en los coprocesadores Phi. Es una novedad que tenga 3 coprocesadores por nodo pues lo habitual son uno o dos. Estos cores le dotan de un rendimiento teórico ejecutando operaciones matemáticas de 54,9 PFLOPS (Peta=10^15 FLoating-point Operation Per Second, 1.000.000.000.000.000 operaciones matemáticas por segundo) y en el benchmark LINPACK alcanza un rendimiento real de 33,9 PFLOPS, lo cual es casi el doble que el anterior número 1 Titan.

La red de interconexión entre los nodos es un diseño propio, TH Express-2, y trata de evitar que las comunicaciones sean un cuello de botella gracias al ancho de banda bidireccional de 16 GB/s, baja latencia y topología fat tree. Tianhe-2 usa el sistema operativo Kylin, basado en Linux, y también desarrollado por la NUDT y optimizado para HPC. El hecho de estar basado en un estándar como Linux le da mucha flexibilidad a la hora de ejecutar muchos códigos sin necesidad de reprogramarlos específicamente.

Tianhe consume 17.8 MW, que equivale aproximadamente al consumo de 27.000 familias, a pesar de lo cual es también en un supercomputador muy eficiente dado el alto número de FLOPS por watio que realiza, aunque cuando se anuncie la lista green500.org de los computadores energéticamente más eficientes del mundo probablemente ocupará entorno al puesto 40.

De acuerdo a la NUDT Tianhe-2 estará dedidado a aplicaciones de simulación, análisis y seguridad nacional.

Datos más relevantes

Marca y modelo Diseño propio
Nº de cores 3.120.000: 384.000 cores xeon y 2.736.000 cores Phi
Procesador Intel Xeon E-2692 de 12 cores a 2.2 GHz
Coprocesador Intel Phi 31S1P de 57 cores a 1,1 GHz
Interconexión TH Express-2
Sistema Operativo Kylin
FLOPS teóricos 54,9 PetaFLOPS
FLOPS Linpack 33.9 PetaFLOPS
Potencia eléctrica 17.8 MW
FLOPS/W 1.9 GigaFLOPS

HPC

Tianhe-2, oraindik munduko ordenagailurik boteretsuena

December 17th, 2014

top500.org munduko ordenagailu ahaltsuenen zerrendaren arabera, superkonputazioaren ahalmena geldialdi batean sartu da azkeneko urteotan. Gaur egun, 2014ko Abendua, Tianhe-2 (Esne-bidea-2) da zerrendako superkonputagailu ahaltsuena. Superkonputagailu hau, Txinako National University of Defense Technology (NUDT) unibertsitatean dago eta Tianhe-1A superkonputagailuaren ondorengo teknologikoa da, azken hau, Tianjingo National Supercomputer Center-ean dago eta 2010ko Azaroko top500.org zerrendan lehengo postua lortu zuen jada.

(Nota: Badago superodenadore bat ahaltsuagoa, Tianhe-2-ri buruz irakurri dezakezu ezteka honetan)

500. superodenagailua top500 zerrendanErraldoi hau hobeto ezagutu baino lehenengo, esan behar da sei hilabetean behin eguneratzen den zerrenda honetan, Tianhe-2 superkonputagailuak bi urte jarraian daramazkila lehenengo lekuan. Hau oso arraroa da ordenagailuak oso azkar garatzen direlako, baina ez da ordenagailu ahaltsuagorik eraiki azkeneko bi urtetan. Ez da datu hau ordea kezkatzeko modukoa den bakarra. Zerrendako lehenengo hamar ordenagailuen artean, azkeneko bi urteotan bakarrik bi berri sartu dira eta top10-ean agertzen diren superordenagailuen “adinak” ez du aurrekaririk. Geldialdi hau argi eta garbi erakusten duen beste datu bat, zerrendako azken tokian dagoen superkonputagailuaren potentzia da, 500. ordenagailua alegia. Honen ahalmena, zerrendako lehenen ordenagailuarenak baino joera askoz leunagoa edo jarraiagoa du. 1994-2008 tartean, potentzia honek urtero %90-eko hazkundea izan du, baina azken 6 urtetan %55-ekoa izan da soilik. Espero dugu tendentzia hau haustea hurrengo urtetan, izan ere, EEBB-tako gobernuak CORAL proiektua jarri du martxan, “exascale” bidean (exaFLOPS=1000 PFLOPS),  bi superodenagailu eraikitzeko  2017 urte inguran eta 235 milioi dolarrekin finantziatu du 100 milioi gehituz garapen teknologikorako.

Tianhe-2 Supercomputer

Tianhe-2 Supercomputer

Tianhe-2 16.000 nodoz osatuta dago. Nodo bakoitza bi Intel Xeon Ivy Bridge prozesagailuz eta 3 Xeon Phi koprozesagailuz, kalkulu matematikoak azkartzeko, osatuta dago. Guztira 3.120.000 kalkulu kore ditu, 384.000 Xeon koretan eta 2.736.000 Phi koretan banatuta. Hiru koprozesadore izatea berrikuntza bat da ohikoena 1 edo 2 izatea baitzen orain arte. Kore kopuru izugarri honek aplikazio matematikoak egikaritzeko 54,9 PFLOPS-etako (Peta=10^15 Floating-point Operation Per Second, 1.000.000.000.000.000 segundo bakoitzeko operazio kopurua) errendimendu teorikoa ematen dio eta LINPACK benchmarka egikaritzean 33,9 PFLOPS-etara iristen da, ia zerrendako aurreko lehenengo postua zuen Titan superordenagailuaren bikoitza.

Nodoen arteko komunikazio sarea beraiek diseinatutako elektronika darama, TH Express-2, eta komunikazioak normalean dakarren prozesuen eraginkortasuna galera saihestea du helburu. Sare hoenen ezaugarriak 16 GB/s-etako banda-zabalera bi-direkzionala, latentzia baxua eta fat tree topologia dira. Tianhe-2 superkonputagailuak Linuxen oinarritutako eta HPCrako optimizatutako Kylin sistema eragilea darama, NUDT-n garatutakoa baita ere. Linux sistema eragilean oinarrituta egoteak erraztasun asko ematen ditu programak exekutatzeko berprogramazio beharrik ez dagoelako, Linux oso zabalduta baitago zientzia arloan.

Tianhe-2 superkonputagailuak 17.8 MW elektrizitate  erabiltzen ditu, gutxi gorabehera 27.000 familiek behar duten elektrizitatea. Hala ere energetikoki oso ordenagailu eraginkorra da FLOPS asko egiten baititu watio bakoitzeko, 1,902 MFLOPS/W hain zuzen ere. Izan ere energetikoki munduko ordenagailu eraginkorren green500.org zerrendan 32. postuan dago.

NUDT-ren arabera Tianhe-2 superordenagailua simulazioentzako, analisientzako eta nazioaren segurtasunerako erabiliko da.

Datu adierazgarrienak

Marka eta modeloa
Diseinu propioa
Kore kopurua
3.120.000: 384.000 xeon kore eta 2.736.000 Phi kore
Procesagailua Intel Xeon E-2692, 12 koretakoa 2.2 GHz-etara
Coprocesador Intel Phi 31S1P, 57 koretakoa a 1,1 GHz-etara
Interconexioa TH Express-2
Sistema eragilea Kylin
FLOPS teorikoak 54,9 PetaFLOPS
FLOPS Linpack 33.9 PetaFLOPS
Potentzia elektrikoa 17.8 MW
FLOPS/W 1.9 GigaFLOPS

HPC

Nuevo almacenamiento masivo en la UPV/EHU el servicio de los investigadores

December 4th, 2014

La UPV/EHU oferta el nuevo servicio de almacenamiento masivo en red ehuStorage para cubrir necesidades de la investigación y la universidad en general. El servicio se ha creado en vista de la creciente demanda de las necesidades de grandes cantidades de disco, mayormente por parte de la investigación.

Cómo funciona

El sistema es muy cómodo y sencillo. La universidad ha instalado un sistema relativamente complejo de almacenamiento en sus instalaciones, no es almacenamiento externo a la UPV/EHU en “la nube”, pero toda esta complejidad es transparente al investigador. Una vez realizada y admitida la solicitud en este almacenamiento masivo se asigna este espacio de disco en este sistema al investigador, espacio al que solo él tendrá acceso. Para acceder al disco el investigador sólo tiene que configurarlo en su ordenador (se lo podrá hacer el servicio de atención al usuario CAU) y accederá al mismo a través de la red. Cuando encendamos el ordenador se verá automáticamente como un disco más. Los técnicos podrán informarnos sobre los diferentes métodos de configurarlo según sea nuestro ordenador un PC o servidor y del sistema operativo que usemos.

More TB iconSeguridad

La información se guarda en servidores en la UPV/EHU por lo que la información nunca sale de la UPV/EHU. Para acceder a este almacenamiento es necesario estar en la red de la universidad, bien porque el ordenador está físicamente en la misma o porque el equipo se ha conectado a la misma desde el exterior a través de VPN.

El sistema es tremendamente seguro ante fallos de hardware. Para comenzar toda la información está duplicada en dos sistemas gemelos situados en edificios diferentes. Uno de estos sistemas gemelos podría ser destruido totalmente y la información permanecería intacta en el otro. Además, cada uno de ellos posee elementos redundantes para que la rotura de discos, servidores, elementos de red, etc. no produzca una perdida de servicio ni de información.

No obstante, uno de los objetivos del proyecto es que tuviese un coste asequible, por lo que no se ha incluido un sistema de copia de seguridad. Es decir, si el investigador accidentalmente borra información esta no es recuperable. Se espera que en futuras versiones del software empleado por el sistema se incluyan los “snapshots” que permiten la recuperación de información borrada unos días tras el suceso.

Para qué es y para qué no es

El sistema se ha creado para satisfacer necesidades de almacenamiento masivo, como copias de seguridad y almacenamiento de datos, pero no necesidades de rendimiento. Es decir, en estos discos se pueden guardar gran cantidad de datos e incluso se puede trabajar sobre ellos en condiciones normales, pero no ha sido diseñado para requerimientos de gran velocidad de lectura y escritura para hacer un procesamiento intensivo de los datos. Primero, porque ello supondría un gran coste adicional, y segundo, porque a parte de los límites que tienen los propios servidores del almacenamiento están los de la red de datos, el ancho de banda y latencia de la misma que es la suma de todos los que elementos que los datos han de atravesar en su viaje desde los servidores hasta el equipo del investigador. Evidentemente va a ser más lento que un disco local de nuestro PC, pero nos va a permitir trabajar con normalidad. La excepción es el caso de que necesitemos realizar operaciones de escritura y lectura constantemente. Para este tipo de proceso de datos el Servicio de Cálculo Científico IZO-SGI tiene sistemas de almacenamiento hasta 100 veces más rápidos. Los técnicos tanto del CAU como del IZO-SGI podrán asesoraros al respecto.

Almacenamiento masivo en el Servicio de Cálculo Científico IZO-SGI

El Servicio de Cálculo Científico IZO-SGI tiene su propia instancia de este almacenamiento masivo en su cluster Arina a disposición de los investigadores. Así mismo e incluso más interesante, los investigadores pueden configurar sus instancias de almacenamiento masivo en Arina, simultáneamente a tenerla en sus propios equipos.

Más información

El servicio ehuStorage es proporcionado por la Vicegerencia de las TICs y las solicitudes han de realizarse a través del formulario correspondiente. Toda la información completa en esta web. Por ahora es un servicio gratuito pero no se descarta cobrarlo en un futuro.

 

 

Anuncios, HPC, IZO-SGI

New masive data storage for research purposes at UPV/EHU

December 4th, 2014

The UPV/EHU offers ehuStorage a new massive storage system. The service has been setup due to the massive disk demand, mainly  from the researchers.

How it works

The system is simple, from the end user point of view. However, technically the university has a set up complex file system, which is not cloud storage but local storage. Once the request of this storage space is made to the university and accepted, the space is assigned to the researcher who is the only one that can access it. To access the virtual disk the researcher has to configure it on its own computer (it can be done by the assistance of the CAU service to the user) and access it across the network. Hereafter when we power on the computer, it will automatically mount the disk. Technicians from UPV/EHU can inform you about the different methods to configure your computer depending on its characteristics.

More TB iconSecurity

The information is stored on servers at the UPV/EHU, so the information never leaves the UPV/EHU. To access this storage, you must be in the university network, either using a computer that is physically on the university or using VPN if you are outside.

The system is extremely secure against hardware failures. Firstable, all information is duplicated in twin systems located in different buildings. One of these twin systems could be completely destroyed and information will still remain intact in the other one. In addition, different elements like disks, servers, network devices, etc. are redundant so the failure of some of them will not cause a loss of service or information.

However, one of the objectives of the project was to had an affordable cost, so it does not include a backup system. That is, if the researcher accidentally deletes information, it is not recoverable. It is expected that future versions of the software used by the system will include “snapshots” that allow information retrieval few days after it was deleted.

What it should be used for and what it should not be used for

The system is adequate to store large amount of that, like backups and scientific data, but not for high performance data access. That is, the stored data can be accessed and work on them under normal conditions, but has not been designed for requirements of high-speed read and write operations like intensive data processing. First, because this will require significant additional cost, and second, because in addition to the limits imposed on storage servers themselves there are also the limits imposed by the network, i.e., the bandwidth and latency of all the network devices the data must pass through on its journey from servers to the researcher computers. Obviously, it will be slower than a local drive of your PC, but it will allow to work normally. The exception is the case when you need to perform intensive write or read operations. For this type of data processing Scientific Computing Service IZO-SGI has storage systems 100 times faster. Technicians both CAU and the IZO-SGI may inform you about it.

Mass Storage Service IZO-SGI Scientific Computing

The Scientific Computing Service IZO-SGI has its own instance of this ehuStorage on our cluster Arina available to researchers. And even more interesting, researchers can configure its own instances of ehuStorage simultaneously in Arina and on it own computers.

More information

The ehuStorage service is provided by the ICT service (CIDIR) and applications must be made through the appropriate form. The complete information is on this web. Currently it is a free service but it can has a cost in the future.

Ehustorage service web page

 
 
 

Anuncios, HPC, IZO-SGI

Edukiera handiko memoria sistema berri bat UPV/EHUn ikertzaileentzako

December 4th, 2014

UPV/EHUk, ikerkuntza eta unibertsitatearen beharrak asetzeko, sarearen bitartez atzitu daiteken edukiera handiko memoria edo disko zerbitzu berri bat martxan jarri berri du. Datuak gordetzeko (batez ere ikerkuntzaren arolokoak) beharra gero eta handiagoa izanik, Zerbitzu hau sortu da.

Nola funtzionatzen du

Sistema erabiltzailearen ikuspuntutik, erabiltzeko oso erraza eta erosoa da. Baina oinarrian, biltegiratze sistema nahiko konplexua de Unibertsiatetan bere instalazioetan eraiki duena, ez da kanpoko edo “odeian” dagoen biltegi bat. Erabiltzailearentzat ordea, konplexutasun hau estalita dago. Behin eta datua gordetzeko UPV/EHU-ri eskaera egin eta berau onartzen denan,  almazenamendua esleitzen zaio ikertzaileari, espazio hori beste inork atzitu ezingo dituelarik. Ikertzaileak almazenamendua atzitzeko bere ordenagailua konfiguratu beharko du noski (EAZ/CAUk ere egin ahal dio) eta sarearen bitartez konektatuko da biltegiratze berrira. Ordenagailua piztearkoan almazenamendu hau beste disko bat bezala agertuko da. EAZ/CAU-k ere aholkatuko ditu ikertzaileak konfiguratzeko dauden era desberdinetatik ikertzailearentzat eraginkorrena zein den adieraziz.

More TB iconSegurtasuna

Datuak UPV/EHUren zerbitzarietan gordetzen dira eta ez dira beraz, unibertsitateti inoiz ateratzen. Datuak atzikitzeko UPV/EHUren sarean egon behar da, UPV/EHU-tik kanpo egonda, VPN erabili behar delarik.

Sistema oso segurua da hardware matxuren aurrean. Hasteko, informazio guztia bikoiztuta dago bi sistema bikietan eta bi eraikin desberdinetan. Nahiz eta horietako sistema bat guztiz suntsitua izan, bestea mantentzen ditu zerbitzua eta datuak. Gainera, sistema bakoitzak elementu erredundanteak ditu (diskoak, sare elementuak, etab.) eta baten batek kale egiteak ez dauka eraginik erabiltzaileean aldean.

Hala ere kostua onargarria edukitzeko, ez dauka segurtasun kopiarik. Hots, erabiltzaileak nahi gabe datuak ezabatuz gero ezingo dira hauek berreskuratu. Softwarearen etorkizuneko bertsiotan “snapshot” direakoak edukitzea espero da, orduan nahi gabe ezabatutako informazioa egun batzutan zehar berreskuragarria izango da.

Zertarako da eta zertarako ez

Sistema datu kantitate handiak metatzeko sortu da, segurtasun kopiak edo ikerkuntzako datuak adibidez, baina ez eraginkortasun altua eskaintzeko. Disko hauetan datu asko gorde daitezke eta horien gainean era arruntetan lan egin, baina ez da diseinatuta izan datuak abiadura handiarekin irakurri edo idatzi ahal izateko. Alde batetik kostu oso handia suposatuko lukeelako eta bestetik biltegiratze zerbitzari hauek eman dezaketen errendimenduaren gainetik, sareak ezartzen dituen mugak zorrotzagoak daudelako. Izan ere, datuek saretik egiten duten bidean,  zeharkatzen dituzten elementu guztien banda zabalera eta latentzia jasan behar dute. Memoria hau gure PCko disko bat baino mantsoagoa izango da, baina normaltasunarekin lan egin ahalko dugu. Salbuespena, datuak prozesatzeko asko irakurri eta idatzi behar baditugu izango da, prozesamendu mota honentzako IZO-SGI Kalkulu Zientifikoko  Zerbitzuak almazenamendu bereziak ditu 100 aldiz azkarragoak. Bai IZO-SGIk bai CAUko teknikariak aholkatu ahalko dizuete honi buruz.

Almazenamendu masiboa IZO-SGI Kalkulo Zientifikoko Zerbitzuan

IZO-SGI Kalkulu Zientifikoko  Zerbitzuak, erabiltzaileen esku,  ehuStorageko bere adar propioa dauka Arina klusterrean. Gainera aukera ematen zaie ikertzaileei beraiek izan dezaketen ehuStorage almazenamendua Arinan konfiguratzeko eta horrela, bai Arinan zein  bere PC-etatik datuak zuzenean atzitzeko aukera izango dute.

Informazio gehigo

EhuStorage zerbitzuak IKT gerentziaordea ematen du eta eskaerak beraiei zuzendu behar dira web orrialde honen bitartez. Momentuz doako zerbitzua da, baina ez da baztertzen etorkizun batean ordaindu behar izatea.

 

 

Anuncios, HPC, IZO-SGI