Linux, ROCKS, hp
description
Transcript of Linux, ROCKS, hp
Linux, ROCKS, hp
Cluster hp de calcul paralel rulând pe S.O. Linux Redhat cu pachetul specializat ROCKS
Raport întocmit sub egida CECMI(Centrul de Educaţie şi Cercetare în Matematică şi Informatică)
Execut de Sandu Lunguwww: http://sandu.xhtml.md
E-mail: [email protected]
Conducător ştiinţific d-nul Boris Hâncu
Domenii de aplicaţie a clusterelor şi a reţelelor distribuite de calculatoare
Modelarea matematică hidro/aero-dinamica proceselor cosmice probleme economice
Cercetare genetica (ADN, reţele neuronale) universul cosmic inteligenţa artificială
Baze de date Criptografie şi securitate
Repartizare costurilor unei soluţii de tip cluster
HARDWARE Procurarea serverelor Echipamentul de reţea Întreţinere
Productivitatea Stabilitatea Compatibilitatea echipamantului Suportul soluţiei software alese
SOFTWARE Licenţa de utilizare Setarea şi suportul sistemului Administrarea
Randamentul Securitatea şi stabilitatea Respectarea standartelor Uşurinţa de utilizare
Soluţia: Linux, ROCKS, hp HARDWARE
Servere ProLiant; storage SmartArray în Universal Rack.
Switch-uri ProCurve de 1Gbps Dealerul autorizat “SNT” s.r.l.
Productivitate înaltă a sistemelor cu 2 procesoare a câte 2 nuclee fiecare
Stabilitatea excelentă confirmată de poziţia sigură de pe piaţă
Echipamentul modern corăspunde standartelor industriei IT
Kit-ul de instalare intră în setul procurat şi e 100% compatibil.
SOFTWARE 0$ - OpenSource Suportul comunităţilor Linux şi a
dealerului “SNT”. Administrarea poate fi efectuată
din consolă sau din una din interfeţele grafice disponibile (ex: KDE), local sau prin reţea.
Randamentul foarte înalt confirmat de nenumărate ori
Securitatea şi stabilitatea platformei UNIX, folosită de cele mai mari corporaţii IT.
Respectarea superbă a ultimelor standarte.
Intefaţă grafică prietenoasă şi consolă cu vaste posibilităţi.
Specificaţii tehnice 3 servere hp ProLiant DL385G1
CPU: AMD 280 Dual-Core 2.4GHz RAM: 2GB Reg. PC3200 DDR HDD: SmartArray 6i, 2x146GB 10k Network: 3x1Gbps LAN
12 noduri hp ProLiant DL145R02 CPU: 2xAMD 275 Dual-Core 2.2GHz RAM: 4GB AECC PC3200 DDR HDD: 80GB NHP SATA Network: 3x1Gbps LAN
Storage hp SmartArray 6402 Enclosure: hp StorageWorks MSA20 HDD: 4x500GB 7.2k SATA
2xhp R3000 UPS hp UniversalRack 10642 G2 2 switch-uri hp ProCurve 2824
Ports: 24x1Gbps (4 dual personality)
3 staţii de management hp dx5150 CPU: Athlon64 3200+ RAM: 1GB PC3200 DDR Storage: 80GB SATA, DVD-RW Network: 1Gbps LAN Monitor: hp L1940 LCD 19”
12 staţii de lucru hp dx5150 CPU: Athlon64 3200+ RAM: 512MB PC3200 DDR HDD: 80GB SATA Network: 1Gbps LAN Monitor: hp L1706 LCD 17”
Switch hp ProCurve 2650 (48 ports) hp ProCurve AccesPoint 530WW
Schema reţelei (cab. 239)
Schema rack-ului
Câteva poze ale monstrului...
Fotografia rack-ului din faţa… … şi din spate!
Configuraţia serverului web
Server de aplicaţii web Apache2+PHP+MySQL
Gateway cu acces direct la internet DHTP, BOOTPC server FTP, SMB (server de fişiere)
Arhivă de pachete şi imagini de instalare Mail server DNS server Virtual machines host
Model de funcţionare a cluster-ului
Serverul “frontend”
Nodul #1
Nodul #2
Nodul #3
Utilite administrative ROCKS, servicii de reţea
Nodul #4
Nodul #5
Nodul #6
Nodul #7
Nodul #8
Nodul #9
Nodul #10
Nodul #11
Nodul #12
Software de dirijare a reţelei,instalat pe “frontend”:
•ROCKS Toolkit•Servicii DHTP, BOOTPC•Apache webserver•Ganglia•OpenMPI
OnlineOffline
Interfaţa grafică KDE a serverul “frontend”, rulând sub RedHat Linux cu pachetul de instrumente ROCKS configuarat
Aplicaţia web de evidenţă a activităţii “Ganglia”
Interfaţa grafică KDE a staţiilor de lucru, rulând sub SuSE (Linux)
Executarea programelor paralele pe cluster
prin intermediul protocolului SSH
Utilizarea protocolului SSH pentru a executa programe pe cluster (din Linux)
Utilizarea protocolului SSH pentru a executa programe pe cluster (din Windows)
PuTTY: a free telnet/ssh clienthttp://www.putty.nl
Rezutatul testării cluster-ului folosind pachetul specializat Linpack Benchmark
[hancu@hpc ~]$ /opt/openmpi/bin/mpirun -np 48 -machinefile nodes /opt/hpl/openmpi-hpl/bin/xhpl[hancu@hpc ~]$ cat hpl.out============================================================================HPLinpack 1.0 -- High-Performance Linpack benchmark -- September 27, 2000Written by A. Petitet and R. Clint Whaley, Innovative Computing Labs., UTK============================================================================
An explanation of the input/output parameters follows:T/V : Wall time / encoded variant.N : The order of the coefficient matrix A.NB : The partitioning blocking factor.P : The number of process rows.Q : The number of process columns.Time : Time in seconds to solve the linear system.Gflops : Rate of execution for solving the linear system.
The following parameter values will be used:
N : 63000NB : 100P : 2Q : 24PFACT : CroutNBMIN : 2NDIV : 2RFACT : RightBCAST : 1ringDEPTH : 0SWAP : Mix (threshold = 64)L1 : transposed formU : transposed formEQUIL : yesALIGN : 8 double precision words
Rezutatul testării cluster-ului folosind pachetul specializat Linpack Benchmark (continuare)
----------------------------------------------------------------------------
- The matrix A is randomly generated for each test.- The following scaled residual checks will be computed: 1) ||Ax-b||_oo / ( eps * ||A||_1 * N ) 2) ||Ax-b||_oo / ( eps * ||A||_1 * ||x||_1 ) 3) ||Ax-b||_oo / ( eps * ||A||_oo * ||x||_oo )- The relative machine precision (eps) is taken to be 1.110223e-16- Computational tests pass if scaled residuals are less than 16.0
============================================================================T/V N NB P Q Time Gflops----------------------------------------------------------------------------W00R2C2 63000 100 2 24 1511.08 1.103e+02----------------------------------------------------------------------------||Ax-b||_oo / ( eps * ||A||_1 * N ) = 0.0150025 ...... PASSED||Ax-b||_oo / ( eps * ||A||_1 * ||x||_1 ) = 0.0099846 ...... PASSED||Ax-b||_oo / ( eps * ||A||_oo * ||x||_oo ) = 0.0017315 ...... PASSED============================================================================
Finished 1 tests with the following results: 1 tests completed and passed residual checks, 0 tests completed and failed residual checks, 0 tests skipped because of illegal input values.----------------------------------------------------------------------------
În urma primei testări cluster-ul a obţinut un scor de ~110,3 Gflops, ce îl clasează întopul primelor 100 de super-calculatoare din CSI (http://www.supercomputers.ru).
Productivitatea maximă a cluster-ului ajunge la ~211.2 Gflops.
Fotografii: centrul CECMI – un loc excelent pentru prezentări
Fotografii: “masa rotundă”
Fotografii: 12 staţii de lucru performante
Fotografii: managerii – persoanele ce au suflat viaţă în acest proiect
Fotografii: cursurile CECMI – alăturaţi-vă!
Resurse web disponibile
http://www.usm.md/cecmi/
http://hpc.usm.md/
http://cecmi.usm.md/
Mulţumesc pentru atenţie!
Centrul de Educaţie şi Cercetare în Matematică şi Informatică
Adresa CECMI: blocul 4 al USM, cab. 239
www: http://cecmi.usm.md
Execut de Sandu Lungu
www: http://sandu.xhtml.md
E-mail: [email protected]