You are on page 1of 10

Benedek Jnos

Cluster technolgik (prhuzamos


feldolgozs, hlzati file rendszerek)

Bevezets
A prhuzamos feldolgozs olyan koncepcira utal, ami felgyorstja a programok
vgrehajtst gy, hogy azt olyan rszekre bontja, melyek egymssal egyidben hajthatak vgre
egy-egy kln processzoron. Egy vgrehajtand program feldolgozsa n processzoron akr nszer gyorsabb is lehet, mintha ugyanezt a feladatot egy processzor felhasznlsval hajtottuk
volna vgre.

A mlt s az sk
Annak ellenre, hogy jnhny high-end hardver megvalsts szletett mr a
prhuzamos feldolgozsra, ezek az gynevezett szuperszmtgpek nem terjedtek el szles
krben. Ilyen gpeket prblt pteni pldul: Thinking Machines Corporation, Multiflow, ETA,
Myras, Kendall Square Research, Cray Research, NCube, MasPar. Habr ezen a cgek tbbsge
azta rszben, vagy egszben megbukott, de az ltaluk kidolgozott technolgik tovbb lnek a
mai modern prhuzamos feldolgozsok megvalstsban, valamint jnhny cg (SGI, IBM,
Sequent, Sun, HP / Convex, DEC (felvsrolta a Compaq, aki egybknt a Tandemet is, gyhogy
eleg ers lett ezen a terleten.), Intel) tovbbra is foglalkozik 2-12 processzoros rendszerek
fejlesztsvel. Ez a vonal azt az elgondolst kveti, hogy tbb processzor hasznlja ugyanazt a
memrit s buszrendszert egyetlen szmtgpen bell.
Ma a szuperskalr processzorok vilgban viszont mr minden modern szmtgp
virtulisan prhuzamos gpnek tekinthet

Napjainkban
Mostanra a linux is tmogatja az SMP (Simmetrical Multi Processing) architektrt, de
tbb klnll linuxot futtat gpet hlzaton (egy nagy sebessg gerincen) keresztl
sszekapcsolva is kialakthat egy prhuzamos feldolgozsra kpes gynevezett frt, viszont a
dual processzoros gpek a tapasztalatok szerint jobbak a clusterben, mivel amg az egyik
processzor lekezeli a hlzatos teendket, addig a msik processzor teljesen fggetlenl s
megszakts nlkl vgezheti a rbzott feladatokat, valamint az r/teljestmny arnyuk is jobb.
Harmadik alternatva, amikor egy linux rendszert egy specilis csatolt prhuzamos processzor
"host"-jaknt alkalmazunk. A negyedik lehetsg a SIMD (Simple Instruction Multiple Data Egy utasts, tbb adat) prhuzamosts regiszteren bell, melyet az MMX (Multi Media
eXtensions) technolgia is elremozdtott.

Clusterek alkalmazsnak ltalnos tulajdonsgai

Hasznlhat mr meglv eszkzkn


alulterhelt gpeken
ltez, vagy knnyen kipthet hlzaton
A szmtgpek dinamikusan hasznlhatak: (pl.: nappal az eddigi feladatokra, jjel linux
cluster-knt.)
2

Knnyen sklzhat, mind hlzati sebessgben, mind teljestmnyben


Megfelel szm s/vagy sebessg eszkzk sszelltsval knnyen elrhet
jnhny Gigaflops.
A rendszer egy egysgknt kezelhet:
a rendszer elemeinek j tulajdonsgai koncentrldnak a rendszer gyenge pontjai
a kls felhasznl szmra lthatatlanok maradnak
egy hibs mkds knnyen thidalhat, a nem mkd egysg szerept hamar t
tudja venni egy msik azonos tpus egysg.
A dediklt clusteren megsprolhatak a perifrik, s azok csatoli is (pl.: videokrtyk).

A clustereken alkalmazott hlzatos filerendszerek


A protokollok az elosztott rendszereken elg vltozatosak, tletes alkalmazsok szlettek,
de az elterjedt megvalsts egyszersgnl fogva mgis az NFS.

NFS
Network File System
A legegyszerbb file-megosztsi protokoll. A megoszts egy api-n keresztl trtnik RPC
(Remote Procedure Call), azaz tvoli eljrshvsok segtsgvel. Az api gy van megvalstva,
hogy nagyon hasonl legyen a loklis filerendszer egy flsbb rtegvel, amikor lekrdez, vagy
eltrol blokkokat, illetve knyvtrakat.
A szerver a kvetkez krsekre vlaszol:
1. Csak olvassi mveletek (getattr, lookup, readdir, read, readlink, statfs, mount)
2. Fa mdostsok (mkdir, link, symlink, rename, unlink, rmdir)
3. File mdostsok (setattr, write)
A legtbb NFS implementci megprbl egy korltozott gyorstsi mdszert biztostani
oly mdon, hogy jra felhasznlja azokat az adat blokkokat, melyek kevesebb, mint fl percesek.
A mdostsok minden esetben elbb hajtdnak vgre valjban, mint ahogyan nyugtzsra
kerlnek a kliens fel. A biztonsg mindssze annyibl ll, hogy a tvoli gp neve szerepeljen a
hozzfrsi listban. Az NFS alkalmazsa olyan terleten ajnlott, ahol gyors a hlzat s nem
sok kliens van. Az NFS v3, v4 valamivel finomabb megvalstst nyjt: lehetsget ad a
szinkron s aszinkron jelleg belltsra, valamint a knyvtrbejegyzsek egy menetben trtn
lekrsre. Emltsre mlt mg a Spritely-NFS, mely klnsen j cache mechanizmussal
rendelkezik. Az NFS mellett szl, hogy ingyenes, s majdnem minden szabad szoftver
terjesztsben megtallhat valamilyen implementcija; linuxban kernel szint tmogatst lvez.

AFS
Az els filerendszer volt, amely kiaknzta a folyamatos cache-els lehetsgt a kliens
oldalon. Az AFS eredenden kereskedelmi termk (Transarc), de egy ingyenes ARLA nvre
keresztelt kln is rendelkezsre ll, amely kpes egyttmkdni az AFS-el. A norml mkds
sorn a kliens rvnyesnek fogadja el az adatot mindaddig, amg a szerver egy CallBack, vagy
InitCallBackState RPC krst nem kld a kliensnek, hogy rvnytelentse egy, vagy az sszes
cache bejegyzst, amely kapcsolatos a hv szerverrel. Ez olyankor trtnik, ha ms kliensek
3

frisstenek. Az AFS "az utols zrs gyz" elvet kveti, ellenttben a unix-ban alapvet "utols
rs gyz" filozfival. Az AFS cache-eli a knyvtrakat a kliens gpen, s amint egy objektum
read-only hozzfrsre lett cache-elve, az objektumra vonatkoz minden tovbbi szerver
kapcsolat rvnytelen. A cache-els folyamatos: mg reboot utn is hasznlhat ugyanaz az
objektum, kihasznlva egy DataVersion-nek nevezett tulajdonsgot, mely minden filehoz hozz
van rendelve. Az sszes AFS szerver minden adata rendelkezsre ll egyetlen egyestett /afs
knyvtr alatt. A kliens oldali adminisztrci minimlis, csupn csak az szksges, hogy a kliens
rtesljn azoknak az AFS cellknak a neveirl, amelyhez szksges, hogy hozzfrjen. Az afs
fban a keress automatikus, teht amikor a kliens egy kivlasztott megosztshoz kvn
hozzfrni, akkor a krs kzvetlenl a megfelel szerver fel irnyul. Az AFS protokoll
egyszer s erteljes. Az NFS-el ellenttben a kliensnek s a szervernek is kpesnek kell lennie
az RPC krsek megvlaszolsra. A kliens szmra azrt szksges ez, hogy up-to-date
maradjon az adatok llapotval kapcsolatban.
A. Kliens oldal:
1. Szemantika: (Probe, Callback, InitCallbackState)
B. Szerver oldal:
1. Csak olvassi mveletek (FetchData, FetchACL, FetchStatus)
2. Fa mdostsok (RemoveFile, CreateFile, Rename, Link, Symlink, MakeDir, RemoveDir)
3. Trolsok (StoreData, StoreACL, StoreStatus)
4. Ktet hvsok (GetVolumeStatus, SetVolumeStatus, GetRootVolume)
5. letkpessg s szemantika mveletek (GetTime, BulkStatus, GiveUpCallBacks)
6. Zrolsok (SetLock, ExtendLock, ReleaseLock)
Az AFS ers biztonsgtechnikval rendelkezik, nem bzik a kliens oldalban, mint az
NFS. A kapcsolatokat igazolni kell, ltalban Kerberos jelek ltal.

CODA
A Coda az AFS v2-bl szrmaztathat. A Coda jnhny jelents kpessggel egszti ki az AFSt: sztbontott mkds jrakapcsolsi lehetsggel, szerver duplikls a msolatok
sztvlasztsval, alkalmazkods a svszlessg adottsgaihoz. Egy Multi-RPC protokoll, ami
lehetv teszi, hogy tbb krst s vlaszt lehessen elkldeni, illetve sszegyjteni egyszerre.
AFS-hez kpest a Kiegsztsek :
A. Kliens (Backfetch)
B. Szerver oldal a kliensek rszre (Reintegrate, Repair, Validate, Resolve, COP2C)
C. Szerver oldal a dntsek rszre
Egyszer dntsek (WeaklyResolve)
Teljes dntsek (Lock, FetchAndMerge, ShipAndPerform, MarkInconsistencies, InstallFinalVV)
A Coda filerendszerre kernel szint tmogats van linuxban.

Lustre (VAXClusters)
Az igazi cluster file rendszert a Digital hozta ltre VAXClusters nven mg 1985-ben. A
Lustre (Linux clUSTRE ) ehhez hasonl felpts cluster filerendszer kvn lenni. A tagsg
4

kezelse hatrozatkpessg alapjn trtnik, ami megelzi, hogy a cluster tredezett vljon. Ez
a filerendszer is a loklis filerendszerbl szrmazik, amely egyttmkdik az elosztott lock
kezelvel, amely feljegyzseket kszt az adathozzfrsekrl. Tulajdonkppen a rendszer
lnyegt ez a "lock management protocol" kpezi. A lock-ok megszerezhetek egy erforrsra,
amelyek megnevezskkel egy fban foglalnak helyet. Egy lock megszerzshez elszr az
sket kell zrolni. Minden egyes lock hierarchinak, azaz a root lock alatt az erforrsok
fjnak, van egy master csompontja, amely ltalban az els rendszer, ami megkap egy lockot
ebben a fban. Ahhoz, hogy a csompont megtalja a master erforrst egy elosztott erforrs
knyvtrat krdez le. Ha az erforrs mg nem ltezik, akkor a rendszer ltal keresett erforrs
lesz a master node. A lock-ok trolhatak a cluster tagjainak folyamataiban, vagy az opercis
rendszerben klnbz mdokon: exclusive, vdett, olvashat vagy rhat, egyidejleg rhat,
olvashat, illetve nem lock-olt. Egy egyszer bitminta meghatrozza a kompatibilitst ezen 6
md kztt. Amikor egy tag kr egy lock-ot, egy j mdban, minden ms node, aki nem
kompatibilis mdban tartja a lock-ot, ennek a krsnek megfelelen rtesl, hogy hajtson vgre
egy callback funkcit.
Minden rendszer nagyszer autonmit lvezhet, a lock-okon keresztl engedlyezhet a
visszars cache-els, quota hasznlat, s olvass a lock maneger-hez val kapcsolds nlkl. A
szervezet nagyjbl hasonl az AFS-nl lert callback-ekhez, viszont jnhny fontos pont van
mg, amit meg kell oldani ebben a tervezsben. Ha egy tag elhagyja a cluster-t, pldul mert
meghibsodik, egy komplex javtsi feladat elvgzse szksges. Ellenttben a Coda s AFS
rendszerekkel itt nincs kliens-szerver viszony a gpek kztt, gy a hiba miatti kiess sokkal
knnyebben megoldhat. A msik lnyeges klnbsg az elbb emltett rendszerekhez kpest,
hogy a cluster tagok "vakon bznak" egymsban, teht a rendszer felttelezi, hogy egy
biztonsgosan krlhatrolt terleten bell van. Brmilyen megnyer is a lock-olsos rendszer,
egy htultje mgis van, mgpedig a halott lock-ok. Ennek feloldsra kt mdszer van. Az
els, hogy olyan szablyozottan trtnjen a lock-ols, hogy az ilyesmi el se fordulhasson. Ha
egy szably nem alkalmazhat, fellphet halott lock, s annak ki kell derlnie. Az ltalnos cl
elosztott lock manager-ek, mint amilyen a VAXClusters-ben is tallhat kpes azonostani a
halott zrolsokat.

A Berkeley csald: Sprite, Zebra s az XFS


A Sprite elszr egy elosztott opercis rendszer volt egy rendkvl rdekes tervezssel.
Tmogatott egy unix api-t, a process kltztetst, s egy teljesen transzparens filerendszert.
Szleskr cache hasznlatot s processz tadsi lehetsgeket, valamint tvoli
eszkzhozzfrst s felhasznl-szint szerver kommunikcit nyjtott. A sprite csak addig
engedte meg a cache hasznlatt, amg nem volt olvass/rs, vagy rs/rs mvelet. A nyitott
hvsok szerverre val tirnytsval letiltotta cache-elst, ha egy nem kizrlagos rsi krelem
jelent meg. Ltszlag hasonlt az NFS-re s az AFS-re, pedig egszen pontos idztse s
szemantikus knyszerei ltal a Sprite teljesen ms.
rdekes, hogy az SMB filerendszer, melyet a Windows hasznl, sok szemantikus
hasonlsgot mutat a sprite-al. Sajnos az SMB protokoll rendkvl bonyolult s rendkvl
sokfle dialektusban ltezik, s kzel sem olyan tiszta a felptse, mint a Sprite-nak.
A Zebra a Sprite egy vgs vltozatnak tovbbfejlesztse, s strip-olsi lehetsget nyjt
lemezkteteken.
5

Az XFS a Zebra kvetje. Elmosta a hatrokat szerver s kliens kztt. Nem centralizlt
rendszer, a mottja : "brmit brhonnan". Lehetsget ad, hogy a szerver tehermentestsnek
cljbl ne csak a szerverrl lehessen az adatokat lekrni, hanem brmelyik kliensrl, akinek van
rvnyes msolata (cache-elt anyaga) az adott anyagrl.

GFS
A Global File System
Egy SAN project a Minnesota-i egyetemen. A megosztott lock-ok kihasznlsval
dolgozik, amit a lemezeken trol gynevezett dlock-ok formjban. A GFS kihasznlja a logikai
ktetek nyjtotta lehetsgeket is, nincsen kzponti kezels s nem logols alap. A GFS sajt
lemezszerkezetet alkalmaz, filecsoportok s fa alap knyvtrszerkezetek tmogatsval.
Alapveten a filerendszer a "write through" modellt kveti. A project mg nem elg kiforrott.

PVFS
Paralell Virtual File System
Az igazn clustereknek tervezett filerendszer. Jelenleg felhasznli szinten mkdik,
teht nem szksges kernel-szint mdosts a felhasznlshoz. A UNIX I/O mechanizmust
alkalmazza, gy a programokat nem szksges jrafordtani a filerendszer alkalmazshoz.
Gyakorlott felhasznlk szmra rendelkezsre ll egy mlyebb szint hozzfrs a
filerendszerhez, mellyel jobban varilhat (pl.: stripe belltsok). Az MPI-IO (Message Passing
Interface Input Output) PVFS-en val megvalstsa is vrhat a kzeljvben. A rendszer
daemon-ok sszessgbl ll s alkalmazs interface hvsok knyvtrbl, amelyek az
opercis rendszer legfelsbb szintjt veszik ignybe a kommunikcihoz. A PVFS tipikusan egy
Linux-on fut Intel, vagy Alpha architektrn s TCP-t hasznl a kommunikcihoz
A filerendszer legfbb funkcii:
File stripe-ols (feloszts ktetenknt egy-egy szeletre)
File particionls (trdels)
Alkalmazs-orientlt interface
Egyttmkds a meglv binris llomnyokkal
A PVFS hasznlata kzben a node-oknak, amelyek szmtst vgeznek kommuniklniuk
kell azokkal a node-okkal, melyek vgrehajtjk az I/O mveleteket. Az alkalmazs a PVFS
knyvtrak egyik interface-t hasznlja (a szmt node-on), hogy kapcsolatba kerljn az I/O
daemon-al (az I/O node-on), majd az a hagyomnyos UNIX read() s write() fggvnyek
segtsgvel vgrehajtja a krt mveleteket a loklis lemezen
Stream alap adattvitel
Az egyik legfontosabb jellemzje egy prhuzamos feldolgozsra kpes filerendszernek,
hogy hogyan kezeli a szmt s az I/O csompontok kzti adattvitelt. A clusterbe szervezett
gpekre jellemz hlzat termszetbl kvetkezen a kis mennyisg tvitelek igen gyr
teljestmnyhez vezetnek. Az adattvitel stream alap megkzeltse ezen prbl javtani kt
szempontbl is:
- Cskkenti a kontroll zenetek szmt.
- Megszabadtja az zenetekeket a mrettl fgg darabolstl.
6

A PVFS-ben ez gy valsul meg, hogy elszr az adatfolyam jellemzi haladnak t, s


mivel mindkt fl tudja, hogy az tvitelnek hogyan kell lezajlania, az adatfolyamon bell nincs
szksg kontroll zenetekre, gy nagyobb tviteli mretek vlnak lehetv s ezzel jelentsen
javul a meglv hlzat svszlessgnek kihasznltsga.
me egy plda, hogyan is mkdik egy krs feldolgozsa valjban. Az alkalmazs
kijelli a szmra szksges mvelet vgrehajtshoz az I/O daemon-okat. A kijellt daemonokkal folytatott kommunikci utn azok meghatrozzk a krt adatfolyam-rszek helyt s vgl
az alkalmazs szmra ezek a darabok egybefgg adatfolyamknt jelentkeznek. Mindez a
folyamat a felhasznl szmra transzparens mdon megy vgbe.
Alkalmazs interface-ek
Mivel az alkalmazsok nem mind ugyanazt a formtumot hasznljk az adatok trolsra,
ezrt az adathoz val hozzfrst is ms-ms mdon vgzik, ezrt az egyszer interface nem
hatkony. ppen ezrt klnbz egyszer mveletcsoportok sszefogsval ki kellett fejleszteni
egy alkalmazs orientlt interface-t. Ezek az interface-ek olyan egyszer hozzfrst nyjtanak a
file-okhoz, hogy hasznlatuk egy alkalmazs-fejleszt szmra szinte sztns. Pldul a
tbbdimenzij adatszerkezetek elrshez egy block I/O interface-t nyjt. Jelenleg a PVFS a
kvetkez interface-eket tmogatja:
- UNIX stlus, file trdelssel
- Tbbdimenzis block I/O (MDBI)

A prhuzamos programozs megvalstsa


Alapveten ktfle mdon trtnhet:
Megosztott memriakezelssel, ekkor a program folyamatai kzs vltozkon keresztl
kommuniklnak
zenet tovbbtssal, mely sorn a folyamatok zeneteket kldenek egymsnak
Az utbbi mdszer megvalstsra kt kln irnyzat alakult :

PVM (Paralell Virtual Machine)


Az Oak Ridge amerikai nemzeti laboratrium fejlesztette ki, mg az MPI megjelense
eltt. A PVM jl tolerlja a heterogn hlzatban val mkdst, valamint j a hibatrse is. A
hordozhatsgot a teljestmnynl elbbrevalnak tartja. Kveti a virtulis gp koncepcijt.
Tmogatja az MPP nagygpeket. Egyszer zenettovbbts jellemzi. Az implementcik
tlnnek az architektra korltain. Tartalmaz terhels-kiegyenltst s folyamatvezrl
utastsokat. A C, C++, Fortran programok szabadon kommuniklhatnak egymssal PVM-en
keresztl.

MPI (Message Passing Interface)


Egy nemzetkzi frum megbeszlsei s viti nyomn keletkezett. Sok klnbz
implementci ltezik. Az MPI valmivel gyorsabb s tbb lehetsggel rendelkezik, mint a
PVM, de kevsb rugalmas ms rendszerek fel, s rosszabb a hibatrse. A kzvettett zenetek
sokflk lehetnek. Tmogatja a logikai kommunikci topolgikat. Az MPI implementcikat
7

korltozza az architektra. Leginkbb az zenetek tovbbtsban s fogadsban rdekelt,


egyebek megvalstsa a programoz dolga. Ms-ms nyelv programok kommunikcija nem
tmogatott.

Linux disztribucik (terjesztsek) specilisan cluster-ezsre


kihegyezve:
Beowulf project
A project NASA CEDDIS (Center of Excellence in Space Data and Information
Sciences) osztlyn kezddtt, az USRA (University Space Research Association)
zemeltetsvel. Kezdetben 16 (iDX4) csomponttal a fldi s rkutatsi clokra fejlesztettk. A
project hamar tovbbterjedt ms NASA szakosztlyokra s egyetemekre szerte a vilgon, mra
az egyik legismertebb disztribciv vlt e tmban. Kezdetben a popularis Slackware
disztribcira plt, majd ksbb a Redhat csomagkezeljre.
Egy meglv linux disztribucira is rpthet. A csomag tartalmaz egy kernel patch-et (a
hlozatos meghajtkon mdost a sebessg nvelse s a knnyebb egyttmkds rdekben),
valamint a prhuzamos programfejlesztshez szksges eszkzket. Linus Torvalds 1999. jnius
11-n bejelentette, hogy a leend 3.0-s verzitl kezdve a cluster technolgia kernel-szint
tmogatst fog kapni.
A beowulf nagyrszt a mr meglv PVM s az MPI fejleszti rendszerekre pl, melyek
a fut program rszei kzti zenetkzvetts megoldsra adnak mdszereket, hogy a
prhuzamosan fut programrszek letkpesek legyenek a cluster-en. A megvalsts trtnhet
Fortran-ban, vagy C-ben. Kezdetben a PVM volt a defacto standard, amg az MPI meg nem
jelent, viszont a PVM ma is szles krben alkalmazott, mivel valban j. A beowulf ltal
alkalmazott fordtk (compiler-ek), nem prhuzamostjk automatikusan a kdot, ha az nem
eleve prhuzamos rendszerre van rva (egyes SGI compilerek kpesek r).
A rendszer tmogatja a sklzhat I/O-t is, teht tbb alacsony kltsg, lass hlzatot egyetlen
nagysebessg logikai hlzatt lehet sszefogni, de ennek ellenre kpes eleve adott Gigabit
Ethernet kezelsre is. Kpes tovbb a program folyamatokat (processz-eket) tbb
csompontrl sszefogni.
A beowulf project clja a minl nagyobb sebessg elrse s nem a biztonsg, vagy a
legmagasabb fok megbzhatsg! A felhasznlsi terlete teht inkbb a tudomnyos, mintsem
az zleti letben gyakoribb. A mai napig is a legelterjedtebb linux cluster software megvalsts.

Plda a linux-cluster-ek gyakorlati alkalmazsra


Mivel az eszkzi s idbeli lehetsgek viszonylag szksek voltak, ezrt rtelmetlennek
lttam sajt prhuzamos rendszer sszelltst. A rendelkezsre ll hardware elemekbl
ugyanis maximum 4 csompontbl ll, 10 Mbit-en kommunikl clustert sikerlt volna
fabriklni, aminek az sszestett teljestmnye nem lett volna elegend, hogy belthat legyen a
rendszerben rejl hatalmas er, mindssze csak arra lett volna alkalmas, hogy sajt brmn
tapasztaljam, hogy a dolog valban mkdik. A mkds pedig nem ktsges, hiszen tbb szz
helyen alkalmazzk a vilgon a linux-cluster technikkat. ppen ezrt olyan rendszerek
8

bemutatst fogom megtenni, amelyeket ugyan msok ptettek, de annl jobban kidomborodnak
azok az rdemek, amirt az egszet kitalltk.

Genetikus programozs 1000 db. Intel Pentium II rendszer csompontbl


ll frtn
Ez egy Beowulf osztly cluster, amelynek minden egyes tagja 2 db PII 350 Mhz-es
processzorral (egy dual alaplapon), 128 Mbyte RAM-al (az egsz rendszer gy kzel 128
Gigabyte memrival rendelkezik), 100 Mbit-es Intel PRO ethernet csatolval rendelkezik. A
csomponthoz nem csatlakozik sem egr, sem billentyzet, sem monitor, sem floppy meghajt,
s merevlemez sincs bennk.A boot-olsi folyamat DHCP protokol, valamint a Beoboot program
segtsgvel trtnik. Az adatokhoz a csompontok NFS segtsgvel frnek hozz. Minden
csompont kln-kln dobozban helyezkedik el, amelyekben 4-4 ventilltor van (2
processzorht, egy tpht, s egy, amely hzat szellzteti) ezeken pedig egy-egy rzkel,
amely lekapcsolja a csompontot, ha valami hiba trtnne. A hzban van mg egy-egy 300W-os
tp, ahogyan az a kereskedelmi forgalomban megkaphat. Mindemellett 2 db 25-ton
lgkondicionl dolgozik, valamint egy sznetmentes tp, ami negyed ra ramkimarads alatt is
kpes a teljes cluster-t elltni. Ez a megolds cseppet sem nveli annyival a kltsgeket, minha
specilis hzat kellene kszteni, amiben meg kellene oldani a szellzst s a mgneses
interferencit, s egy akkora tp, amely az egsz rendszert elltja, szintn nem gazdasgosabb a
klnll tpoknl. A rendszer alapja egy RedHat 6.0 linux. A csompontok 40-esvel, azaz 20
dobozonknt egy-egy 24 portos 100 Mbit-es Ethernet hub-ba csatlakoznak, gy 25 hub van a
rendszerben. A hub-ok a 2 db 16 portos switch-be csatlakoznak. Termszetesen a switch-ek is
ssze vannak kapcsolva egymssal, illetve a szerverrel, ami szintn egy PII 350 Mhz-es gp,
ebben viszont 256 Mbyte RAM van s 14 Gbyte merevlemez, valamint termszetesen perifrik
is: billentyzet, egr, videokrtya, monitor, CD s floppymeghajt. A rendszer sszteljestmnye
0.35 Tera-Hertz, SPECfp95 mrtk szerint 12000. A tapasztalatok szerint a teljestmny
mindssze 1%-a vsz el az alacsony svszlessg s a prhuzamostsra fordtott kommunikci
sorn.
A genetikus program az 1000 processzort egyetlen rendszerknt rzkeli, s ezen fut le. A
svszlessg kihasznltsga nem szmottev, mivel a program csak a szerverrel s a szomszdos
ngy (szak, dl, kelet, nyugat) csomponttal kommunikl. A program minden csomponton
nagyjbl 2 kilobit forgalmat generl, teht az egsz rendszer egy 2 megabites vonalon is
funkcionlna. Logikailag a csompontok egy 25x40-es toroid hlba vannak rendezve, valamint
minden 40-es csoport egy 8x5-s tglalapba. Az elrendezs miatt egy 40-es csoport egyms kzti
kommunikcija helyi marad, teht a rendszer tbbi tagja nem rzkeli azt.
Az intzet korbban egy 70 csompontbl ll Alpha architektrj linux frtn dolgozott 14
hnapon t napi 24 rban, s ezalatt mindssze 3-szor kellett lellni rendszersszeomls miatt.
Az ezen szerzet tapasztalatokat sszegyjtve nyilvnossgra hoztk, hogyan ptsnk 10 db 533
Mhz-es alpha architektrj csompontbl ll frtt, amely naponta 0.5 Peta-flop teljestmnyt
ad (ez tz a tizentdiken db lebegpontos mvelet fele), mindezt 18000 dollrrt.

Amerika idjrsjelentse linux clusterekkel kszl


A vilg egyik leggyorsabb szmtgpes rendszert az amerikai Kereskedelmi
Minisztrium a National Oceanic and Atmospheric Administration (NOAA) tudhatja magnak.
9

A rendszert idjrs elrejelzsre, modellez rendszernek fejlesztsre s j rendszerek


ksztsre alkalmazzk. A 15 milli dollrt r rendszert a HPTi (High Performance
Technologies, Inc) -tl, az ismert Linux cluster integrtortl vsroltk meg. Az Alpha chipekre
pl rendszer els teleptsnl 1999. szeptember 18-n mg "csak" 1/3 trilli lebegpontos
szmts elvgzsre volt kpes msodpercenknt, 20x nagyobb szmtgpes teljestmnyt
nyjtva a NOAA elz rendszernl. A vgleges rendszer 4 trilli lebegpontos szmts
elvgzsre kpes msodpercenknt!

Kvetkeztets
Ha egy szuperszmtgp teljestmnyt ignyl feladat megvalstsa eltt llunk, jval
alacsonyabb kltsggel megvalsthatjuk azt linux-cluster technolgival. A technolgia jval
kiforrottabb, mint a Microsoft vilgban, szmtalan mr hatkonyan mkd rendszer tmasztja
ezt al. A fizikai s software megvalsts sorn is kt lehetsgnk van. Magunk is
sszerakhatunk a boltban kaphat alkatrszbl cluster-t, vagy megvehetjk kszen a fent emltett,
erre szakosodott cgektl.

10

You might also like