Connect with us

technokrata

Ezerszer hatékonyabb, ha processzor helyett GPU-t használunk

Laptop

Ezerszer hatékonyabb, ha processzor helyett GPU-t használunk

A grafikus feldolgozóegységek kiszorítják a CPU-kat?

A vállalat egyik vezetője, David Kirk a minap jelentette be egy San Francisco-ban tartott sajtókonferencián, hogy cége elgondolása szerint hamarosan meghódítják a szuperszámítógépes platformot is. Kirk úgy vélte, a következő négy év során megjelennek a komoly teljesítményt felmutatni képes grafikus feldolgozóegységek ebben a szegmensben is, méghozzá nem is akárhol: az öt legnagyobb szuperkomputer közül háromban már Nvidia chipek is szolgálatot teljesítenek majd. Az Nvidia elképzelését tolmácsoló férfi szerint a párhuzamos számításokat végző alkalmazások alá ideális választást jelentenek a grafikus magok.

Mind az Nvidia, mind az Ati mérnökei dolgoznak már egy ideje az úgynevezett általános célokra felhasználható grafikus processzorokról – ezt hívják összefoglaló néven GPGPU-nak (general purpose graphics processing unit). Az elmúlt másfél év során a két vállalat elő is rukkolt saját megoldásaival: az Nvidia a Tesla, az Ati a Firestream termékei révén mutatta fel elképzeléseit. Ezek az eszközök azonban egyelőre nem tudták beváltani a hozzájuk fűzött reményeket, és (egyelőre?) nem lettek széles körben népszerűek.

A CPU-ban nincs elég erő?
Napjaink szuperszámítógépei többnyire az AMD Opteron vagy az Intel Xeon processzoraira támaszkodva biztosítják elképesztő számítási teljesítményüket. Ezek a központi vezérlőegységek az elmúlt években „osztódással szaporodtak”, vagyis megjelentek a többmagos (2, 4 vagy még több) változatok. A mai legerősebb, asztali szegmensben használt GPU-k azonban akár (több) száz egyesített stream processzorral is rendelkezhetnek, vagyis elméletben a párhuzamos feldolgozás révén a grafikus processzorok jóval nagyobb teljesítményt nyújthatnak. Ezáltal a szuperszámítógépek előállításai költségeit lehetne mérsékelni: CPU-k helyett kevesebb GPU alkalmazásával ugyanakkora számítási kapacitást kevesebb hardverrel lehetne elérni.

Nézzünk egy szemléletes példát! Az Egyesült Államok Lawrence Livermore Nemzeti Laboratóriumának Terascale szimulációs intézetében dolgozik az IBM Bluegene/L (BGL) szuperszámítógépe, ami 478 trillió lebegőpontos művelet elvégzésére képes másodpercenként (ez megegyezik 478 teraFLOPS teljesítménnyel), a Linpack nevű benchmark eszköz mérése alapján. A szuperszámítógépet 231 ezernyi IBM PowerPC 44 chip alkotja. Az Ati és az Nvidia legújabb grafikus processzorai nagyjából fél teraFLOPS teljesítményt kínálnak – chipenként! Ez azt jelenti, hogy (sarkalatosan fogalmazva) ezer ilyen GPU helyettesíteni képes több mint 200 ezernyi IBM processzort. Nem rossz teljesítmény, igaz?

Akadályok
A helyzet azonban nem olyan rózsás, mint amilyennek látszik. A GPGPU egyik legnagyobb problémája, hogy a szoftverek többsége nincsen optimalizálva a grafikus feldolgozás – CPU-khoz mérten – extrém mértékben való párhuzamosításához. És habár a központi vezérlőegységek párhuzamosítása már megkezdődött, a szoftverfejlesztők még mindig küzdenek az ilyen mélységekbe nyúló párhuzamos utasításfeldolgozás szemléletmódjának elsajátításával. Egyes alkalmazások meglepően jól reagálnak egy ilyen architektúrára, míg mások (és egyelőre ez nevezhető zömnek) még mindig nem profitálnak a többmagos kialakításokból.



Szólj hozzá!

További Laptop

Népszerű

Technokrata a Facebookon

IoT-Magazin.hu

Kütyük

Dotkom

Műszaki-Magazin.hu

Hirdetés
Hirdetés