nVidia GeForce


Nagy nVidia GeForce táblázat

Nvidia GeForce 256
gf2MX
MX/200/400
gf2 pro/ GTS/Ti
gf3 ti200/ti500

gf4 MX
420/440/460

gf4 MX
8×AGP
gf4 Ti
42/44/46
gf4 Ti
4xxx
8×AGP

FX5200/
5200Ultra

FX5600/
5600Ultra
FX5800/
5800Ultra
FX5900/
5900Ultra
FX5950
FX5700/ 5700Ultra
CHIP  
 
     
 
 
 
 
 
       
kódneve
NV10
NV11
NV15
NV20
NV17
NV18
NV25
NV28
NV34
NV31
NV30
NV35
NV38
NV36
gyártástechológia
0,22
 0,18
0,18/0,15ti
0,15
0,15
0,15
0,15
0,15
0,15
0,13
0,13
0,13
0,13
0,1
tranzisztorszám (millió)
23
20 
25
57-60
29
29
 63
63
45
75
125
135
135
107
üzemfrekvencia (MHz)
120
175/175/200
 200/225/250
200/175/240
 250/270/300
255/270/300
250/275/300
250/275/300
250/325
350/400
400/500
400/450
475
425/475
pixel pipeline felépítés
4/1
2/2
4/2
 4/2
 2/2
 2/2
 4/2
 4/2
2/2
4/1 és 2/2
4/2
4/2
4/2
4/1 és 2/2
max. textúra körönként
4
4
 8
 8
4
 4
 8
 8
4
4
8
8
8
4
pixel shader verzió
nincs
nincs
nincs
 1.1
 nincs
nincs
 1.3
1.3
2.0
2.0
2.0
2.0
2.0
2.0
vertex shader száma/verzió
nincs
nincs
nincs
1/1.1
 nincs
nincs
 1/1.1
 1/1.1
0/2.0
?1/2.0?
3/2.0
3/2.0
3/2.0
3/2.0
max. pixel fill rate (Mp/s)
480
350/400
800-100
 800-1000
 500-600
1000-1200 
1000-1200
 1100
1000-1300
1400/1600
1600/2000
1600/1800
1900
1700/1900
max. textúra fill rate (Mt/s) 
480
700/800
1600-2000
1600-2000
1000-1200
2000-2400
2000-2400
2200 
1000-1300
1400/1600
3200/4000
3200/3600
3800
1700/1900
támogatott DirectX verzió
7.0
 7.0
 7.0
 8.0
 7.0
 7.0
 8.0
 8.0
9.0
9.0
9.0
9.0
9.0
9.0
RAMDAC száma/frekv.
1/350 
1/350
 1/350
 1/350
 1/350
 1/350
 2/350
 2/350
2/350
2/400
2/400
2/400
2/400
2/400
Memória
 
 
 
 
 
 
 
 
 
 
 
 
 
 
típusa/tokozása
SDR/régi
DDR/régi
 SDR/régi
DDR/régi
 DDR/régi
DDR/régi 
SDR/régi 
DDR/régi
SDR/régi 
DDR/régi
 DDR/régi
DDR/BGA
DDR/régi 
DDR/BGA
DDR/BGA
DDR/BGA
DDR2/BGA
DDR2/BGA
DDR/BGA
DDR/BGA
DDRII/BGA
DDR/régi
DDR2/BGA
mérete (MB)
32-64
 32-64
32-64
 64-128
 64-128
 64-128
 64-128
64-126
128-256
128-256
128-256
128-256
128-256
128
vezérlõ tipusa 
2×64bit
64/2×64bit
2×64bit
 2×64bit
 2×64bit
2×64bit
 2×64bit
2×64bit 
 2×64bit
 2×64bit
 2×64bit
 4×64bit
 4×64bit
2×64bit
üzemfrekvencia (MHz)
166/150
166-183 
166/200/230
 230/200/250

166/200/275

166/256

250/275/325
256/275/325
200/325
350/400
400/500
425
475
275/450
sávszélesség (GB/s)
2,66-4,8
1,33-2,93 
5,33-7,36
 6,4-8.0
2,7/6,4/8,8
2,7/8,2/8,8
 8,0/8,8/10,4
 8,2/8,8/10,4
6,4/10,4
8,8/12,8
12,6/16
27,2
30,4
8,8/14,4
egyéb
 
 
 
 
 
 
 
 
 
 
 
 
 
 
támogatott AGP
2-4/PCI
2-4/PCI
1-4
1-4
1-4
4-8
1-4
4-8
4-8
4-8
4-8
4-8
4-8
4-8
átlagos magyar ár (brutto)
 
 
 
 
 
 
 
 
 
 
 
 
 
 
heatpipe felfogató lyukak
nem
nem
nem
nem
nem
nem
igen
igen
igen
igen
igen
igen
igen
igen
a táblázat még fejlesztés alat áll, ha hibát találsz légy szíves értesíts

Geforce 256

1999 őszén debütált a GeForce 256. Az NV10 kódnevű chip jelentős újításokkal rendelkezett: 256 bites adatbusz (rudi: hmmm... ez egy kicsit talán sok), megduplázott számú pixel pipeline (4db), beépített T&L egység (geometriai gyorsító) 15 millió polygon/sec. teljesítménnyel. Az architektúrának azonban voltak árnyoldalai is: a megnövekedett tranzisztorszám, az alkalmazott 0.22 mikronos gyártástechnológiával - vélhetőleg a megfelelő optimalizáció hiányában - elég tetemes mennyiségű hőt termelt. Emiatt csak viszonylag alacsony GPU órajellel lehetett kihozni (valószínűleg ezért is nem készült több verzió a chipből - az órajelet emelni nem lehetett, csökkentésével pedig a fillrate csak kismértékben szárnyalta volna túl a gyorsabb TNT2-k teljesítményét). A GeForce 256-nak készült 128 bites DDR memóriával szerelt verziója is: így tovább sikerült növelni a teljesítményt. A GeForce 256-nak volt egy grafikus munkaállomásokba szánt verziója is (Quadro néven), amely architektúrális tekintetben nem tartalmazott eltéréseket (OpenGl-re optimalizált meghajtóprogramokkal működött).

 

Geforce 2

A GeForce család következő tagja, az NV15-ös kódnevű chipre épülő GTS 2000 áprilisában jelent meg. A megszokott gyakorlattól - miszerint a féléves termékciklus során a tavasszal debütáló termék inkább csak az előző verzió javított kiadása - eltérően, az nVidia ezúttal nagyszabású változtatásokat eszközölt. A 0.18 mikronos technológiának köszönhetően jelentős mértékben sikerült növelni a grafikus mag órajelét is, a T&L egység pedig immáron 25 millió poligont képes feldolgozni másodpercenként. A legnagyobb jelentőségű újításnak azonban a pipeline-onként megjelenő második TMU (texture mapping unit) volt: ennek segítségével a texel rate drámai mértékben megnövekedett, jócskán meghaladva a másodpercenkénti egymilliárd műveletet (erre utal a chip elnevezése is: Giga Texel Shader).
A kártya sajnálatos módon nem volt mentes a hátulütőktől: a GPU teljesítményéhez mérten kevés volt a biztosított memória-sávszélesség.
A TNT2-höz hasonlóan, a GF 2 GTS is számtalan változatban jelent meg. MX megjelöléssel készült belőle több (MX, MX400, MX200, MX100) csökkentett tudású verzió (felezett a pixel pipeline-ok száma és a memória-sávszélesség), valamint az eredetihez képest eltérő órajelű (GF2 Pro, Ultra) és alacsonyabb csíkszélességgel gyártott változat (GF2 Ti(tanium), TiVX) is. Az MX sorozat többféle szempontból is nagy jelentőséggel bírt: egyrészt alacsony fogyasztása lehetővé tette a gyártó számára, hogy megjelenjen a hordozható számítógépek piacán is (GF2 Go, Go 100 illetve Go 200 néven), másrészt ez lett az nVidia első Macintosh-kompatíbilis terméke is. Volt azonban olyan képessége is az MX sorozatnak, amely a "teljes értékű" GF2-kből hiányzott: az ún. TwinView technológia (ennek segítségével két monitort is rá lehetett kötni egyetlen videokártyára), valamint a kép élességét növelő Digital Vibrance Control technológia.

Mind a GF2 GTS-nek mind pedig a GF2 MX-nek készült grafikus munkaállomásokba szánt verziója (Quadro2 Pro és Quadro2 MXR néven).

Miniteszt: ManLi GeForce2 MX400,

 
ABIT Siluro GT2 jó sok (64MB) memóriával (click a képre a nagyobbért)

 

 
Gigabyte GeForce2 MX400 passzív hűtéssel két VGA kimenettel; gyakori az aktív hűtéses verzió (click a képre a nagyobbért)

 

Sparkle GeForce2 MX400 low-profile verzió (click a képre a nagyobbért)
 

Geforce 3

Miután az nVidia 2000. őszi termékciklusa tulajdonképpen csalódást okozott (a várt NV20 kódjelű chip helyett "csak" a GF2 Ultra jelent meg), nagy várakozás övezte a 2001 tavaszán debütáló GeForce 3-at. A teljeskörű DirectX 8.0 támogatást ígérő termék technikai specifikációit elemezve kitűnik a relatíve alacsony fillrate (megegyezik a GF2 GTS-sel, a GF2 Ultra megelőzi). A tranzisztorok nagy száma (57 millió) azonban arra utal, hogy jelentős fejlődés következett be a GF2 GTS óta. A legfontosabb jellemzők: pixel és vertex shaderek támogatása; LMA (Lightspeed Memory Architekture: tulajdonképpen egy crossbar típusú memóriavezérlő, ennek segítségével memória-sávszélességet lehet megtakarítani); nfiniteFX engine ("végtelen effektusok"); HRAA (High Resolution AntiAliasing: multisampling alapú teljes képernyős élsimítás. Némileg rosszabb minőségű a GF2-ben használt supersampling alapú élsimítástól, viszont jóval kevesebb teljesítmény-veszteséggel jár).

Ugyanakkor némi csalódásra adott okot, hogy egyrészt a pixel shader 1.1-es verziója támogatott (a DirectX 8.1-ben debütáló 1.2-1.3-1.4 verziók nem), másrészt a várakozásokkal ellentétben - az X-Box-ban dolgozó NV20A kódjelű chippel összehasonlítva - 2 helyett csak 1 vertex shader egység került implementálásra. A konkurencia néhány hónappal később megjelenő felső kategóriás terméke (Ati Radeon 8500) ezekben a jellemzőkben megelőzi a GF 3-at, ráadásul (magasabb órajelének köszönhetően) nagyobb fillrate-tel bír. Erre válaszul jelent meg az nVidia 2001. őszi termékciklusában a Titanium család. Három tagot számlál: a GeForce 2 Titanium-ot (fentebb bemutatásra került), valamint a némileg továbbfejlesztett (+ 3 millió tranzisztor) GF3-ra épülő Ti200-at és Ti500-at. A Titanium 200 némileg alacsonyabb órajelekkel, kedvezőbb áron került forgalomba, míg a Ti500 tulajdonképpen egy GF 3 Ultrának tekinthető.

 
Chaintech GeForce3 Ti200 alapos hűtéssel, jól tuningolható (click a képre a nagyobbért)

 

 
ASUS ás Visiontech GeForce3 Ti200 megoldása, ASUS kicsit eltér a referenciától (click a képre a nagyobbért)
 

Geforce 4

A 2002. tavaszán megjelent GeForce 4 kártyacsalád tulajdonképpen érdemi vetélytárs nélkül jelenhetett meg: az egyedüli számottevő konkurenciaként talpon maradt Ati hosszabb termékciklusa ritkább megjelenéseket tett lehetővé, a Matrox pedig a - teljesítményében a várakozásoktól jócskán elmaradó - Parhelia nevű kártyájával nem tudott számottevő sikert elérni. Az NV25 kódjelű chip esetében inkább csak kisebb mértékű változtatásokat eszközöltek az elődhöz képest: maradt a 0.15 mikronos gyártástechnológia, a tranzisztorok száma sem növekedett számottevően (+ 3 millió). Maradt a DirectX 8.0 kompatibilitás (immár a pixel shaderek 1.2 és 1.3-as verziója is támogatott, az 1.4-es viszont nem) is. Jelentősen fejlődött viszont a T&L egység teljesítménye (többszörösére nőtt), valamint erőteljesen növelni tudták mind a GPU, mind pedig a memória órajelét. A GeForce 3-ban debütáló technológiák is továbbfejlesztésre kerültek (LMA II, nFiniteFX II), új anti-aliasing metódusok (Accuview Anti-aliasing: a GF3-ban debütáló HRAA javított képminőségű és sebességű variánsa) készültek. A kétképernyős megjelenítés (új néven nView) is fejlődött: a korábbi implementációktól jobb minőségű megjelenítést ígérve.

A GF2-höz hasonlóan, a GF4-ből is készült csökkentett tudású verzió, ami ezúttal - sok negatív véleményt teremtve - nemcsak teljesítményben, de a támogatott effektek listájában is jelentősen elmarad a Titaniumoktól. Az NV17 kódjelű chip ugyanis csak DirectX 7-es támogatással rendelkezik, így a pixel és vertex shaderek nem támogatottak. Ahogy az a chip kódjeléből is látszik, tulajdonképpen egy továbbfejlesztett GF 2-es kártyának felelnek meg a GF4 MX-ek. Ugyan a pixel pipeline-ok száma felezésre került, a T&L egység teljesítménye is csak töredéke a GF4 Ti-knek, a memóriabusz szerencsére csak az MX420-nál lett megfelezve (viszont a crossbar memóriavezérlő csak kétszegmensű). Ennek, és az alacsonyabb csíkszélességből adódó jóval magasabb órajeleknek köszönhetően, a GF4 MX-ek teljesítménye (az alacsonyabb fillrate ellenére) általában meghaladja a GF 2 GTS-ek teljesítményét. A GF 4 MX kártyacsalád chipbe integrált video encoderrel rendelkezik, így elhagyhatók a külső gyártók által gyártott chipek a TV-kimenet megvalósításához; ezáltal a megjelenített kép minősége jelentős mértékben javul. Az összes GF4 MX-nek, és a Ti4200-nak is készült hordozható számítógépekben használt verziója; illetve GeForce 4 Quadro néven professzionális felhasználásra szánt változata.

Miniteszt: MSI GeForce4 Ti4200, ExpertVision GeForce4 MX440, Xelo GeForce4 Ti4200, ABIT GeForce4 Ti4200 64MB 8×AGP

 
GeForce4 MX440 (click a képre a nagyobbért)


 
GeForce4 MX440 8×AGP, kicsit áttervezett NYÁK és BGA tokozású RAMok, ez nem általános (click a képre a nagyobbért)


 
GeForce4 Ti4200 (click a képre a nagyobbért)


 
GeForce4 Ti4200 GainWard kivitelben, ízlésesen felbordázva (click a képre a nagyobbért)


 
GeForce4 Ti4600, jó nagy NYÁK de rend van rajta, nem zavarnak felületi elemek egy izmosabb hűtésnél sem (click a képre a nagyobbért)
 

Geforce FX

Az nVidia eddigi történelmének kronológiai sorrendben utolsó, talán leginkább kritizált kártyacsaládja. Már a megjelenése is meglehetősen problematikus volt: a 0.13 mikronos gyártástechnológiára történő átállás során felmerült problémák következtében az előzetesen megadott 2002. őszi megjelenés mintegy fél évet késett. Emiatt a legnagyobb konkurens gyártó, az Ati 2002 nyarán debütált Radeon 9700-asa ragadta magához a "leggyorsabb videokártya" megtisztelő titulusát, amely ráadásul - a piacon egyedüliként, korát jelentősen megelőzve - DirectX 9 támogatással is bírt. A kártyacsalád kezdetben - az Ati-hoz hasonlóan - mindössze egyetlen tagot számlált: az FX 5800-at. Az NV30-as kódjelű chipre épülő kártya azonban szinte a csúfosan megbukott NV1-et idézően leszerepelt: hiába volt minden eddiginél gyorsabb (DDRII-es) memóriával ellátva, a 128 bites memóriabusznak köszönhetően a legfőbb vetélytársnál kisebb memória-sávszélességgel bírt; ráadásul az idő hiányában valószínűleg nem igazán optimalizált architektúrának és a hihetetlenül magas órajelű GPU-nak és memóriáknak köszönhetően rendkívül nagymértékben melegedett is, aminek következtében az nVidia saját tervezésű, meglehetősen hangos hűtőrendszerrel látta el. Ezen túlmenően a teljesítménye sem volt igazán meggyőző, dacára a több mint fél évvel későbbi megjelenésnek, nem tudta egyértelműen maga mögé utasítani a Radeon 9700-ast (a legtöbb tesztben az Ati kártyája győzedelmeskedett). Ennek következtében aztán hamarosan le is állították a gyártását, és az újabb verziók megjelenítésére törekedtek.

Az NV30 mindazonáltal meglehetősen gazdag feature-listával büszkélkedhetett: CineFX engine (a teljesen DirectX 9 kompatíbilis pixel és vertex shaderek, RGB komponensenként 16 és 32 bites lebegőpontos színábrázolás), Intellisample technológia (hardveres, 4:1 arányú veszteségmentes Z- és színtömörítés, hardveres dinamikus gammakorrekció, adaptív textúra filtering stb.), LMA III, stb.

Az új chip-variánsok rendre NV31 (FX 5600), NV34 (FX 5200) és NV35 (5900) néven jelentek meg. Az FX 5200-at gyártója az alsó kategóriás kártyák közé pozícionálta. Ebben a régióban az Ati régóta technológiai fölénnyel bír: a Radeon 9000-resek ugyanis DirectX 8.1-es támogatással bírnak, míg az ebben a szegmensben eddig versenyző GF 4 MX-ek csak DX 7-es támogatásúak. Az FX 5200 az első low-end DX 9-es kártya a piacon, azonban meglehetősen kis teljesítménye miatt az nVidia inkább csak munkaállomásokban való használatra ajánlja. Az 5600-as sorozat a középkategóriában versenyez, pipeline-onként egy TMU-val, az FX 5800-hoz képest kisebb teljesítményű T&L egységgel, alacsonyabb órajelekkel. Az 5900-zal, mint új csúcskategóriás termékkel az nVidia megpróbálta visszahódítani a "leggyorsabb GPU" címet, több-kevesebb sikerrel. A legfontosabb változás az NV30-hoz képest a drága DDR-II memóriák elhagyása, és a memóriabusz 256 bitesre történő növelése (ezáltal a memória-sávszélesség nagymértékű növelése) (rudi: fontos továbbá hogy elhagyták a régi - pixel shader 2.0 előtti - shaderek feldolgozásához használt integer aritmetikai egységet - ALUt - és egy további lebegőpontosat raktak a helyére). Ennek, és az architektúrális fejlesztésekből adódó sebességnövekedésnek köszönhetően, immár nem egyértelműen a konkurens kártyák a leggyorsabbak a piacon.

A kártyacsalád minden tagja 8x-os AGP-támogatással készül.

Az FX5200-nak és az FX5600-nak is létezik notebook-okban használatos variációja. A professzionális grafikus felhasználásra szánt Quadro család is számos taggal bővült: Quadro FX 1000, 2000, 3000, 3000G, sőt, FX Go700 néven készült hordozható munkaállomásokba szánt változat is.

 
GeForce FX5200Ultra; BGA-s RAMok, a NYÁK semmiben nem tér el az FX5600Ultra-tól (click a képre a nagyobbért)


 
FX5600Ultra, jó sok lyukat hagytak mindenféle bordának, ventinek (click a képre a nagyobbért)


 
FX5600Ultra rev2; kicsit átdolgozták, jobb hőátadó csomagolást kapott a GPU, nagyobb frekik (click a képre a nagyobbért)


 
FX5800; ez már nehézsúly minden értelemben (click a képre a nagyobbért)


 
FX5900 rev2, 256bites memória, jó alaposan megpakolták a NYÁKot,
nVidia nem vette át az ATi lemeztelenített tokozását, ami jobb hűtést eredményezhetne
(click a képre a nagyobbért)

rudi: egyelőre befejezem én, míg Egon nem prezentál saját folytatást.

Az FX story következő állomása az NV38 köré épülő FX5950 és az NV36 köré épülő FX5700/5700Ultra. Az 5950 a 5900Ultra leváltására készült, az Ati Radeon 9800XT versenytársául. Valójában egy megnövelt órajelű 5900ról van szó. Az FX5700 egy nagyon szépreményű középkategóriás megoldás lehet a maga 200 USD-s árával. Az Ultra verzió DDR2-es memóriákkal van felvértezve (sima verzió TMOS tokozású DDR1-esekkel), szédületes 900MHz-en (sima verzió 550MHz)! Végre 4/1es futószalag felállással rendelkezik és megkapta a nagytestvér össze (3 darab) Vertex Shader-ét (ebből az Ati konkurensnek a Radeon 9600XT-nek eggyel kevesebb van). Sajnos az nVidia kártyacsaládokat is elérte az ATItól ismer sajnálatos SE láz, itt szerencsére csak alacsonyabb frekvenciákról és árakról van szó. Gyártónként többféle néven nevezik az alulfeszített verziókat, van SE, LE, XT (szerintem az XT egy kicsit sunyi húzás tekintettel arra, hogy ATInál éppen az XT jelöli a csúcskártyákat). Pillanatnyilag úgy néz ki hogy a 5700Ultra kevés a közepes Radeonok befogására de a 5900XT SZUPERJÓ, általában megy a teljes értékű FX5900 frekvenciáin és tudja annak sebességét, jelentősen kedvezőbb áron!

Miniteszt: Inno3D GeForce FX5900XT

 
FX5700 Ultra; alaposan leárnyékolt DDR2es NYÁK és ismét fejlődés GPU tokozás terén (click a képre a nagyobbért)

 

 
FX5950 szinte semmi eltérés az FX5900-hoz képest (click a képre a nagyobbért)


 
FX5700Ultra és FX5950 hűtéssel (click a képre a nagyobbért)


FX5700 diszkrét kis megjelenés, rövidebb NYÁK mint a Ultra változatnál, csak nehogy ebből is legyen 64bites(click a képre a nagyobbért)


Szépen lassan szálingóznak a nem referencia kártyák amik általában csak színben és hűtésben térnek el:

 
ASUS 5900Ultra, nagyon hasonlít rá az 5950Ultra, jobbra látható az ASUSnál 5900SE-nek keresztelt lassabb verzió.

 

 
Leadtek 5950 megoldása egy nagy ventillátorral és Albatron 5700 Ultrája három légkavaróval, amiből az egyik tartalék
 

GeForce 6800 Ultra / 6800 GT / 6800

Az GeForce 6000-es sorozat az FX-ek hibáit próbálja kiküszöbölni, a csúcskártyák az új NV40-es chipre épülnek, amely a VGA-történelemben (és talán az egymagos chipek gyártásában is) a legnagyobb tranzisztorszámmal (222 millió) rendelkező lapka. 16 vagy 12 futószalaggal, 256 vagy 512 MB GDDR3 memóriával, AGP vagy PCI-Express csatlakozóval és SM3.0 modell támogatással hozzák forgalomba, olyan vertex shader egységgel, ami textúraolvasást is lehetővé tesz, bár ennek a módszernek a hatásosságát csak a jövőben tudjuk majd megítélni.
Javítottak a kritizált Anti Aliasing mintavételezési pontjainak elhelyezkedésén, most már van teljes értékű 4×RGMS, de a többi modell még nem tökéletes. Sajnos az ATI-tól átvették a korábban éppen az nVidia által kritizált szögfüggő AF megoldást, bár az NV40 módszere valamivel jobb, mert 8 bites pontossággal (ATI csak a DX9 minimum 6 biten) számolják a LoD MIP szintváltót. További érdekes újítás az UltraShadow II, ami hardveresen ki tudja szűrni a megjelenítésre nem kerülő geometriai részleteket, amit eddig a programozóknak szoftveresen kellett megcsinálniuk. Ezzel a technikával feltehetőleg találkozunk majd a Doom3-ban, de az nVidia mérnökei azt ígérik, hogy minden játékon gyorsít majd.
A NYÁK hagyományosan hatalmas lett, a hűtőrendszer is méretes, de halkabb mint a korábbi FX-ek turbinája és hatékonyabb mint az új Radeon X800-ak halk hűtése. A 256 MB GDDR3 memóriával szerelt változat összes memóriamodulja a kártya előlapjára került, hátul csak a hűtést rögzítő X-alakú támasztóelem látható. A hűtés további érdekessége a heat-pipe összekötő a memóriahűtők között.
Sebesség tekintetében a csúcs 6800 Ultra ugyan alulmarad a Radeon X800 XT-hez képest, de a kisebb 6800 GT már jó vetélytársa az X800 Pro-nak. Egyetlen hátrányuk a konkurenseknél nagyobb lassulás képminőség javító eljárások (AA/AF) bekapcsolásakor. Elképzelhető, hogy ezeket a hátrányokat neutralizálja majd az UltraShadow II és a Shader Modell 3.0, de ezt csak pár hónap múlva tudjuk meg, amikor már nagyobb számban lesznek ezeket a technikákat kihasználó programok és hozzájuk megfelelő meghajtók és kaphatóak lesznek végre az NV40 alapú kártyák is.
Az új VGA-k talán legtámadhatóbb pontja az, hogy az nVidia kezdetben 480 W-os tápot ajánlott hozzájuk, amit később 350 W-os jó minőségűre változtatott, de sajnos a szenzációéhes emberek emlékezetében ez a fránya 480 W maradt meg, holott a csúcskártya jelentősen hűvösebb mint az ATI új csúcsmenője. (a kisebb hűtéssel szerelt 12 futószalagos 6800/6800GT viszont már a Radeon X800 Pro szintjére melegszik fel)

Alaposabb bemutatót és tesztelet találtok a PROHARDVER!-en!


ha valakinek baja van írjon mail-t