Review

ASUS V8200 Deluxe

NVIDIA's GeForce 3 GPU

GPU

Als NVIDIA im Februar 2001 ihren neuen Chip vorstellten, wäre er fast ein Rohrkrepieren geworden, denn es dauerte noch Monate bis endlich die letzten Bugs und Probleme beseitigt waren und vollständig funktionierende Treiber zur Verfügung standen. Der GeForce 3 stellt mit seinen 57 Millionen verbauten Transistoren den zur Zeit am weitesten entwickelten Grafikchip für den Home-Consumer Markt dar (Microsoft's X-Box und ATI's Radeon 8500 sind noch nicht erhältich), obwohl man natürlich an der Transistorenanzahl weder Leistungsfähigkeit noch Funktionsvielfalt festmachen kann. Man könnte z.B. mit Embedded Memory (eingebettetem Speicher im Chip) die Transistorenanzahl drastisch erhöhen. Genausowenig kann man mit den von NVIDIA angegebenen 800 Milliarden Operation pro Sekunde etwas anfangen. Letztendlich müsste man schon eine Tabelle haben, wo detailiert alle Operationen mit den jeweiligen Taktzyklen nachzulesen sind. Dies aber nur am Rande, um NVIDIA's Marketingabteilung ein wenig Wind aus den Segeln zu nehmene. Wenigstens hat NVIDIA aus der Vergangenheit gelernt und gibt nun keine Zahlen mehr zum Durchsatz der Dreiecke bekannt, weder auf der Homepage noch in irgendwelchen Dokumenten. Bei den GeForce 3 Ti Karten handelt es sich um leicht höher und niedriger getaktete Modelle, welche ab Mitte Oktober 2001 zum Kauf angeboten werden sollen.

Technische Daten im Überblick:


NVIDIA GeForce2
(GTS / PRO / ULTRA)
NVIDIA GeForce3
NVIDIA GeForce 3 Ti 200 / 500
ATi Radeon 8500 ATi Radeon 7500
Pixel-
Pipelines
4
4 4
4 2
Textureneinheiten
(pro Pipeline)
2
2 2
2 3
Busbreite intern (Bit)
256
256
256
256
256
max. Texturen pro Pixel
2
4 4
6 3
Chiptakt (MHz) 200 / 200 / 250
200 175 / 240
275  290
theo. max. Füllrate
(GPixel/Sec)
0,8 / 0,8 / 1 0,8 0,7 / 0,96
1,1  0,58
theo. max. Füllrate
(GTexel/Sec)
1,6 / 1,6 / 2 1,6 1,4 / 1,92
2,2  1,74
Speicherinterface (Bit) 128 DDR
128 DDR 128 DDR
128 DDR (1) 128 DDR
(2) 64 DDR
(3) 128 SDR
Speichertakt (MHz) 166/200/230
230 200 / 250
275  230
Speicherbandbreite
(GB/Sec)
5,31 / 6,4 / 7,36
7,36 6,4 / 8
8,8 (1) 7,36
(2) 3,68
(3) 3,68
Texelbandbreite
(Bytes / Texel)
3,32 / 4 / 3,68
4,6 4,57 / 4,17
4,4 (1) 4,02
(2) 2,11
(3) 2,11
Pixelbandbreite
(Bytes / Pixel)
6,64 / 8 / 7,36
9,2 9,14 / 8,33
8,8 (1) 12,69
(2) 6,34
(3) 6,34
Speichergrößen (MB) 32 / 64
64 64
32 / 64 16 / 32 / 64
DirectX Version (Pixel Shader)
DX 7
DX 8 (1.3) DX 8 (1.3)
DX 8.1 (1.4) DX 7
TnL Einheit
ja
ja
ja
ja
ja
64 Bit Farbtiefe
nein
nein
nein
nein
nein
VertexShader
Einheiten
nein
1 1 1 nein
TruForm
Einheit
nein
nein nein
ja nein
Bandbreiten
Features
Texturekompression Texturekompression,
Lightspeed Architektur
Texturekompression,
Lightspeed Architektur
Texturekompression,
HyperZ II
Texturekompression,
HyperZ
FSAA
Arten
Standard
Standard,
Quincunx
Standard,
Quincunx
adaptives FSAA Standard
HydraVision/
TwinView/DualHead
nein
nein nein
ja ja
Produkt
Samples
-
- - Juni 2001 Juni 2001
Produktions
Beginn
-
- - Sept. 2001 Sept. 2001

So wird in der Tabelle gerechnet:
  • GB/s = (275 Mhz *2(DDR) *128 Bit / 8 Bit) / 1000 = 8,8 GB/s -> NVIDIA's Weg der grössten Zahlen
  • so nicht: GB/s = (275 Mhz *2(DDR) *128 Bit / 8 Bit) / 1024 = 8,59 GB/s
  • so auch nicht: GB/s = (275000000 Mhz *2(DDR) *128 Bit / 8 Bit) / (1024*1024*1024) = 8,19 GB/s
Neue Features:
  • nfiniteFX Engine ( programmierbare Pixel & Vertex Shader )
  • Lightspeed Memory Architecture
  • Surface Engine für Flächen höherer Ordnung
  • High Resolution Anti-Aliasing (HRAA)
  • verbessertes Anisotropisches Filtern
  • 3D-Texturen
  • hardwarebeschleunigte Schattenberechnung (Shadow Buffer)
  • DirectX 8.1 fähig (Pixel Shader bis Version 1.3)
  • DVD Wiedergabe mit Bewegungskompensation (Entlastung der CPU)

Wie man sieht gibt es also einige Neuigkeiten, auf die ich gleich eingehen werde. Auffällige ist, dass der GeForce 3 nur mit 200 Mhz läuft, obwohl der Vorgänger hier mit dem GeForce 2 ULTRA bereits auf 250 Mhz kommt. Dies ist recht ungewöhnlich, da NVIDIA mit einer neuen Chipgeneration bisher immer in neue Mhz-Regionen vorgestoßen ist. Über die Gründe kann ich nur spekulieren - fehlende Konkurenz und ein recht schwieriger Fertigungsprozess könnten verantwortlich sein.

nfinite FX Engine (Vertex & Pixel Shader)

Hinter diesem wunderschönen Marketingbegriff verbirgt sich eine neue Form der T&L Engine sowie eine erweiterte Textureeinheit. T&L war bis DirectX 7 immer fest - sprich Vertexdaten gehen durch die T&L Engine und werden dort transformiert und evtl. beleuchtet, jedoch hat der Programmierer danach keine (jedenfalls keine vernünftige) Einflußmöglichkeit mehr auf die Vertexdaten. Mit einer programmierbaren T&L Einheit ist dieses Limit beseitigt. Jetzt kann man die Vertexdaten mittels kleiner Vertexprogramme verändern, womit Bewegungsabläufe oder ähnliches vom GPU berechnet werden können. Die DirectX 8 Bezeichnung Vertex Shader ist allerdings etwas irreführend, denn bei der programmierbaren T&L Einheit wird nichts schattiert. Vertex Prozessor kommt der Aufgabe schon näher.

Vertex Shader

Der Pixel Shader kümmert sich hingegen nicht um Vertexdaten sondern um die Pixel selbst. Mit ihnen können verschiedene Operationen pro Pixel ausgeführt werden, wie z.B. Bump-Mapping, Environment-Mapping und viele weiter - auch wesentlich individuellere Effekte als vorher jemals möglich. Wie unten zu sehen ist, wurde die Anzahl von Texturen von 2 auf 4 erhöht und zusätzlich sind nun 8 Textureoperation, statt 2 möglich. Gesteuert wird das ganze und dies ist die wirkliche Neuerung über eine Pixel Shader Programmiersprache, zumindest bei DirectX 8. Mit weiteren Versionen werden die Fähigkeiten der Pixel Shader weiter steigen. Die aktuelle GeForce 3 (NV20) nutzt die Pixel Shader bis zur Version 1.3 aus. Die Version 1.4 wird aktuell nur von ATI's Radeon 8500 unterstützt. Weitere Details dazu  gibts hier .

Pixel Shader


<< vorherige Seite
                                                                        nächste Seite >>