Dank High-Definition geht es nicht mehr nur um 3D Performance, sondern auch darum Multimedia Fähigkeiten auf den Tisch zu legen, wodurch das Einsatzgebiet weit größer ist als nur zum spielen. Trotz alle dem gibt es nun, Monate nach den High End Modellen von ATI und Nvidia, auch kleine Einsteigerkarten, welche groß und breit mit DX10 Kompatibilität werben. Einzig die Frage bleibt: „Wenn sich die Großen schon schwer tun, wie schlagen sich die Kleinen?“ Zwischen den beiden Gruppen klafft ein riesiger Performance-Krater. Wir wollen uns heute aber den kleinen widmen und beleuchten einmal die neue DX10 Mittelklasse. Welcher Hersteller hat seinen Job wohl besser gemacht. Nvidia mit der 8600er Serie oder AMD/ATI mit der HD 2600er, am Ende des Tests wollen wir genau diese Frage versuchen zu beantworten.

 

 

Für die Bereitstellung der Grafikarten wollen wir uns recht herzlich bei <link _blank external-link-new-window einen externen link in einem neuen fenster http:="">Gigabyte (HD 2600XT), Foxconn (NV 8600GTS), Jetway (HD2900XT) und <link _blank external-link-new-window einen externen link in einem neuen fenster http:="">HPM-Computer (NV 8800GTS) bedanken.


Mittelklasse im technischen Vergleich: 

Dank 65nm ist der Chip der Radeon 2600-Serie kleiner und somit auch kühler und stromsparender als der G84 von Nvidia. Außerdem hat ATIs RV630 120 Stream Prozessoren zur Berechnung der anfallenden Operationen, was im Vergleich zu 32 Einheiten recht viel wirkt, zumindest auf dem Papier. Tatsächlich verfügt die Radeon HD 2600 aber nur über 24 Einheiten, die im Gegensatz zu Nvidia jedoch nicht skalbar, sondern in vektorieller Art und Weise agieren. So basiert der RV630-Core auf 24 5-dimensionalen Shader-Units, verglichen mit 32 skalaren (1-dimensionalen) Shader-Units eines G84.

Laut ATI-Dokumenten kann der RV630 zwei Operationen pro Takt ausführen während der G84 von Nvidia nur eine Operation pro Takt ausführen kann. Nvidia punktet dafür aber mit 16 Texture Units, welche vor allem bei aufwendigen Texturfiltern für mehr Texturperformance sorgen. In diesem Punkt hängt der ATI Sprössling mit seinen 8 Texture Units etwas hinterher. Zudem werden auf beiden Nvidia GPUs 8 Raster Operation Processors (ROPs) verbaut (ATI jeweils 4). Auch ist zu beachten, dass beide Hersteller vollkommen andere Wege gehen, was die Taktaufteilung der Architektur angeht. So arbeiten z.B. die Shaderprozessoren bei den ATI Karten immer synchron im Takt des gesamten Chips. Währenddessen die Shaderprozessoren bei den Nvidia erheblich höher takten als der Rest des Chips. In einem 8600GTS wären das z.B. 1450Mhz und in einem 8600GT Modell 1190mhz Shadertakt. Auf dem Papier hat der ATI Chip am Ende zwar durch seine 5-dimensionalen Shader-Units eine theoretisch höhere Rechenleistung, doch wie es in sich in der Praxis bemerkbar macht, dass bleibt die Frage. Der Chiptakt unterscheidet sich bei allen getesteten Modellen, so verfügt die HD 2600 XT über 800 MHz, die HD 2600 Pro über 600 MHz, die 8600 GT über 540 MHz und die 8600 GTS über 675 MHz. Alle Karten besitzen 256 MB Speicher mit 128-Bit-Speicherinterface, lediglich der Speichertyp und der Speichertakt ist verschieden. So hat die HD 2600 XT GDDR4-Speicher mit 1100 MHz, die HD 2600 Pro GDDR3-Speicher mit 700 MHz, die 8600 GT GDDR3-Speicher mit 700 MHz und die 8600 GTS GDDR3-Speicher mit 1000 MHz. Da ein HDCP-Key-ROM auf allen 4 GPUs integriert ist, steht einem gemütlichen HD-Videoabend nichts mehr im Wege. Auch ist auf dem ATI Karten die UVD Engine vorhanden, welche eine HD Filme effektiv beschleunigen soll. Weiterhin sind alle Modelle Multi-GPU fähig und bieten komplette Unterstützung für DirectX 10 und Shader Model 4.0.

 

 ATI HD 2600XT:

Gigabyte sendete uns zwei der derzeit besten DX10 Midrange Karten, die ATI zu bieten hat. Die Rede ist von zwei HD2600XT GDDR4. Der Unterschied liegt hauptsächlich im verwendeten Speicher, denn es gibt auch eine GDDR3 Version, welche mit 700mhz arbeitet. Diese ist zwar einen Tick langsamer als ihr GDDR4 Bruder, kostet aber auch ca. 20-40€ weniger.
 
Zubehör:
  An Zubehör sollte man in dieser Preisklasse nicht all zu viel erwarten und so kam es auch, dass der Karte an sich nur das nötigste beiliegt, um nicht auf dem Trockenen zu sitzen. Und sind wir mal ehrlich, wer hat jemals diese veralteten Games ernsthaft installiert.  Auch wenn das Game „Never Winter Nights 2“ groß auf der Verpackung propagiert wird, drin ist es jedenfalls nicht. Der Rest des Zubehörs liest sich wir eine Standardliste:
  Inhaltsliste:
  2x DVI / RGB Adapter 1x DVI / HDMI Adapter 1x Crossfire-Switch 1x S-Video / R-G-B 1x Handbuch 1x Treiber CD Wir empfehlen bei den Treibern unbedingt den neusten Treiber zu installieren, der derzeit von ATI angeboten wird, da sich die Performance mit der letzten Version doch stark verbesserte.
 
Karte im Detail:
 
Die GDDR4 HD2600XT wirkt wie etwas aus den Schuhen gewachsen. Für eine Midrange Karte ist die Platine mit 24cm ausgesprochen groß, aber doch halb leer. Platzprobleme sollten aber in keinem Gehäuse entstehen. Die vier 0.9ns Chips von Samsung reihen sich um den R630. Die Spannungsversorgung wird nicht wie bei der HD2900XT digital erledigt, sondern fällt wieder wie üblich „analog“ aus. Da wir grade beim Thema Strom sind, sei anzumerken, dass die HD2600 XT doch recht Sparsam zu werke geht und somit einen absoluten Gegenpol zum großen R600 Bruder geht, welcher fast das 5-fache verbraucht. Mit angegebenen 50W im Lastzustand geht diese nun wirklich gutmütig mit dem kostbaren Gut um. Dieser niedrige Stromverbraucht macht sich aber nicht nur auf der jährlichen Stromrechnung bemerkbar, sondern spiegelt sich auch im Gehörgang des Users wieder. Denn der verbaute Kupferkühler kommt nicht wirklich ins Schwitzen und brauch so niemals auftouren. Bei unseren Test bewegte sich der Lüfter am Rand des Stillstandes und war so nicht wahrzunehmen. Doch der Kühler sieht seine Aufgabe nicht nur darin die GPU zu kühlen, sondern er kümmert sich im selben Zug noch um die Speicherchips, welche durch ihr GDDR4 Design noch einmal weniger Strom verbrauchen als vergleichbare GDDR3 Chips. Das liegt daran, dass ihre Grundspannung wesentlich geringer ist.


Nvidia 8600GTS:

Auch Foxconn sendete uns zwei aktuelle DX10 Midrange Karten von Nvidia, welche auf den Namen 8600GTS hören. Im Preisvergleich ist dies die teuerste Mittelklassekarte, die wir zum Test da hatten. Da wir auch hier SLI testen wollen haben wir natürlich zwei der Karten zur Verfügung.

Zubehör:  Für ca. 160€ kann man nicht viel Zubehör erwarten. Trotzdem findet man alles wichtige, was man brauchen könnte in der Verpackung. Von Spielen oder Gutscheinen fehlt jede Spur, dafür sind Adapter, Handbuch, und CDs enthalten.
  Inhaltsliste: 2x DVI / RGB Adapter 1x S-Video / R-G-B 1x Handbuch 1x Treiber CD / 1x Utility CD 1x Stromadapter Auch hier empfehlen wir die neusten Treiber von der Nvidia Homepage zu laden, da sich gerade in den letzen Treibern einiges an der Performance getan hat.
Karte im Detail:  Mit einer Länge von 19cm passt die Karte wirklich in jedes Gehäuse und wirkt im Gegensatz zu den großen High-End-Modellen gerade zu winzig. Trotzdem scheint sie noch leerer als die HD2600XT. Außer ein paar Kondensatoren, Widerständen, Spulen, Speicherchips und der GPU befindet sich nichts weiter drauf. Der eher klein ausfallende Kühler, welcher im Nvidia Look Grün-Schwarz und komplett aus Aluminium mit einer Kupferplatte gefertigt ist, belegt nur 1 Slot. Die Lautstärke ist angenehm, nicht unhörbar aber auch nicht störend. Auf der Platine sind insgesamt 4 Speicherchips mit jeweils 64MB verbaut, welche von Samsung kommen und eine Zugriffszeit von 1,0ns haben. Diese werden, wie beim ATI Konkurrenten, gleich durch den Kühler mit auf Temperatur gehalten und sollte so immer einen kühlen Kopf bewahren. Dank des SLI Anschlusses besitzt die Karte ein Feature, um mehr Leistung rauszuholen, indem man sie einfach mit einer zweiten gleichartigen Karte koppelt. Einige neue Nvidia Modelle verfügen bereits über einen direkten HDMI Anschluss, was bei unseren Modell nicht der Fall ist. Im Gegensatz zu Nvidia verfügen die ATI HD Karten, wie der Name es schon sagt, alle über eine direkt  im Chip integrierte HD Funktion.

Bildqualität:

Die Bildqualität war und ist seit jeher ein leidliches Thema. Bis zur X1xxx Generation war ATI dafür bekannt die besser Bildqualität zu haben. Mit dem dann erscheinenden G80 von Nvidia wendete sich zwar nicht das Blatt, doch man zog nun auf gleichem Niveau. Seit dem R600 von ATI waren deswegen einige fast schon geschockt, als man die ersten AF-Filter Bilder zu Gesicht bekam. Doch das waren jeweils die High End Karten. Wie es bei den „kleinen“ ausschaut… genau das versuchen wir nun heraus zu bekommen. Zum einen testeten wir die Kantenglättung der Karten und zum anderen natürlich auch den anistropischen Filter, wobei es hier gerade bei der Kantenglättung seit der HD- Serie von ATI einige Unterschiede gibt, die man vielleicht noch erwähnen sollte. Mit dem R600 aka‘ HD2900XT führte ATI erstmals seine erweiterten AA Filter eine, welche auf die Namen „Narrow-“, „Wide-Tent“ und  „Edge Detect“ hören. Dabei handelt es sich um Filterraum-Erweiterungen um das zu glättende Pixel, welche äquivalent zu früheren Filtern stehen sollen. So ist ein 4xAA + Wide Tent laut ATI gleich einem normalen 8AA usw. Bei Nvidia hingegen blieb erstmal alles beim Alten und so gibt es wieder zb. normales 4AA und 4Q-AA, welche qualitativ ein 8AA bei weniger Leistungsverlust „imitieren“ soll. Zum Testen der Kantenglättung wählten wir eine Szene aus Half Life 2: Lost Coast bei 1280*1024. Beim Test der Anistrope Filterung verwendeten wir das Programm „AF Tester“. Die jeweiligen Settings wurden im Treiber vorgenommen. AF Performance: Wenn man die Anistrope Filterung von Nvidia mit ATI mit dem AF-Tester vergleicht so fällt uns gleich auf, dass das Testmuster bei Nvidia wesentlich „runder“ wirkt, als bei ATI, wo es eher wie eine Blume aussieht. Zumindest bei 0- und 4-Fach Anistrope Filterung. Bei 16-Fach sieht es noch schlimmer aus, während das Nvidia Muster immer noch schön „rund“ ist und von einer enorm hohen Filterqualität in jedem Winkel zeugt, hat sich das ATI Muster fast zu einem Viereck geformt und zeigt eine hohe Winkelabhängigkeit. Im laufenden Spiel mag man das zwar kaum mitbekommen, aber uns geht es hier ums Prinzip und da zeigt die gesamte R6xx Generation die selben Schwächen.
 
ATI 0AF ATI 4AF ATI 16AF
Nvidia 0AF Nvidia 4AF Nvidia 16AF
 AA Performance: Betrachtet man die beiden Arten der Kantenglättung, fallen sofort Unterschiede auf. Währenddessen man bei Nvidia schön das typische Treppenmuster erkennt, welcher Pixel für Pixel verarbeitet und abstuft, zeigt sich den neuen ATI Filtern ein erheblich anderes Bild ab. Anstatt Pixel für Pixel vorzugehen, scheint die ATI wie Pixelgruppen zu Filtern. Einzig der "Edge Detect Filter" scheint Pixel genau zu arbeiten. Im Gesamtbild kennt man aber nicht wirklich einen Unterschied zwischen den zwei Interpretationen einer Kantenglättung. Doch muss man der ATI gerade bei dem maximal Setting 8x Edge Detect eine tadellose Glättung aussprechen, welche einem 24x AA Filter entspricht. Aus Gründen des Leistungsverlustes wird dieser wohl leider nur Traum eines Standbildes bleiben.
ATI 0AA Nvidia 0AA
ATI 4AA Box Nvidia 4AA
ATI 4AA Narrow Tent (6AA) Nvidia 8AA
ATI 4AA Wide Tent (8AA) Nvidia 8QAA
ATI 4AA Edge Detect (12AA) Nvidia 16AA
ATI 8 Edge Detect (24AA) Nvidia 16QAA

Performance DX9:

Ohne viele Worte soll es nun an die nackten Zahlen gehen, denn nur diese interessieren. Die jeweiligen Testsettings sind der Tabelle zu entnehmen. DX9 ist die wohl mit am besten ausgebaute Schnittstelle, die derzeit Verwendung findet. Ob sie für die Mittelklasse Karten ein Problem darstellt, wird sich nun zeigen: Testsystem:
CPU: AMD X2 6000+ @ 3,5Ghz
Ram: Gskill 2GBNR @ 880mhz CL5
Board: MSI K9A Platinum
Foxconn C51XEM2AA
NT Be Quiet Straight Power 650W
OS: Windows XP Pro Sp2
GPU: Foxconn 8600GTS
Gigabyte HD2600XT GDDR4
Zotac 8800GTS 320 AMP! Edition
Jetway HD 2900XT
Treiber: ATI Cat. 7.9
Nvidia 162.18

Die Benchmarks zeigen ein durchwachsenes Bild. Mal nehmen sich die Karten nichts, das andere Mal geht eine weit in Führung. Trotz alle dem kann sich die 8600GTS im Single Betrieb gut an die Spitze setzen. Im Dual GPU Betrieb scheint es dann einige Probleme in Stalker zu geben, weshalb das Testergebnis weit abfällt. Unterschlägt man die Bugs in Stalker, kommt das SLI Gespann auf einen Mittelwert von ca. 74fps, was dann wieder die Spitze bedeuten würde. Doch auch die Leistung der HD 2600 XT sei nicht unterschätzt, auch wenn sie nicht überall mithalten kann. Einige Punkte kann sie dafür im Dual GPU Modus wieder einfahren. Für die Spitze langt es da nur durch einen Bug der Nvidia Boards bei Stalker.

Performance DX10:

Oft werden die Mittelklassen DX10 Karte als nicht DX10 tauglich beschrieben. Ob wir auch dieses Bild bei unseren Benchmarks wiederfinden, bleibt abzuwarten. Da die Auswahl an DX10 Games noch relativ gering ist, blieben für die Benchmarks nur wenige übrig und so beschränkten wir uns auf die 4 am häufigsten verwendeten Benches. Die Settings sind auch hier wieder in der Tabelle festgehalten. Testsystem:
CPU: AMD X2 6000+
RAM: Gskill 2GBNR @ 750mhz CL4
Board: MSI K9A Platinum
Foxconn C51XEM2AA
NT: Be Quiet Straight Power 650W
OS: Windows Vista Ultimate
GPU: Foxconn 8600GTS
Gigabyte HD 2600XT
Zotac 8800GTS 320 AMP! Edition
Jetway HD 2900XT
Treiber: ATI Cat. 7.9
Nvidia 163.69

ATI scheint hier doch deutlich ins Schwitzen zu kommen, denn sowohl HD 2600XT als auch HD 2900XT fallen hinter die jeweiligen Nvidia Karten zurück. Und so kann sich auch hier eindeutig die 8600GTS vor die HD 2600Xt werfen und regelrecht spielend in Führung gehen. Doch müssen wir teilweise widerlegen, dass die Midrange Karten nicht DX10 tauglich wären. Sicher sind keine High End Settings möglich, doch wenn man die Qualität der Klasse anpasst, kommen durchaus spielbare Frames heraus.

Fazit:

 

Fazit von C. Marx: Die Übersicht soll nun noch mal alle Karten auf den Tisch legen. Sind die Karten ihr Geld wert, wie sieht es mit dem Stromverbrauch aus, welche Karte ist am Ende effizienter. Ganz klar muss man der HD 2600XT zugestehen, dass sie doch gerade was den Stromverbrauch angeht gut punkten kann. Immerhin ca. 50W weniger braucht das gesamte System in seiner maximal Last und dazu ist die Karte auch noch billiger. Ist das vielleicht doch die Preis/Leistungskrone? Leider nein, muss man sagen. Trotz niedrigerem Preis und weniger Stromverbrauch bietet die 8600GTS durchweg einfach die bessere Leistung. Auch wenn es sich nur um 0,03 Zähler handelt, ist die HD 2600XT durchaus gerade in HTPCs oder in PCs mit geringem Budget eine gute Alternative. Der eine freut sich über eine leise Karte, welche für die akzeptable Leistung noch wenig Strom verbraucht und der andere freut sich, weil er für wenig Geld noch eine halbwegs gute Gameperformance bekommt. Wer mehr Geld hat, sollte aber den Weg zur Foxconn 8600GTS nehmen. Was die Dual GPU Wertung angeht, kann sich die ATI Mittelklasse trotz einiger Probleme leicht an die Spitze des Preis/Leistungs Index stellen. Doch schaut man dann weiter zu den großen Brüdern der Mittelklasse kann man den Dual GPU Lösung keine wirkliche Wirtschaftlichkeit außer der niedrigeren Stromaufnahme zusprechen. Denn für 250€ bekommt man schon eine 8800GTS, welche erheblich mehr Leistung bietet. Um es also Kurz zu machen: Wenn es um Leistung geht Nvidia 8600GTS. Wenn es ums Geld geht HD 2600XT. Dual GPU hat in dieser Klasse keine Zukunft und ist einfach nicht wirklich rentabel. Fazit von M. Reichel: Nach dem Motto: “Mehr Leistung kostet mehr Geld“ kann die 8600GTS in den meisten Bereichen klar in Führung gehen und das für nur 35€ mehr. Sparsamer ist die 8600GTS aber leider nicht, so verbraucht sie im Gegensatz zur HD2600XT 61,6W mehr, was im Jahr nicht wenig ist. Das sieht man vor allem an den zusätzlichen PCIe Stromstecker,  welchen die HD2600XT nicht hat. Der Vergleich zur 8800GTS bzw. zur HD2900XT ist noch eindrucksvoller. So zieht die 8800GTS 115W und die HD2900XT ganze 215W aus der Dose. Wenn man mit dem Gedanken spielt ein Dual-GPU-System aufzubauen, dann hat man die Qual der Wahl. In DX9 kann sich die HD2600XT mit immerhin ca. 3,7 FPS an die Spitze setzten. In DX10 wiederum führt die 8600GTS mit 15,19 FPS vor HD2600XT im Crossfiremodus. Man sieht trotzdem schön, dass SLI bzw. Crossfire noch nicht ausgereift ist, denn es gab immer mal wieder ein paar Grafikbugs bzw. Framewerte, die etwas komisch rüberkommen.
Eine perfekte Grafikkarte gibt es nicht, so hat es der normale Benutzer schwer, eine für sich passende Karte zu finden, da sich beide Hersteller Mühe gegeben haben. Für einen Spielerechner würde ich zur 8600GTS greifen, da sie einfach mehr Frames in Spielen abliefert. Wer sich allerdings einen Rechner aufbauen möchte und dabei auf die Stromkosten achtet, der ist mit der HD2600XT gut beraten, da darauf auch die aktuellen Games recht ordentlich laufen. Zum Schluss kann man sagen, dass beide Testkandidaten relativ gleichwertig sind, mal hat ATI und mal hat Nvidia die Nase vorne. Es bleibt also weiterhin spannend und abzuwarten, was die zukünftigen Modelle noch so mit sich bringen.

In eigener Sache: Ich gratuliere an dieser Stelle gern einmal unserem Newcomer Redakteur M. Reichel zu seinem ersten Review und wünsche ihm noch viele gute Berichte.