Im direkten Kampf tritt die Nvidia Geforce GTX 295 gegen ATIs Radeon HD4870 X2 an. Welche der beiden Karten kann sich auf Platz 1 setzen und stimmt das Preis-Leistungs-Verhältnis? Dies Versuchen wir im folgenden Test herauszufinden.

 

 

An dieser Stelle möchten wir uns für die schnelle und unkomplizierte Bereitstellung bei der Firma Sapphire (ATI Radeon HD4870 X2) und bei der Firma Alternate (Gainward Geforce GTX 295) bedanken, die uns jeweils ein Sample der Karte zur Verfügung stellten.


Technischer Vergleich:

 

Nvidias GTX 295 setzt auf die überarbeitete GT200b-GPU, welche im 55nm produziert wird. Dadurch bleibt sie relativ klein, ist Stromsparend und günstig zu produzieren. Der Aufbau ist identisch mit der GT200 GPU und in folgedessen besitzt die GT200b-GPU weiterhin 1,4 Mrd. Transistoren. Lediglich das Speicherinterface wurde etwas beschnitten und liegt jetzt bei 448 Bit anstatt 512 Bit. Die GTX 295 ist eine Multi-GPU-Karte, bei der für jeden Rechenkern ein zusätzliches PCB zur Verfügung gestellt wird. Die Verbindung beider PCBs erfolgt intern über eine SLI-ähnliche, flexible Brücke. Nvidia setzt weiterhin auf GDDR3 RAM, der jeweils mit 999 MHz taktet und eine Größe von 896 MB hat. Der Chiptakt entspricht 576 MHz, der Shadertakt 1.242 MHz. Die Unterstützung von Shader-Model 4.0 und Microsofts DirectX 10-API bleibt. Bestens für PhysX ist die Geforce GTX 295 auch gerüstet. Des Weiteren bietet jede GT200b-GPU der GTX 295 240 skalbare Shadereinheiten, 80 vollwertige Textureinheiten und 28 ROPs (Render Output Units). AMD geht einen anderen Weg. Bei der HD4870 X2 werden beide GPUs, basierend auf dem RV770, auf eine Platine gelötet. Die Transistorenzahl beträgt etwa 965 Mio. Die HD4870 X2 verfügt pro Kern über 800 Streamprozessoren, welche nicht wie bei Nvidia vollwertig, sondern in 5 Arrays angelegt sind. Jeweils 40 Textur Units und 16 ROPs runden das Packet ab. Als Speicher wird der neuwertige GDDR5 verwendet, welcher mit 1.800 MHz taktet, eine Anbindung von 256 Bit besitzt und 2048 MB groß ist. Es bleibt, Shadertakt = Chiptakt, welcher mit 750 MHz taktet. Anders als Nvidia setzt die HD4870 X2 auf das Shadermodel 4.1 und DirectX 10.1.

 


Gainward Geforce GTX 295 im Detail:

 

Die Gainward Geforce GTX 295 kommt im typischen Nvidia Referenzdesign zu uns. Die Verpackung, welche eine Art Engel zeigt, gibt viele Eigenschaften der Karte wieder. Vom Zubehör sind wir relativ enttäuscht. Immerhin handelt es sich hierbei um eine teure High-End-Grafikkarte. Schaut man sich aber nur die Beilagen an, könnte man denken, dass man eine 100€ Karte in der Hand hält. Im Karton befindet sich lediglich eine Schnellstart Anleitung, eine Treiber CD, ein DVI- auf VGA-Adapter und ein Audiokabel, mit welchem man Grafikkarte und Mainboard verbinden kann. Auf jeden Fall fehlt hier in dieser Preisklasse ein HDMI-Adapter, ein 6- sowie ein 8-Pin-Stromadapter sowie zusätzliche Software.

 

Die eigentliche GTX 295 liegt, wie schon erwähnt, im Referenzdesign in der Verpackung. Im optisch schönen Schwarz findet die Karte in vielen PCs ihren Platz, vor allen Modder wird die Karte ansprechen. Geschweige denn sie passt ins Gehäuse, denn mit 28 cm ist sie schon etwas länger als vergleichbare Midrange-Grafikkarten. Der Kühler ist mit einer Art Gummistruktur überzogen und zeigt groß den blauen Engel, welcher schon auf der Verpackung zu bestaunen war. 2 PCBs stecken unter dem Kühler, auf dem je eine GT200b GPU steckt. Intern werden beide Platinen über eine Art SLI angesprochen. Natürlich bietet die GTX 295 auch einen SLI-Connector, aber nur einen, denn mehr als Quad-SLI ist zurzeit nicht möglich. Da die zwei GT200-GPUs relativ viel Strom fressen, genügt ein einzelner Stromanschluss nicht mehr. Um die Karte zu betreiben, werden demnach ein 6- und ein 8-Pin Anschluss benötigt. Als weitere Anschlüsse stellt die GTX 295 zwei DVI- und einen HDMI-Ausgang bereit. Zum Thema Lautstärke lässt sich nur sagen, das die Karte für Silent-Fans nicht geeignet ist. Nicht nur unter Last sondern auch im normalen Windows-Betrieb ist die Karte herauszuhören.

 

 

Sapphire Radeon HD4870 X2 im Detail:

 

Die Sapphire Radeon HD4870 X2 setzt nicht wie die GTX 295 auf 2 PCBs, sondern beide RV770 GPUs sind auf einer Platine angeordnet. Auch diese befindet sich im Referenzdesign. Die Verpackung ist im edlen Schwarz-Rot-Look designt worden und gibt ebenso wie bei der GTX 295 reichlich Informationen über die Karte preis. Im Inneren befindet sich ein DVI- auf HDMI-Adapter, zwei DVI- auf VGA-Adapter, ein S-Video auf YUV Adapter, zwei PCIe-Stromadapter, eine Crossfire-Brücke, ein Handbuch, eine Treiber- und Tools CD, Cyberlink DVD Suite, Cyberlink PowerDVD und 3DMark Vantage Advanced Edition. Damit fällt das Zubehör relativ großzügig aus und ist zumindest preislich passend - im Gegensatz zur Gainward GTX 295. Lediglich einen DVI- auf VGA-Adapter und einen 6- auf 8-Pin-Stromadapter vermissen wir.

 

Die eigentliche HD4870 X2 kommt mit einem schwarzen PCB daher und kombiniert sehr gut mit den roten Referenzkühler. Dieser ist von dem Vorgänger, der HD3870 X2, zu Großteilen übernommen wurden. Auf eine zusätzliche Backplate kann leider nicht verzichtet werden, da dadurch acht Speicherchips gekühlt werden. Weitere acht befinden sich auf der Vorderseite unter dem Kühler. Wie die GTX 295 benötigt die HD4870 X2 einen 6-Pin- und einen 8-Pin-Stromadapter. Weitere Anschlüsse, die von der Karte bereitgestellt werden, sind zwei DVI-Ausgänge und ein S-Video-Ausgang. Da die Kühlkonstruktion vom Vorgänger übernommen ist, kann man sich denken, wie sich die Lautstärke verhält. Zwar ist sie im Windows-Betrieb relativ leiste, dafür dröhnt sie aber unter Last so richtig auf und wird lauter als die GTX 295. Hier liegt eindeutig noch Verbesserungpotential ebenso wie bei der GXT 295.

Da wir das Sample nur einzeln ohne Verpackung und Zubehör erhalten haben gibt es davon leider keine Bilder.

 

 

AF Performance:

 

Um die Anistrope Filterung zwischen Nvidia und AMD/ATI zu vergleichen nutzen wir den AF-Tester. Das Testmuster von Nvidia ist im Testbild wesentlich "runder" als bei AMD/ATI. Dort sieht es eher aus wie ein Blumenmuster aber auch nur bei 0- und 4-fach Anistrope Filterung. Bei 16-facher Filterung verzieht sich das Tesmuster noch mehr zu einer Art Viereck. Das Testmuster sieht bei Nvidia mit 16-facher Filterung noch schön "rund" aus, was für eine sehr hohe Filterqualität in jedem Winkel zeugt. Bei 16-fach sieht AMDs Muster wie schon erwähnt fast wie ein Viereck aus. Das deutet auf eine relativ hohe Winkelabhängigkeit hin. Dies hat allerdings wenig zu sagen da Spieler kaum einen Unterschied sehen werden, aber es geht ja ums Prinzip. Schon die gesamte R6xx Generation zeigte diese Schwächen und die R7xx macht bis jetzt genauso weiter.

 


ATI 0AF

ATI 4AF

ATI 16AF

Nvidia 0AF

Nvidia 4AF

Nvidia 16AF

 

 


AA Performance:

 

Nicht nur die AF-Qualität zählt sondern ein wichtiger Bestandteil ist auch Anti-Aliasing (Kantenglättung). Beim näheren Betrachten der Bilder fallen sofort Unterschiede auf. Bei Nvidia sieht man das typische Treppenmuster, bei AMD bringt der Blick etwas anderes zum Vorschein. Nvidia berechnet Pixel für Pixel während AMD ganze Pixelgruppen zu filtern scheint. Einzigs der Edge-Detect-Filter bringt eine Pixelgenaue Verarbeitung. Das Gesamtbild zeigt aber nicht wirklich einen Unterschied. Dennoch müssen wir AMD bei den Setting 8x Edge Detect eine tadellose Glättung aussprechen, welche in Wirklichkeit 24x AA sind. Das Spielvergnügen wird sich allerdings dabei in Grenzen halten, da der Filter ordentlich Leistung zieht.

 


ATI 0AA

Nvidia 0AA

ATI 4AA Box

Nvidia 4AA

ATI 4AA Narrow Tent (6AA)

Nvidia 8AA

ATI 4AA Wide Tent (8AA)

Nvidia 8QAA

ATI 4AA Edge Detect (12AA)

Nvidia 16AA

ATI 8AA Edge Detect (24AA)

Nvidia 16QAA


Performance:

 

Wir waren nun sehr gespannt, welche der beiden High-End-Grafikkarten die andere schlägt und wie sich beide gegen aktuelle Single-Karten behaupten können. Dabei kamen als Synthetische Benchmarks die Pflichtprogramme von Futurmark 3D Mark Vantage und 3D Mark 06 zur Verwendung. Als DirectX-10- Benchmarks wurden Crysis, Assassin's Creed, Race Driver: GRID, Devil May Cry 4, Call of Duty 4: Modern Warface, Anno 1701 und Far Cry 2 benutzt. Zu Erwähnen sei noch, dass wir bei der GTX 295 PhysX deaktiviert haben, um einen Möglichst genauen Vergleich bieten zu können.

 

CPU: Intel Core2Quad Q9450 @ 3,2GHz
RAM: 4GB Corsair XMS 1600 CL9 DDR3
Mainboard: ASUS P5E64 WS Evolution
GPU: Geforce GTX 295, Geforce GTS 250, Geforce 9600 GT, Radeon HD4870 X2, Radeon HD4870, Radeon HD3780 X2, Radeon HD3850
Betriebssystem: Windows Vista Ultimate 64Bit SP1
Treiber: Catalyst 8.12, Forceware 180.48

 

 

 

 

Wirft man erst mal einen Blick auf die Synthetischen Benchmarks, sieht man, dass bei Vantage beide Dual-Karten deutlich in Führung gehen können. Ähnlich ist das bei 3D Mark 06 allerdings ist hier der Vorsprung nicht so groß. Single-Grafikkarten schneiden bei diesem Benchmark auch sehr gut ab. Bei den Game Benchmarks schneiden beide Testmuster sehr gut ab. Beide liegen mit den FPS-Werten über den Vergleichskarten. Die GTX 295 liegt meist sogar vor der HD4870 X2. Bei Anno 1701 siedelt sich die HD4870 X2 sogar unter den Vergleichsmuster an, das liegt wahrscheinlich daran, dass das Game mit Crossfire nicht richtig skaliert. Ansonsten können sowohl die Geforce GTX 295 als auch die Radeon HD4870 X2 eigentlich in allen Spielen sich vor die Single-Karten setzen. Das gilt auch besonders im Bereich der hohen Auflösungen plus zugeschalteten Bildverbesserer. Hier halten die Dual-Karten die Werte aufrecht und vermeiden so einen starken Einfall der FPS. Daraus ergibt sich für die Gamer ein verbesserter Spielspaß in diesen hohen Qualitätseinstellungen.

 

Fazit:

 

Beide Karten, also sowohl die GTX 295 als auch die HD4870 X2 setzen sich "zurzeit" deutlich an die Spitze der Grafikkartenliste, da zwei GPUs einfach schneller rechnen als eine. Die Benchmarkwerte der vorhergehenden Seite belegen fast immer die gewaltige Kraft der 2 GPUs, wäre da nicht der Preis. Immerhin muss man für die Gainward Geforce GTX 295 zurzeit ca. 416€ (Stand: 25.04.2009 | <link http: _blank>Guenstiger.de) hinblättern, um sie in den Händen zu halten. Die Sapphire Radeon HD4870 X2 gibt es immerhin schon ab 369€ (Stand: 25.04.2009 | <link http: _blank>Guenstiger.de). Doch ob sich diese Grafikkarten für den Preis wirklich lohnen, muss jeder selbst entscheiden. Alle getesteten Games lassen sich ebenso mit einer HD4870 bzw. einer GTS 250 Problemlos darstellen, allerdings kommt man hier schon ab und an nahe und sogar unter die magische 30-FPS-Grenze. Ob sich für mehr Leistung dann gleich eine Dual-Karte empfiehlt oder lieber zwei einzelne, muss ebenso jeder für sich selbst entscheiden. Was wir ebenfalls noch positiv für beide bewerten müssen ist, dass sowohl mit der GTX 295 als auch mit der HD4870 X2 keine einzigen Mikro-Ruckler zu sehen waren obwohl diese eigentlich mit Dual-Karten häufig auftreten.

 

Für Leute mit wenig freien Mainboardslots oder für diejenigen, die mehrere Monitore betreiben, ist eine Dual-Karte natürlich optimal. Vom Preis/Leistung-Verhältnis her würde die Empfehlung bei der HD4870 X2 liegen, wären da nicht die kleinen Probleme. Unter anderem das Problem Lautstärke. Hier müssen sich beide Hersteller in Zukunft bessere und leisere Lösungen einfallen lassen, um auch wirklich für jeden Gerüstet zu sein. Ein weiteres Problem der HD4870 X2 ist die Verbaute Backplate. Möchte man einen alternativen Kühler verwenden, muss die Backplate entweder ersetzt werden oder weiterverwendet werden. Keine zu Verwenden wäre sicherlich schlecht, weil dadurch die Speicherchips auf sehr hohe Temperaturen kommen würden. Möchte man das Maximum an FPS erzielen, führt aktuell allerdings kein Weg an der GTX 295 vorbei. Die HD4870 X2 liegt aber meist nur knapp dahinter und ist, für User die eher einen Blick auf Preis/Leistung werfen, aktuell immerhin rund 45€ billiger als Nvidias Top-Modell. Am Rande sei noch erwähnt, dass eine Dual-Grafikkarte wenig nützt solange bei neuen Spielen der Treiber noch nicht optimiert ist, sodass beide GPUs zum Rechnen genutzt werden. Bleibt abzuwarten, wie sich speziell die Kühlkonstruktionen noch weiter entwickeln werden, was die Hersteller in naher Zukunft noch alles Planen und/oder ob es überhaupt ein Maximum an Leistung gibt! Wir sind gespannt...