Der DX10 Vorteil von ATI

New member
Ihr fragt euch vielleicht was es mit diesem Titel auf sich hat, ich werde versuchen euch zu erklären was ich meine.

Grundsätzlich geht es hier um zwei Dinge:
- Spiel das DirectX 10 unterstützt
- Hardware die das ausnutzen kann

Ein Spiel das DirectX 10 unterstützt ist jetzt auf dem Markt. Es heisst World in Conflict und nutzt erstmals vollumfänglich Funktionen die nur mit DirectX 10 möglich sind.

Ebenfalls gibt es Hardware auf dem Markt, in Form von Grafikkarten von ATI und Nvidia.

Was ist DirectX 10
Direct3D 10 bietet neben den zwar netten Vorteil, Lichtsimulationen gleichzeitig mit Kantenglättung nutzen zu können. Viele der sonstigen angeblichen "Features" wie viel schönere Wassereffekte und dichte Pflanzenbewachsung wären in der Theorie auch mit Direct3D 9 möglich. Die Vorteile von DX10 liegen vor allem bei den Entwicklern. So ist es möglich viel mehr Shader-Leistung, maximale Texturauflösungen und auch deutlich mehr Objekte bei hoher Bildwiederholungsrate darzustellen. Dies wirkt sich so aus, dass die Spielewelt im ganzen dynamisch und echter wirkt. Zusätzlich wirken natürlich auch die NPCs (Nicht Spieler Charakter) und natürlich auch Mitspieler selber echter, lebendiger. Das ganze hat aber einen grossen Nachteil. Es braucht nun noch viel bessere Technik um das ganze dann auch wirklich so darzustellen. Wenn der Riegel bei den Einstellungen dann bei Details & Co. immer Niedrig ist, bringt DX10 so gut wie nichts.

DX10 und World in Conflict
World in Conflict sieht auch ohne Directx 10 sehr gut aus. Das lässt sich nicht bestreiten und jeden normalen Gamer zur Annahme verleiten, dass es wahrscheinlich möglich gewesen durch mehr Aufwand die Features auch in DX9 zu integrieren. Aber das ist wieder ein anderes Thema.

Das DX10 in World in Conflict zeichnet sich durch deutlichere Krater, den Schattenfehler um die Krater und viel, viel Rauch und Expolsionen aus. Und ein bisschen Wolken und Sonne. Und wie werden diese dargstellt? Mit Geometric-Shader-Einheiten von denen die ATI HD 2900 XT 320 stream processoren hat um diese darzustellen. Und dann rechne ich, je mehr solcher Prozessoren, je besser bei solchen Partikel-Effekten wie Rauch und Schatten?

Auf alle Fälle lässt die Tatsache darauf schliessen das die Besitzer von den DX9-FPS-Granaten Karten 8800GTS, GTX sehr krasse Performance Probleme haben, während die ATI HD 2900 XT bei mir und scheinbar den anderen sehr gut funktioniert.

Was jedoch natürlich dagegen spricht ist, dass die ATI Karte eigentlich nur 64 Streaming Prozessoren hat und diese mit den Processing Units zu 320 multipliziert werden. Der Witz hierbei ist, dass die wirklich 5 Operationen ausgeführt werden können - superskular - heisst das Marketingwort, aber echte Einheiten sind es nicht. Es können wirklich Operationen 320 Operationen ausgeführt werden, beim G80 nur 128, jedoch spielt hier wohl auch die ansichts des Entwicklers oder Testers eine grosse Rolle. Die Meinungen hier gehen auseinander- was ist jetzt korrekt und was nicht?

Was noch dazu kommt ist, dass die Texturen im Gegensatz zur G80 - und üblich bei DX9, doppelt so hoch / oft gefiltert werden. ATI verbaut doopelt soviele Texture Mapping Units wie Texture Addressing Units. Unüblich und bei DX9 kann das sogar (und ist wahrscheinlich auch - töricht weil es doch mehr DX9 Spiele auf dem Markt gibt) ein Nachteil sein, jedoch bei DX10 laut ihnen nicht. Die Frage ist hier auch wieder auf World in Conflict bezogen - Strategiespiele haben einige grosse, grobe Texturen, aber das ist normalerweise nicht auschlaggebend. Doch vielleicht bei so einer Grafikgewalt wie bei diesem Spiel schon? Fragen die wohl erst bei Crysis und UT3 beantwortet werden können. Erst dann werden die Texturen versuchen uns zu erschlagen.

Was haltet ihr davon? Eure Meinungen, liege ich falsch. Freu mich schon.
 
Zuletzt bearbeitet:
Liess dir mal die World in Conflict Supportforen durch, dann siehst du was ich meine. Und in meinem Bekanntenkreis hab ich auch jemanden der fast am verzweifeln ist wenn der DirectX 10 Rendering einschaltet. Es wird übrigens dank dem BETA Treiber von Nvidia besser.
 
Wiederspruch!:D Also mein Kumpel kann WIC mit ner 8800gts auf hoch bzw ultra gut zocken. (Mit DX9)


mfg DogSoldier​
 
Hmmm - du machst oben einen Stern an "nur" und nichts steht dazu.
Es gibt noch mehr Spiele mit DX10, zB Lost Planet und Bioshock (bei Bioshock bin ich mit aber nicht sicher).

Ich verstehe den Sinn auch nicht so recht - hat nun die ATi den heiligen Grahl gefunden, der in der Werbung nicht auftaucht und uns alle erschüttert...?
 
Das heißt also, G80 hat bei Dx9 Vorteile, R600 bei Dx10. Da wird es schwer, sich zu entscheiden. Bei mir kommt Ende des Jahres auch ein neues System ins Haus, mal sehen was da so hereinkommt...
 
Ich weiss von diesen Benchmarks und das ist auch das irritierende. Vor allem weil die Demo Version bei allen Leuten mehr FPS gegeben hat und dann in der Vollversion nicht mehr. In dem Test steht weder ob es mit DX9 oder DX10 getestet wurde, noch ist es ein Test mit der Vollversion. Seit der Demo gab es übrigens einen neuen Treiber für die Nvidia und ein Fix für den 7.9 von ATI.

ATI hat den heiligen Grahl nicht gefunden, weil die Karte dann eigentlich auch im DX9 besser hätte sein sollen. Und überhaupt ist die Nvidia immer noch besser drann weil die meisten Spiele nur DX10 Features nutzen und nicht vollumfänglich. Deshalb ist die sehr schnelle DX9 Karte von Nvidia im Vorteil.
Zu Bioshock und Lost Planet:
In Bioshock sind die DX10 Features wirklich nur das winzigste Tüpfelchen auf dem I das man sich vorstellen kann. Ein bisschen schönere Wassereffekte, verschwommene Sicht wenn man durch das Schutzglass ins mehr schaut und ein paar Lichteffekte. Lost Planet habe ich zu meiner Schande noch nie gespielt. Es gibt auch einen DX 10 Patch für Companys of Hereos (glaub ich) und Call of Juarez. Von Call of Juraz gibts auch nen Benchmark. Für Herr der Ringe Online wirds vermütlich mit dem Addon inkl. Buch11 auch DX10 Features geben. Doch all diese "dazugepatchten" Sachen unterscheiden sich nur marginal von DX9 und sind einfach als Prestige zu betrachten.

EDIT (autom. Beitragszusammenführung):


Wiederspruch!:D Also mein Kumpel kann WIC mit ner 8800gts auf hoch bzw ultra gut zocken. (Mit DX9)


mfg DogSoldier​

... Es geht nicht um DX9 sondern um die Option: DX 10 Rendering und Global Cloud Shadow, welche die DX10 Funktionen nutzen, welche man immer so schön in Videos und Screenshots sieht.
 
Zuletzt bearbeitet:
ICh hab CoH DX10 und Lost Planet DX10 mit meiner 8800GTX gezockt, hatte keine probleme damit. Soweit ich das sehe verringert sich der benötigte Speicher bei CoH wenn ich es mit DX10 Spiele nicht unwesentlich gegenüber DX9.
 
Lost Planet nutzt doch nur verbesserte Schatten und Lichteffekte? Weil wenn wir eine einheitliche Linie finden um meine These zu bestätigen dann wüssten wir auch wo die 8800 im DX10 ihre Vorteile hat. Sozusagen was müsste die Grafikkarte der Zukunft können um im Endeffekt "perfekt" zu sein.
 
Perfekte GRAKAs

Lost Planet nutzt doch nur verbesserte Schatten und Lichteffekte? Weil wenn wir eine einheitliche Linie finden um meine These zu bestätigen dann wüssten wir auch wo die 8800 im DX10 ihre Vorteile hat. Sozusagen was müsste die Grafikkarte der Zukunft können um im Endeffekt "perfekt" zu sein.

Also was ich so mitbekommen habe ist, das die AMD-ATI Karten sehr Treiber abhängig sind.
Es kann also je nach bedarf der Treiber angepasst werden.
Was bei Nvidia nicht so einfach ist im DX10 Modus.
Also wenn es eine Perfekte Karte gebe, bräuchte mann zusätzlich noch den Perfekten Treiber!
Meiner Meinung nach gibt es die Perfekten Karten schon, nur die Treiber offenbaren uns "noch" nicht alles!
Egal ob nvidia oder AMD
:cool:
 
Also ich kann auch nur sagen das ich alles auf hoch spielen kan bei WIC mit DirectX 10
PS Habe ne Asus 8800 GTS 640mb
 
Langsam aber sicher zeigt sich das meine Theorie doch nicht so falsch ist, vor allem bei Texturlastigen Spielen wie UT3


Was zeigt sich da? Dass die GTX und die Ultra immer noch vorne sind bei hohen Auflösungen? Und bei niedrigen Auflösungen bisschen schlechter sind? Doch jetzt überleg mal: Wer kauft sich eine GTX, Ultra oder 2900XT um auf so niedrigen Auflösungen zu spielen? Ich glaube keiner ;)
 
Jop da muss ich Heimdall recht geben das were ansonsten auch nur Geldverschwendung sich eine GTX zu kaufen wenn man nicht auf hohen Auflösungen spielen will.
 
GTX und XT nehmen sich ja fast garnichts auch bei höheren auflösungen(5fps)

Umd man sollte auch die XT nicht als High End bezeichnen, den das war und wird sie nie sein, sonst würde sie XTX heißen;)
 
War blöd geschrieben^^

Sind beide High end Karten(XT/GTX) , nur war die XT nicht als "das" Top Model der Serie gedacht sonst hätte man sie ja XTX getauft.
 
Falls die XTX rauskommen sollte sollte man sich auch mal überlegen wie es bei der 7000er Serie bei NVIDIA war. Da gab es die 7800GTX, und ein Jahr später kam dann die 7900er Serie. Bis jetzt gibt es auch die 8800er Serie... Weiter kannstes dir selber denken.
Aber das steht alles in den Sternen...

Ich will einfach nur sagen wenn du die high-end Modelle vergleichst dann tu das auch. Und jetzt nicht mit der XTX kommen die nicht mal raus ist...
 

Online-Statistiken

Zurzeit aktive Mitglieder
1
Zurzeit aktive Gäste
149
Besucher gesamt
150

Neueste Themen

Beliebte Forum-Themen

X
Keine passende Antwort gefunden?