[Erklärung] Sli und Crossfire - Was ist SLI und Crossfire

Banned
Hallo Leute :)
Ich habe hier zum Thema Crossfire und Sli schon vieleviele Threads gesehen, und mache es mir hier zur Aufgabe, das alles Nochmal zu erläutern ;)

Die Frage die imho an Erster stelle steht ist die Frage der Lanes.

Jetzt gibt es die Leute die sagen: Ja 16x MUSS sein, weil sonst bekommst du nur halbe Leistung der GPU

Andre sagen wiederrum: Is egal. 8x oder 16x Nimmt sich nix.

Als Fragensteller ist man dann ziemlich Ratlos und weiß nicht weiter.

Nun, sogesehen haben Beide Parteien Recht.

Wer mit einem x3 2 HighEnd GPU's Halten will, kann sich sicher sein das er nicht die Volle Power der 2ten GPU raus bekommt.

Das liegt dann aber nicht an den Lanes sondern anner CPU

Wenn man aber mit einem x4 (955BE, i5, i7) 2 HighEnd GPU's Halten will, Kann man, besonders beim i7, sicher sein, das man da schon einiges an Mehrleistung bekommt.



So, nun zu den Lanes.

Eine Lane beschreibt den Datendurchfluss der vom Chipsatz zur GPU Gelangt, und umgekehrt.

Nun könnte man es sich ganz einfach machen und sagen: Joa 8x ist die Hälfte von 16x, und somit Halbsoschnell.

Falsch.

Diesbezüglich lest euch bitte den Folgenden Test durch, welcher auch die Auswirkungen von 4x und 1x zeigt, das alles zu Erläutern wäre Wiederholung.

Für alle Lese Faulen: Aus dem Test lässt sich herrausfiltern, das der Unterschied zwischen vollen 16x und 8x nur ungefähr 5% ausmachen.

Der Test wurde mit 2 GTX480 gemacht, also mit der bis Dato besten SingleGPU Grafikkarte.


Ich hoffe ich konnte euch ein wenig Helfen, und wünsche euch noch viel spaß beim PC Basteln, und bei PCM :)


Disultory.


PS: Ich bin auf Kritik angewiesen ;) Falls euch etwas nicht gefällt, oder man noch etwas besser machen könnte, seit so Frei und Postet es ;)

LG
 
Zuletzt bearbeitet:
Hey, mal eben ein paar Verbesserungsvorschläge.

Wer mit einem x3 2 HighEnd GPU's Halten will,
...
das man da schon einiges an Mehrleistung bekommt.

Kommt irgendwie unerwartet und aus dem Kontext gegriffen, zunächst sprichst du von Lanes und dann von CPUs die nicht ausreichend Leistung haben...? Da gibt es sicher einen besseren weg, dies einzubinden. :)

Nun könnte man es sich ganz einfach machen und sagen: Joa 8x ist die Hälfte von 16x, und somit Halbsoschnell.

Sieh dir bitte mal die kleine Tabelle mit der theoretischen Datenrate dort an:

Eigentlich stimmt es ja, dass man mit 16 Lanes doppelt so viel "Leistung" hat wie mit 8, allerdings benötigen die Grafikkarten ganz einfach nicht solch eine hohe Bandbreite, es wäre mir lieber, wenn du (falls möglich) eine kleine Auflistung machst, welche Grafikkarte bei 8 Lanes Leistung verliert (evtl. auch wie viel?).

Ansonten, könnte das Ganze etwas besser formatiert sein und der Satzbau "verbessert" werden, damit ein flüssiges Lesen möglich wird.

MfG KonZe
 
@ KonZe das Auflisten wird wohl eher ungenau und so genau kann man das wohl nicht sagen, denn wenn man nicht gerade 3xGTX 480 am Laufen hat ist der Leistungsverlust jetzt nicht so drastisch evtl. ~7% weiß das jetzt, aber auch nicht ganz genau.

Wenn man aber mit einem x6/i7 2 HighEnd GPU's(GTX480/HD5870) halten will, kann man relativ sicher sein damit da nichts bremst.

ich würd den Abschnitt so schreiben, denn bei dir kommt das so rüber als ob der i7 den Karten mehr Grafikleistung gibt und das kann man so ja nicht sagen, auch würde ein x4/i5 2*High End GPUs sicherlich bremsen.
 
@ KonZe das Auflisten wird wohl eher ungenau und so genau kann man das wohl nicht sagen, denn wenn man nicht gerade 3xGTX 480 am Laufen hat ist der Leistungsverlust jetzt nicht so drastisch evtl. ~7% weiß das jetzt, aber auch nicht ganz genau.

Bitte? Was hat das mit 3 GTX 480 zu tun...

Man könnte eine Karte ja ein mal mit 16 und ein mal 8 Lanes laufen lassen, wo liegt das Problem?
Das es nicht gerade das genauste Ergebnis sein wird ist klar, evtl. gibts ja schon Tests die sowas gemacht haben?

MfG KonZe
 
das hat in sofern was mit 3 480 zutun, dass der Leistungsverlust erst bei sehr hoher Leistung größer wird, ist ja logisch. Und dann kann man das erst richtig aufschreiben, ansonst steht da halt

2x460=6%
2x470=6.7654%
usw.

ich denke wenn man schreibt zwischen 5 und 10% liegt der Leistungsverlust bei SLI bzw. Crosfire, wenn man 2High End GPUs laufen hat reicht.
 
Und was hat das Ganze mit mehreren GPUs zu tun?

Es geht einzig und allein um die Anzahl der Lanes, wenn du ganz random bist, dann packst du halt deine GTX 480 in den Slot mit nur 8 Lanes, statt in den 16er... o_O

Ich wage zu bezweifeln, dass die GTX 460 überhaupt an Leistung verliert, wenn die GTX 480 bei 8 Lanes (angeblich) nur 5% an Leistung einbüßen muss.

MfG KonZe
 
Jungs iwie redet ihn aneinander vorbei^^

ich hab zu dem test allerdings mal eine frage!
Warum ist der unterschied bei zwischen x8 und x16 bei 1024x768 ohna aa/af größer als bei 2560x1600 mit aa/af ?
sollte der untschied nicht eigentlich bei mehr daten größer sein ?
 
Das hängt auch von mehreren Faktoren ab. Im Schnitt kann man von etwa 5% sprechen, aber das kann auch von Spiel zu Spiel und/oder Einstellungen unterschiedlich sein.
Es gibt Spiele, die verlieren 1% Leistung gegenüber x16 und welche, da sind es fast 10%.

Du solltest zur Erklärung der Lanes eventuell etwas ausführlicher werden, beispielsweise, dass eine Lane eine Datenleitung ist und x MB/s (500 müssten es sein bei PCIe 2.0) bidirektional an Bandbreite bietet.
Den Einfluss der CPU solltest du auch anders einbinden, wie Konze bereits sagte.
 
Nun, als erstes sollte man schon einmal dazu schreiben, was die Abkürzung SLI überhaubt bedeutet.
Dabei gibt es aber zwei Erklärungen

SLI=Scalable Link Interface nVidia SLI seit 2004
SLI=Scan Line Interleave, dieser Begriff wurde von 3dfx bereits 1998 eingeführt.
Beide Varianten haben den Hintergrund die Grafikleistung durch die Nutzung von zwei Grafikkarten oder mehr, im Verbund zu erhöhen.
Als nVidia dann 3dfx übernommen hat, wurde auch das SLI mit übernommen, allerdings arbeiten beide Varianten recht unterschiedlich.

Auch ATI experementierte schon vor nVidia mit zwei Grafikeinheiten. Das System nannte sich seinerzeit "Alternate Frame Rendering" und war der Vorläufer zum heutigen Crossfire kurz CF.
Auch hier hinkt ein direkter Vergleich zu nVidias SLI.


Die Idee, die Grafikleistung durch zwei oder mehr Grafikkarten zu erhöhen ist somit schon ein alter Hut.
Auch ist diese Idee vom Grundsatz zwar gut, allerdings wurde die theroretische Verdoppelung der Leistung nie ereicht, obwohl aktuelle SLI/CF Gespanne manchmal der verdoppelung schon recht nahe kommen.
Dies liegt wohl aber er darin, dass zum einem die jeweiligen Treiber aber auch die genutzten Programme (Games) besser auf Multi-GPU angepasst wurden.

Allerdings sind das nicht die einzigsten Faktoren, die bei der optimalen Ausbeute der möglichen Leistung zweier Grafikkarten eine Rolle spielen.
Hierbei ist die ganze genutzte Hardware endscheident, wo wir bei nächsten Punkt wären.
Eine er schwächere CPU erbeutet aus einem SLI/CF Verbund ebenso wenig Efizienz, wie ein nicht richtig ausgelegtes Mainboard.
Aber auch die Arbeitsspeichergröße und das genutzte Betriebssystem ist nicht unwichtig. Wer hier zu wenig Recoursen bereit hält, fällt auf den Hintern und die Efizienz der genutzten Grafikkarten fällt immer weiter zurück, was sogar so deutlich ausfallen kann, dass plötzlich eine der Grafikkarten allein, stärker arbeitet als beide zusammen.
Wer sich also für diese Art der Grafiklösung endscheidet, sollte das von vornherein mit einplanen, denn viele arbeiten zu beginn erst einmal mit nur einer Grafikkarte und stocken zu einem spähteren Zeitpunkt mit einer weiteren ihr System auf.

Hardwareseitig sollte man folgende Dinge beachten.
1- möglichst starke CPU benutzen (mindestens Quadcore der aktuellen Serien) und gut taktbar sollte sie sein.
2- Mainboard sollte speziel für SLI/CF ausgelegt sein
3- Arbeitspeicher sollte genügend vorhanden sein (ab 4GB)
4- Betriebssystem sollte aktuell sein
5- ausreichend dimensioniertes Netzteil
6- Gehäuse sollte ausreichend Platz haben

Auch sollte man sich vorher endscheiden welchen Grafikkartenhersteller, oder besser gesagt, für welche Variante man mehr tendiert, denn bei vielen Systemen ist immer nur eines der beiden Grafikkartengespanne möglich, also endweder SLI und nVidia Karten oder eben Crossfire und ATI Karten.
Wer sich da nicht sicher ist, sollte zu einer Platform greifen, die beide Möglichkeiten offen hält. An dieser Stelle wäre Intels Sockel LGA 1366 und LGA 1156 genannt, die beides ermöglicht, sowohl SLI wie auch Crossfire.

Wer sich nun für eine Multi-GPU Grafiklösung endschieden hat, sollte aber bedenken, dass solche SLI/CF Verbunde nicht nur Vorteile haben, denn sie bergen auch einige Nachteile in sich.
Sehr bekannt sind da die Microruckler, die dadurch endstehen, dass beide Grafikkarten immer mal Synkronisationsschwierigkeiten bekommen. Durch den internen Abgleich treten dann die Microruckler auf.
Dies ist aber er seltener der Fall, weil die Treiber das mitlerweile recht gut in den Griff bekommen haben.
Auch produzieren solche Gespanne mehr Abwärme, die dann natürlich aus dem Gehäuse muß. Daher sollte zum einem das Gehäuse nicht zu klein sein und zum anderen mit ausreichend Lüftern versorgt werden.
Auch der höhere Stromverbrauch sollte erwähnt werden, welcher nicht nur dafür sorgt, dass ich mehr Geld in ein stärkeres Netzteil stecken muß, sondern auch zu höheren Betriebskosten führt.
Das zusätzlich so ein System kein Leisetreter mehr sein kann, braucht eigentlich auch nicht mehr gesagt zu werden.
Als letzen kritischen Punkt möchte ich erwähnen, dass heutige Grafikkarten fast immer Dualslott Karten sind. Die bedeutet, nutze ich zwei solcher Karten, sind bereits mindestens vier Slotts auf meinem Mainboard belegt.
Das verbauen zusätlicher PCI oder PCIx 1x Karten wird dann sehr schwierig bis gar nicht mehr möglich.
Wer also noch eine Soundkarte und/oder PCIx SSD Festplatten verbauen will, um nur einige zu nennen, der sollte das auf jeden Fall vorher beachten und ein Mainboard kaufen, wo der Betrieb vieler karten noch möglich ist, denn hier gibt es große Unterschiede.
Auch sollte man dann lieber zu einem Big Tower als Gehäuse greifen, weil zwar manchmal noch alle Karten aufs Board passen, aber dann das gehäuse oder Netzteil im weg ist.

Zum Schluß möchte ich noch auf die Lanes eingehen, die vom Mainboard bereit gehalten werden.
Natürlich sollte man ein Board kaufen, was zwei echte 16x Lanes hat. Wer 500 oder 600€ nur für zwei Grakas ausgibt, sollte sicher nicht 20€ am Mainboard sparen wollen, wo liegt da der Sinn?!
Klar ist aber auch, dass der Leistungsunterschied, von 8x Lanes zu 16x Lanes pro Karte nicht groß ist und wird auf 5-10% eingeschätzt, je nach stärke der Grafikkarten.
Wer also bereits ein Board hat, was zwei mal 8x Lanes nutzt, der braucht dies nicht in Rente schicken. Wer aber das System neu aufbaut, der sollte sich nicht scheuen und diese 20-30€ mehr für ein Board mit zwei echten 16x Lanes auszugeben.
Allerdings ist das auch eine Sache der Plattform die ich nutze. Ein LGA 1366 System bringt mir gar nicht erst die Überlegung nach dem richtigen Board, da es eh nur LGA 1366 MoBos mit mindestens zwei mal 16x Lanes gibt.
Ein LGA 1156 System hat aber wiederum das Problem, dass es eigentlich keine MoBos mit zwei echten PCIx 16x Lanes gibt. Um das zu lösen, haben die Mainboardhersteller aber Bretter auf den Markt gebracht, welche mitells zusätzlichen Chip, diese Lanes bereit halten. Allerdings sind diese MoBos allesamt recht teuer, weshalb man auch gleich wieder zum LGA 1366 greifen kann.
Bei AMD habe ich im Gegenzug das Problem ein Mainboard zu bekommen, welches mir nVidias SLI ermöglicht. Da gibt es am Deutschen Markt nur ein oder zwei Bretter mit nVidias nForce Chipbestückung.

Man sieht, es gibt jede Menge zu beachten und zu überlegen. Dazu ist die Sache recht teuer, auch von den Betriebskosten.
Für die meisten ist daher eine potente Singelgrafikkarte immer noch die beste Lösung.;)
 
Sehr bekannt sind da die Microruckler, die dadurch endstehen, dass beide Grafikkarten immer mal Synkronisationsschwierigkeiten bekommen. Durch den internen Abgleich treten dann die Microruckler auf.
Dies ist aber er seltener der Fall, weil die Treiber das mitlerweile recht gut in den Griff bekommen haben.
Das Hauptproblem liegt beim AFR (alternate frame rendering), jede Karte berechnet also abwechselnd ein Bild. Da gibt es eben die angesprochenen Schwierigkeiten.
Nvidia soll das Problem aber momentan besser im Griff haben als ATI.

Natürlich sollte man ein Board kaufen, was zwei echte 16x Lanes hat. Wer 500 oder 600€ nur für zwei Grakas ausgibt, sollte sicher nicht 20€ am Mainboard sparen wollen, wo liegt da der Sinn?!
Klar ist aber auch, dass der Leistungsunterschied, von 8x Lanes zu 16x Lanes pro Karte nicht groß ist und wird auf 5-10% eingeschätzt, je nach stärke der Grafikkarten.
Beim Neukauf stimme ich dir vollkommen zu, aber es gibt ja auch Leute, die sich später eine zweite Karte dazu kaufen. Für diese ist es interessant, wie groß der Leistungsverlust zu vollen x16 Lanes ist.

Man sollte auch noch erwähnen, dass der Grafikspeicher der zwei oder mehr Karten nicht addiert werden kann, zwei 512 MB Karten haben also nicht 1024 MB, sondern zweimal 512. Das liegt daran, dass jede Karte die Bilddaten vorrätig haben muss (Stichwort AFR).
 
Beim Neukauf stimme ich dir vollkommen zu, aber es gibt ja auch Leute, die sich später eine zweite Karte dazu kaufen. Für diese ist es interessant, wie groß der Leistungsverlust zu vollen x16 Lanes ist.

Das habe ich hier,
Wer also bereits ein Board hat, was zwei mal 8x Lanes nutzt, der braucht dies nicht in Rente schicken. Wer aber das System neu aufbaut, der sollte sich nicht scheuen und diese 20-30€ mehr für ein Board mit zwei echten 16x Lanes auszugeben.
bereits geschrieben.;)

Der tatsächliche Leistungsverlust von 2 mal 8x Lanes zu 2 mal 16x Lanes, läst sich pauschal so nicht sagen, weil das auch von anderen Faktoren als eben nur die Anbindung der Lanes zusammenhängt.
Zum einen eben an der Leistung der genutzten Karten, aber auch an der Leistung die mein System als Gesammtpacket bereit hält.
Nutzt du beispielsweise zwei 5850er mit einem AM3 Board was zwei mal 8x Lanes hat, zusammen mit einem PII 955@3,8Ghz, wird der unterschied im Vergleich zu einem AM3 Board mit zwei mal 16x Lanes sicher geringer ausfallen, als auf einen LGA 1156 Board mit zwei mal 8x Lanes, nebst 750er i5@3,8Ghz im Vergleich zu einem LGA 1156 Board mit zwei mal 16x Lanes.
Ich spreche dabei nur auf den Unterschied der jeweiligen Anbindung, nicht von der, dass so ein Intel System mit an Sicherheit grenzender Wahrscheinlichkeit, so oder so das bessere Ergebniss abliefern wird.
Ich glaube auch, dass man bei gleichen Systemen und endsprechender SLI Nutzung, wieder ein anderes Ergebniss hätte.
Daher ist es einfach schwierig genau zu beziffern, wie hoch der Leistungsverlust dann bei jedem tatsächlich ist, aber unterm Strich eben diese 5-10%.
 
Oh sorry, das hatte ich wohl überlesen bei dem langen Text ;)

Ich habe übrigens vor Kurzem einen etwas ausführlicheren Test mit zwei GTX 460 und recht aktuellen Spielen gelesen. Gut, die hatten ihre x16 Anbindung, aber eine Skalierung von über 90% im Schnitt, was ich erstaunlich gut finde.
 
Oh sorry, das hatte ich wohl überlesen bei dem langen Text ;)

Ich habe übrigens vor Kurzem einen etwas ausführlicheren Test mit zwei GTX 460 und recht aktuellen Spielen gelesen. Gut, die hatten ihre x16 Anbindung, aber eine Skalierung von über 90%, was ich erstaunlich gut finde.


Jep, den habe ich auch gelesen. 90% Leistungszuwachs ist schon sehr ordentlich, weshalb ich ja auch schon geschrieben habe, dass heutige Systeme da der "Verdoppelung" der Leistung recht nahe kommen.
In dem Test stand auch, dass solche zwei GTX460 fast 25% mehr Leistung haben als eine GTX480. Betrachtet man den Preis einer GTX480 im vergleich zweier GTX460 gibt das einen schon zu denken.
 
ich hab zu dem test allerdings mal eine frage!
Warum ist der unterschied bei zwischen x8 und x16 bei 1024x768 ohna aa/af größer als bei 2560x1600 mit aa/af ?
sollte der untschied nicht eigentlich bei mehr daten größer sein ?

ich zitiere mich dann nochmal selber nicht das es in vergessenheit gerät^^ kann das vllt iwie erklären ?
 
Nicht selten werden Grafikkarten bei niedrigeren Auflösung mehr belastet als im Vergleich zu hohen.
Das liegt daran, dass bei niedriegen Auflösung, die Grafikkarte im Verhältnis zur CPU eine größere Rolle spielt. Nutzt man eine hohe Auflösung, trägt die CPU einen nicht unwesentlichen Teil zur besseren Leistung bei.
 
Viele Tester nutzen bei Grafikkartentest lieber niedrigere Auflösung für ihre relevanten Aussagen bezüglich der Leistung und das genau aus diesem Grund.
 
Moment mal !
Die Grafikkarte muss doch bei hohen Auflösungen mehr rechnen als bei niedrigeren (da viel mehr Bildpunkte). Bei niedrigen Auflösungen ist die CPU wichtiger, darum werden Spiele bei niedriger Auflösung doch als, mehr oder weniger aussagekräftige, CPU-Tests genommen.
 
Ich habe schon mehr als einmal bei Graka-Tests gelesen, dass bei einem direkten Vergleich von Grafikkarten lieber auf die Werte bei niedrigen Auflösungen geschaut und verglichen wird, weil eben dann die reine "Rohleistung" der Grakas zählt.
Bei hohen Auflösungen und gerade wenn dann die Bildverbesserer mit zugeschalltet sind, spielen noch mehr Faktoren eine Rolle neben der reinen Graka-Leistung.
 

Online-Statistiken

Zurzeit aktive Mitglieder
0
Zurzeit aktive Gäste
291
Besucher gesamt
291

Neueste Themen

Beliebte Forum-Themen

X
Keine passende Antwort gefunden?