Intel integriert GPU in CPU

New member
Hi,
hab mal wieder folgenden interessanten artikel gelsen:


wo unteranderm drinsteht das die nächsten neuen Intel CPUs mit integrierter GPU kommen!

Nun würde mich mal interessieren, was genau daran der forteil sein soll?

Klar der weg der daten zwischen CPU und GPU ist schneller und warscheinlich gibt es da keinen datentransport flaschenhals mehr.
Aber die heutigen GPUs werden ja ziemlich heiß.
Will heißen es wird wohl eine eher schwache GPU integriert werden.
Die wiederum würde aber nicht von eventuell vorhandenen flaschenhälsen ausgebremst werden?
Der vorteil der nähe wäre also damit zunichte.

Und da auch eine schwache GPU noch wärme erzeugt scheint es mir eher von nachteil die GPU in den CPU zu integrieren?:bigok:

Aber ihr dürft mich gerne eines besseren belehren.

Gruß Arkos
 
Auf jeden Fall verbilligt das zukünftige Systeme.
Mainboards kämen mit einen einfacheren Layout aus und der Einsatz von aktiven und passiven Bauelementen würde rapide sinken.

Mach Dir mal keine Sorgen.
Derzeitig berechnen die GPUs die den Gamingsektor beherrschen entschieden(st) mehr Terraflops, als selbst die allerpotentisten CPUs dies könnten.
Für den Gamer wird diese Vereinigung so schnell nicht stattfinden können.
So ein Rechenwerk wäre selbst mit kleineren als heute noch als modern geltenden Strukturbreiten einfach nicht mehr zu kühlen.
Für Bürorechner, HTPCs und embedded systems ist wegen der ja eher geringen Anforderungen an die Grafik, damit sicher in geschichtlich kurzer Zeit mit dieser Vereinigung zu rechnen.
 
Ich finde das ganze an sich gut, da wie Horst ja schon gesagt hat die Preise vielleicht sinken werden. In der Herstellung im Verhältnis auf jeden Fall, es ist nr die Frage in wie fern die Konzerne dies weitergeben an den Kunden.

Interessant könnte dies aber für HTPC's und Notebooks werden da dort eh wenig Platz ist und die Kühlung dort eine wichtige Rolle spielt und durch eine integrierte GPU in der CPU vereinfacht werden könnte.

Ein großer Nachteil finde ich ist, dass wenn die Leistung der einzelnen Komponente (z.B. CPU Leistung an sich) innerhalb der CPU mit integrierter GPU nicht mehr für aktuelle Programme/Spiele ausreicht man trotzdem das gesamte Bauteil austauschen muss zwecks Aufrüsten, auch wenn das andere Element (z.B. GPU) von der Leistung noch ausreichen würde.
Ob die gesenkten Preise dies wett machen wage ich zu bezweifeln.

An anderer Punkt den ich interessant finde ist das Thema übertakten bei einen solchen Produkt. Ich frage mich ob und wenn, wie das ganze ablaufen würde. Nicht das die Konzerne dem ein Riegel vorschieben und so dem Kunden immer neue Produkte aufzwingen würden, nochmehr als sie es eh schon tun.
 
Zuletzt bearbeitet:
Was mich vor allem interessiert sind die Anschlussmöglichkeiten... ich mein, wohin überträgt die GPU die Signale? Kommt dann jedes Board mit HDMI Ausgang und DVI? Wär ja schade um die USB Ports... oder sind das nur einzelne für solche Prozessoren gedachte Boards? Bin echt mal gespannt wie die sich das vorstellen...
 
Was mich vor allem interessiert sind die Anschlussmöglichkeiten... ich mein, wohin überträgt die GPU die Signale? Kommt dann jedes Board mit HDMI Ausgang und DVI? Wär ja schade um die USB Ports... oder sind das nur einzelne für solche Prozessoren gedachte Boards? Bin echt mal gespannt wie die sich das vorstellen...

Naja diese Jahr kommt doch Usb 3 . Da kann man sich sowas schon vorstellen.

BTT

Ich seh das auch so das das super ist. en preis für alles sinkt lässt und zusammen weniger Platzt braucht.
Aber zuerst nur für Bürorechner und und und.
Da Gamer doch eher mal nur Graka b.w. Cpu aufrüsten und da sie beides kaufen müssen wäre es ja sozusamensinnfrei.

Darum denke ich das es sich bei Normalanwender de immermal aufrüsten noch dauern wird bis man sowas hinbekommt.
 
Grundsätzlich finde ich die Idee auch gut, nur Intels Umsetzung ist mehr als bescheiden:

Zunächst wären da mal die 2 Dies, die plaziert werden.Wird einer der beiden Komponeten heißer, könnte sich das je nach Kühler negativ auswirken.
Zweiter Punkt ist die Fertigungs Struktur: Warum 45nm für die Grafik und 32nm für die CPU? Warum nicht alles in 32nm auf ein größeres Die, wäre ja dann etwa so groß wie ein 4 Kerner.(gut, dagegen sprechen die Field Rates, aber dann doch wenigstens 2 Dies in 32nm.)

Und Horst was du meinstes, wegen der Anbindung, ich glaube so viel einfacher wird die gar nicht, nur Intel wirbt mal wieder mit etwas was Nvidia schon Jahre hat.
Selbst mein Uralt nForce 560 hat nur einen Chip, und den braucht Intel ja auch, zu8r Anbindung vom Rest.

Meine allergrößte Sorge ist jedoch Intels Treiberentwicklung: Ich weiß zwar nicht was die da machen, aber viel ist es ja nicht gerade, die Performance ist für en A**** und die Intel Treiberseite ist alles andere als besucher freundlich.

Ich glaube da kommt noch ne Menge auf Intel zu, hoffe das AMD so konsequent ist und die genannten Punkte besser macht.

Aber an sich, bin ich dafür :)


*Edit* gerade das hier bei CB gelesen, Intels neuer Chaosplan:
Jedoch wird Larrabee eventuell auch den Schritt zurück machen, zumindest berichtet das die Gerüchteküche Fudzilla. Demnach wird es Larrabee nicht nur in verschiedenen Varianten als Grafikkarte zu kaufen geben, sondern wohl ebenso als Integrated Graphics Processor, kurz IGP, auf Mainboards sowie eventuell auch in Notebooks.
Das eine kommt in die CPU das andere daneben, damit auch jar keiner weiß, was er bekommt wenn er nen fertig rechner holt...:fresse:
 
Zuletzt bearbeitet:

Online-Statistiken

Zurzeit aktive Mitglieder
0
Zurzeit aktive Gäste
366
Besucher gesamt
366

Neueste Themen

Beliebte Forum-Themen

X
Keine passende Antwort gefunden?