GHZ Träume

Status
Für weitere Antworten geschlossen.
New member
Wieso Bauen die ganzen Hersteller so lahme kisten?
Anstatt 6 core prozessoren zu entwickeln wäre es sinnvoll 6GHZ für nen 2 core zu entwickeln oder bekommen die es einfach nicht hin?!

Oder Pflanzt ein 10GHZ Chip drauf aber hört mit den ganzen fake cores
 
Ich hab erst letztens ein Video gesehen, in dem intel sagt, das man schon an der oberen GHz Grenze angelangt ist, aber bis zu 1000 Kerne möglich sind..

der Leistungsschub mit mehr Kernen immer geringer wird.... Da bringt der Sprung von 500 auf 600 Kerne evtl. nur noch 10% Leistung wenn überhaupt. Kannst ja selbst beobachten der Sprung von den Single Cores zu den Dual Cores bringt so richtig dick Leistung, von 2 zu 4 Kernen wirds schon weniger und von 4-6 siehst ja selbst x4 und x6, da is nur noch 30% Mehrleistung wenn überhaupt bei gleichem Takt.

Erwschwerend dazu kommt die Größe von den Dingern, überleg doch mal wie groß die wären ? Und viel kleiner in der Fertigung werden die nicht mehr, da die Entwickler jetzt schon "kämpfen" mit den geplanten größen.

@Timbo warum das nicht möglich ist, weil das Silizium das einfach nicht mitmacht(evtl. 10GHz noch bei dementsprechender Temp., aber auch nur geschätzt, da das Zeug bei zunehmender Kälte besser läuft) außer du enteckst ein neues Element, das das schaft.

ich schätze mal das müsste jeder selber entscheiden, wofür er das benutzt

???

man könnte doch auch nen prozessor mit 1 kern und 2342543 thz bauen dann könnte man alles damit machen... sogar ganze städte mit warmwasser versorgen :)

Falls das möglich wäre brüchtest, aber auch 5 Atomkraftwerke vorm Haus damit du genung Saft bekommst.

Und die Stromrechnung wäre nach ner Std. 6 Stellig.
 
Zuletzt bearbeitet:
Der maximale Takt bei einem Chip hängt auch stark von dessen Architektur ab. Da spielt beispielsweise die Pipeline eine Rolle. Außerdem ist auch die Lichtgeschwindigkeit begrenzt, daher gibt es bei einer gewissen Strukturbreite sowieso eine physikalische Grenze.
 
Rein technisch ist es oft so das aufwändigere Anwendungen eher von mehr Kernen als von mehr Takt profizieren. Aufgaben die gleichzeitig ausgeführterden können (2 durchläufe einer x-fachen Wiedehrolung z.B.) sind sehr gut auf 2 oder mehr Kerne verteilbar, für einen ähnlichen Beschleunigungserfolg bräuchte man also theoretisch dann fast den doppelten Takt ;)
 
-> wer sagt hier das 6 Ghz+ nicht machbar wären? :D

keiner sagt das es nicht geht.

Nur wirds schwer das Massenhaft zu verkaufen, da ist die Stickstoffkühlung fast dein kleinstes Problem, denn was glaubst wie die selektieren müssten ? Den Takt würde nur jede 100 CPU mitmachen.

Und ich denk mal allzulang macht die CPU den Takt auch nicht mit. Für den 24/7 Betrieb ist das völlig unbrauchbar, da du nach geraumer Zeit ne Spannungserhöhung brauchen würdest.

@T: Du kannst ja von GHz träumen, aber das Ziel der Zukunft heißt ganz klar Software Opitmierung. Denn mit ner guten oder sogar "Perfekt" (falls es sowas gibt) Programmierung brauchen sogut wie alle Anwendungen nur einen Bruchtteil der jetzt benötigten Leistungsrecourcen.
 
keiner sagt das es nicht geht.

Nur wirds schwer das Massenhaft zu verkaufen, da ist die Stickstoffkühlung fast dein kleinstes Problem, denn was glaubst wie die selektieren müssten ? Den Takt würde nur jede 100 CPU mitmachen.

Und ich denk mal allzulang macht die CPU den Takt auch nicht mit. Für den 24/7 Betrieb ist das völlig unbrauchbar, da du nach geraumer Zeit ne Spannungserhöhung brauchen würdest.

@T: Du kannst ja von GHz träumen, aber das Ziel der Zukunft heißt ganz klar Software Opitmierung. Denn mit ner guten oder sogar "Perfekt" (falls es sowas gibt) Programmierung brauchen sogut wie alle Anwendungen nur einen Bruchtteil der jetzt benötigten Leistungsrecourcen.

haha jede 100 :bigok:

Ich glaub du hast noch ein paar Nullen vergessen ;)
 
Das ganze ist sowieso Schwachsinn.
Nur sehr wenige Anwendungen können die Leistung eines modernen Quad- oder Hexacore ausnutzen.

Die Anwendungen, die sehr viel Rechenleistung benötigen wie Raytracing sind meist so gestaltet, dass der eigentliche Prozess geforkt wird und dann die Threads einzeln arbeiten.

Sieht man sehr gut daran, dass ganze Serverfarmen damit beschäftigt sind Frames für irgendwelche Animationsfilme zu rendern. Gerade Raytracing kann mehr extrem gut auf viele Cores verteilen.

Das Gerede, dass mehr Cores kaum einen Leistungsschub bringen ist damit hoffentlich vom Tisch.
Wenn ich etwas in Blender render, geht das schneller, wenn ich auf 4 Cores rendern lasse als auf einen.

Auch liegt die Obergrenze für Cores Momentan nicht bei 6 sondern höher.
Wer interessiert ist, kann sich ja den SPARC-T3 bzw. die SPARV V9 Serie von Oracle (Sun) angucken.

Sorry falls ich zu persönlich geworden bin, aber immer dieses Halbwissen regt micht einfach auf.
Multicore-Prozessoren, sind am Besten in Servern aufgehoben. In einem Home-PC sind sie eigentlich nie zu 100% ausgelastet.
Außer synthetische Benchmarks oder andere Anwendungen die alle Cores nutzen. Aber das sind Ausnahmen.
 
Ich frage mich manchmal ob die Spiele heutzutage echt so viel Rechenleistung brauchen. Manchmal hab ich echt das Gefühl, die werden von AMD und Intel bezahlt, um da irgendnen Mist reinzupacken der die CPU nur belastet damit die Nutzer sich für ihre Spiele bessere PCs kaufen ^^. Oder die CPU wird so aufgebaut, dass sie einfach durch Spiele extrem belastet wird. Ich kann mir kaum vorstellen, dass ein Spiel so viele Operationen machen kann, dass es einen Quadcore so stark belastet.. Klingt nach ner Verschwörungstherorie, aber was haltet ihr davon?
 
Das ganze ist sowieso Schwachsinn.
Nur sehr wenige Anwendungen können die Leistung eines modernen Quad- oder Hexacore ausnutzen.

Die Anwendungen, die sehr viel Rechenleistung benötigen wie Raytracing sind meist so gestaltet, dass der eigentliche Prozess geforkt wird und dann die Threads einzeln arbeiten.

Sieht man sehr gut daran, dass ganze Serverfarmen damit beschäftigt sind Frames für irgendwelche Animationsfilme zu rendern. Gerade Raytracing kann mehr extrem gut auf viele Cores verteilen.

Das Gerede, dass mehr Cores kaum einen Leistungsschub bringen ist damit hoffentlich vom Tisch.
Wenn ich etwas in Blender render, geht das schneller, wenn ich auf 4 Cores rendern lasse als auf einen.

Auch liegt die Obergrenze für Cores Momentan nicht bei 6 sondern höher.
Wer interessiert ist, kann sich ja den SPARC-T3 bzw. die SPARV V9 Serie von Oracle (Sun) angucken.

Sorry falls ich zu persönlich geworden bin, aber immer dieses Halbwissen regt micht einfach auf.
Multicore-Prozessoren, sind am Besten in Servern aufgehoben. In einem Home-PC sind sie eigentlich nie zu 100% ausgelastet.
Außer synthetische Benchmarks oder andere Anwendungen die alle Cores nutzen. Aber das sind Ausnahmen.

Wer sagt das es nicht mehr als 6 Cores gibt ???

warum sind Multicore CPUs am besten in Servern aufgehoben ? Sag mir doch mal wie du High End Spiele mit nem Single Core spielen willst ? Zu 100% wird ne CPU wirklich nicht ausgelastet, aber auch nicht in Benchs oder sonst wo sondern nur zu 99,9%.

Btw. meine CPU wird bei Metro zu gut 95% ausgelastet und die 4% sind ja wirklich nicht relevant.


@Double in den meisten Fällen liegts einfach an der von mir schon erwähnten Programierung(außer bei Spielen wie Batman, da mukelt man ja was anderes...).

Da heißts halt dem Entwickler so bis dahin habt ihr Zeit und Geld fertig aus, dann muss das Game fertig sein. Oder es sind einfach Kopien von Konsolen Versionen, die ham dann auch immer nen guten Hardwarehunger.
 
Status
Für weitere Antworten geschlossen.

Online-Statistiken

Zurzeit aktive Mitglieder
0
Zurzeit aktive Gäste
194
Besucher gesamt
194

Neueste Themen

Beliebte Forum-Themen

X
Keine passende Antwort gefunden?