Dennoch wirst auch du in Spielen bemerken, ob deine CPU mit 2,6 oder 4,5 GHz taktet....
Fast 2 GHz Unterschied ist schon sehr enorm was du dort vergleichst. Das koennte man eher mit der Architektur vergleichen von Yorkfield vs. Ivybridge - da sind gleiche Zahlen, wie Beispiels ein Quad von Ivybridge naemlich in der Leistung sehr unterschiedlich wie einst ein Quad Yorkfield.
Laut deiner Aussage, hat eine Takterhöhung erst dann Auswirkungen auf die Performance, wenn die Auslastung der Hardware bei 100 bzw. 99% liegt und sie somit limitiert, das ist schlicht und ergreifend nicht ganz richtig. Oder verstehe ich dich hier völlig falsch?
Verallgemeiner es doch nicht in Hardware, es geht um die CPU (nicht GPU).
Das haengt alleine von der Software ab, ob sie diesen Chip auslastet. 99 % Auslastung ist sehr gut, d.h. die Software spricht den Chip bis zum letzen Punkt an. Der eine denkt, - meine CPU ist schon am limit - der andere sagt, sehr gut, die CPU ist am arbeiten, weil die Software so gut programmiert ist, dass sie den CPU ausreizt. Das muss man natuerlich erstmal versuchen zu begruenden welche Aussage Falsch und welche Richtig ist. Ein Gamer kann nur wissen wenn es bei bestimmten Positionen lagt, wie spawn von Gegnern (sehr viele Units die
nicht auf den Bildschirm zusehen sind, weil dafuer ist die CPU zustaendig) oder viele elementarische Objekte die ploetzlich auftauchen. Das kann man am besten testen mit Strategie Spielen, wie Anno, Starcraft 2 & Co. Beim Egoshooter brauch man nichts sagen, da ist die Grafikkarte immer der wichtigste Faktor, weil die Bewegung rundum basiert. Da wirst du kein Unterschied finden ob er nun ein K Modell hat und OC betreibt oder ob er mit dem Standarttakt faehrt.
Und das Wort zukunftsicher ist das absolute no-go. Weil jedes Jahr kommt neue Hardware auf dem Markt.