Für einen i5 2500k und der HD6870 würde ebenfalls noch ein 400W Netzteil (das Cougar A400) genügen, da beide zusammen unter Vollast nicht ganz an die 300W herankommen (inklusive Festplatten, Laufwerke und Peripherie).
Mainboard wäre dann natürlich ein p67 oder z68 vorzuziehen, um den freien Multiplikator vom "K" Model nutzen und hochtackten zu können.
Die HD6870 hat ein Spitzen P/L Verhältnis und wäre noch eine passable Wahl für einen i5 2500k.
Bei der Auslastung von CPU/GPU in Spielen gibt es Unterschiede.
Es gibt Spiele da läuft die GPU permanent auf 99%, jedoch throttelt die CPU!
Andererseits gibt es Spiele, wo die CPU am Anschlag rennt, die GPU aber schläft (oft auch durch Vsync hervorgerufen, was durchaus sinnvoll ist.)
Mit BF3 ist nun eines der ersten Spiele auf den Markt, welches eine starke CPU und GPU bei hohen Settings gleichermaßen beansprucht (beide schwanken jeweils zwischen 60/70-99% Auslastung).
Eine starke CPU wäre hier sogar einer starken GPU vorzuziehen, da die CPU der GPU die Bilder vorrechnet. Kommt diese nicht mit, hat die GPU nichts zum hochrechnen

.
Dennoch ist, wie du schon angesprochen hast, es immer recht Sinnvoll, die CPU in Relation (und umgekehrt) zur GPU anzuschaffen. Sprich man keine GT520 mit einem intel i5 2500k verbaut, wenn man spielen möchte, oder einen AMD PHENOM II X2 mit einer GTX560Ti verknüpft, um es extrem darzustellen.
Der Verbrauch des AMD FX-4100 liegt 5-10W unterhalb des i5 2500k, bei Volllast. Bietet aber rund 15-20% weniger Leistung. Ein AMD System kostet jedoch durch günstigeres MB+CPU gut 100€ weniger.
Sprich bei Intel zahlt man für die 15-20% mehr Leistung ebend die 100€ Aufpreis.
Im übrigen lässt sich der FX-4100 ziemlich stark undervolten, oder bei Stock Spannung schon bis auf 4,2-4,3ghz/Kern anheben.
(Für Begrifflichkeiten notfalls bitte googeln, sonst wird der Thread zu lang :P)
Ein i5 2500k lässt sich mit gutem Luftkühler leicht auf 4,5ghz anheben, bringt dadurch ~21% Mehrleistung auf den Tisch, verbraucht dabei aber auch gut 30-40Watt mehr

.
Ein zum FX-4100 gleichteurer/leistungsähnlicher Phenom II X4 955 liegt im Verbrauch rund 20Watt höher als der FX-4100.
Ein System welches in DX11 spielen 300Watt zieht, am Tag 2h bespielt wird, kostet
im Monat 2h x 0,3kw x 0,23€/kwh x 30Tage = ~4,14€
bei 20Watt weniger würde das ganze kosten:
im Monat 2h x 0,28kw x 0,23€/kwh x30Tage = ~3,87€
Wäre also pro Monat um 27cent günstiger. Auf das Jahr gerechnet 3,24€.
Um auf 15€/Jahr zu kommen, müsste man somit schon jeden Tag ~8-9Stunden spielen, damit die 15€ Differenz auf das Jahr gerechnet zu tragen kommt.
Über [
Link nur für registrierte Mitglieder sichtbar. Bitte einloggen oder neu registrieren ] kann man viel rauf und runterrechnen, wenn man einen Nachweis möchte. Ebendso lassen sich im Netz zu hauf Systeme mit Verbrauchsangaben finden.
Ergo, der Unterschied ist zu den Anschaffungskosten gerechnet marginal, außer man spielt wirklich 10-12Stunden pro Tag. Im idle Unterscheiden sich die Systeme noch weniger.
Die Leserate der SSD hat nichts mit dem CPU Takt zu tun. Eine 4-5 mal schnellere FEstplatte macht bei vielen Programmen/Spielen schon sehr viel Sinn/Nutzen. Auf Youtube lassen sich vielerlei SSD vs HDD Videos anschauen, um mal den praktischen Nutzen hervorzuheben. Und bei den aktuellen Preisen der mechanischen Festplatten, bleibt der Preisunterschied beim Nutzen für das System/Programme/einige Spiele minimal.