Zitat:
Zitat von NikoBellic
Strom ist strom.
|
Geile Aussage.

Das ist genauso als ob man sagt "Gleichstrom ist Gleichstrom weil er gleich kommt und auch gleich Bezahlt werden muss"
Und auch die Aussage
Zitat:
Zitat von NikoBellic
Wichtig ist, wie viel Ampere über die 12 V Schiene fließt
|
ist technisch gesehen vollkommener Quatsch. Die 5 VDC und die 3.3 VDC laesst du vollkommen unter den Tisch fallen, obwohl diese auch fuer die modernen Grafikkarten (PCI) wichtig sind.
Eine vernuenftige Antwort hat der Fragesteller damit nicht bekommen!
Zitat:
1. Ist der stom bei einem NT von modell zu modell anders?
2. sind 30A für eine GK realitisch?
3. wieviel A sind gut/mittelmäsig/schlecht?
|
Zu 1) Ja
Zu 2) Nein - siehe hier [
Link nur für registrierte Mitglieder sichtbar. Bitte einloggen oder neu registrieren ]
Auszug des sehr langen Artikel
Nachtrag vom 7. Mai 2009
HT4U sind der Sache der Verlustleistung von Grafikkarten unter Spielen nun aber wirklich tiefgehend auf den Grund gegangen und haben 15 Spiele mit jeweils zwei Grafikkarten von ATI und nVidia vermessen – wobei natürlich immer nur die Leistungsaufnahme der Grafikkarte selber gemessen wurde, nicht die des Gesamtsystems. Damit läßt sich nunmehr ziemlich gut überblicken, wie beispielsweise die langjährig genutzten Verlustleistungsangaben der X-bit Labs auf Basis von 3DMark06 einzuordnen sind – oder auch ob diverse Spiele wirklich in die Nähe der (enormen) Verlustleistungswerte eines FurMarks kommen.
TDP 3DMark06 3DMark06 FurMark Spiele
Radeon HD 4850 512MB 114W 110W 113W 151W 103-126W
(ø 114W)
Radeon HD 4890 1024MB 190W 120W 136W 211W 127-154W
(ø 142W)
GeForce GTS 250 1024MB 150W 81W 96W 141W 81-122W
(ø 102W)
GeForce GTX 285 1024MB 183W 150W 167W 211W 139-186W
(ø 166W)
Eigentlich ist damit schon des Rätsels Lösung gefunden: So ist der 3DMark06 als Meßinstrument für die Verlustleistung generell benutzbar, dieser Benchmark liegt im Mittel nur 3 Prozent neben dem Durchschnittswert aller 15 Test-Spiele. Allerdings bezieht sich dies nur auf die 3DMark06-Messungen seitens HT4U – nicht auf diese der X-bit Labs, welche durchgehend klar niedriger ausfallen als diejenigen von HT4U. Entweder verwenden die beiden Webseiten hier eine differierende Testsequenz oder aber eine andere Meßmethodik – in jedem Fall erscheinen uns die Meßwerte seitens HT4U als deutlich plausibler, während zu den 3DMark06-Werten der X-bit Labs nicht erst seit obigem Vergleich einige Fragen gestellt werden müssen.
Gleichzeitig wird mit den umfangreichen Messungen seitens HT4U auch deutlich, daß derzeit kein Spiel wirklich in die Nähe der Werte eines FurMarks kommt, dieser Benchmark also schwerlich als Maßstab für den Spieleverbrauch herangezogen werden kann (zur Kontrolle der Herstellerangabe bei der TDP aber schon). Selbst das (mehr oder weniger) durchgehend an der Spitze beim Verbrauch der Spieletitel liegende BioShock liegt im Schnitt aller Messungen immer noch um 17,5 Prozent hinter dem Verbrauch des FurMark zurück – im Schnitt aller Spiele sind es im übrigen 26,6 Prozent Differenz, ein mehr als klarer Unterschied zwischen dem Spiele- und dem FurMark-Verbrauch.
Zu 3) Die Frage ist so nicht stimmig. Ein NT muss auf das gesammte System zugeschnitten sein - also Gesamtstromaufnahme des Systems plus 10% bis 20% Reserve. Du faehrst ja ein Auto auch nicht immer mit Vollgas