Willkommen |
|
myGully |
|
Links |
|
Forum |
|
|
|
|
16.12.11, 14:12
|
#1
|
Klaus Kinksi
Registriert seit: Oct 2009
Beiträge: 51.504
Bedankt: 55.361
|
Spezifikationen der HD 7970 bekannt?
Zitat:
In den letzten Tagen sind immer mehr Spezifikationen der kommenden HD 7970 im Internet aufgetaucht. Erfahren Sie mehr.
Es wird gemunkelt, dass AMD den Release der HD 7970 auf den 22. Dezember 2011 vorgezogen haben soll und schon kommen die ersten Informationen zu den Spezifikationen aus der Versenkung. So berichtet Donanimhaber, ONR und VR-Zone, dass die Radeon HD 7970 basiert auf dem Tahiti XT mit GCN-Architektur und soll bereits DX11.1 sowie PCI-Express 3.0 unterstützen.
Die GPU soll stolze 2.048 Shader-Einheiten bieten, die Taktrate des Chips soll sich demnach auf 925 MHz belaufen. Der Takt des GDDR5-Speichers 2.750 MHz, angebunden werden die satten 3 GiByte angeblich mit 384 Bit. Die ROP-Anzahl soll bei 32 liegen, damit würde die Radeon HD 7970 über so viele verfügen wie die Radeon HD 6970. Bedingt durch einen 6- und einen 8-Pin-Anschluss soll die TDP unter Last bei maximal 300 Watt liegen, im Leerlauf soll die Radeon HD 7970 nur 3 Watt benötigen.
|
[ Link nur für registrierte Mitglieder sichtbar. Bitte einloggen oder neu registrieren ]
|
|
|
16.12.11, 15:22
|
#2
|
Doomsayer
Registriert seit: Aug 2009
Beiträge: 1.793
Bedankt: 1.493
|
Hört hört, kommt AMD endlich mal auf die Idee, die Bandbreite der Speicheranbindung zu erhöhen? Sieht lecker aus. Vielleicht lohnt es sich, von der 5870 auf diese hier umzusteigen - von der 6970 konnte ich mich nicht so überzeugen lassen.
__________________
Die zwei eisernen Regeln des Erfolgs: 1. Verrate niemals alles, was Du weißt.
|
|
|
18.12.11, 18:34
|
#3
|
Stammi
Registriert seit: Aug 2009
Ort: GermanY
Beiträge: 1.065
Bedankt: 151
|
hoffentlich werden dann die 6000er billiger
|
|
|
18.12.11, 20:18
|
#4
|
„Seife“ MacTavish
Registriert seit: Sep 2009
Beiträge: 305
Bedankt: 680
|
3 Watt im Standby? aber hallo
Mal sehen wie viel es dann auch kosten wird. Besitze zwar grad eine 465GTX Twin Frozr II, doch umsteigen kann man immer. Wenn sie auch wirklich so gut wird wie es beschrieben wird.
__________________
|
|
|
18.12.11, 20:24
|
#5
|
Süchtiger
Registriert seit: Sep 2009
Beiträge: 920
Bedankt: 363
|
300watt in volllast....ist das wirklich nötig?
finde ich ja ein wenig übertrieben.
besonders wenn man vieleicht mal 2 einbauen solte
aber naja...solche karten werde ich mir eh kaum kaufen^^
|
|
|
18.12.11, 20:40
|
#6
|
Mitglied
Registriert seit: Jan 2010
Beiträge: 387
Bedankt: 433
|
Zitat:
Zitat von Evangelium
300watt in volllast....ist das wirklich nötig?
finde ich ja ein wenig übertrieben.
besonders wenn man vieleicht mal 2 einbauen solte
aber naja...solche karten werde ich mir eh kaum kaufen^^
|
der sich eine solche gpu kauft den interessiert doch stromverbrauch nicht. Mir persöhnlich ist es echt schnuppe ob das teil 250 oder 300w verbraucht
|
|
|
18.12.11, 21:23
|
#7
|
Movement Gamer
Registriert seit: Feb 2010
Ort: from Hell
Beiträge: 1.005
Bedankt: 1.196
|
Zitat:
Zitat von Evangelium
300watt in volllast....ist das wirklich nötig?
finde ich ja ein wenig übertrieben.
|
Ist eigentlich völlig normal der Stromverbrauch, eine GeForce GTX 480 braucht ja auch schon 250 Watt unter vollast.
Dafür ist die Leerlaufspannung wirklich extrem niedrig, die meisten anderen gängigen Grakas kommen da nicht unter 30Watt.
Und die Leistung der Karte wird um ein vielfaches höher sein.
|
|
|
18.12.11, 21:37
|
#8
|
Süchtiger
Registriert seit: Sep 2009
Beiträge: 920
Bedankt: 363
|
ja..bei den ganzen pc gaming freak sicherlich nicht viel...aber für mich als konsolero zu viel.
zumal meine kleine 5670 grade mal 75watt verbraucht.
und ich damit auch noch eigendlich das meiste spielen kann.
finde einfach sowas kann man auch effizienter gestalten
bin aber einfach solche dimensionen nicht umbedingt gewohnt^^
|
|
|
18.12.11, 21:54
|
#9
|
Mitglied
Registriert seit: Jan 2010
Beiträge: 387
Bedankt: 433
|
Zitat:
Zitat von Evangelium
ja..bei den ganzen pc gaming freak sicherlich nicht viel...aber für mich als konsolero zu viel.
zumal meine kleine 5670 grade mal 75watt verbraucht.
und ich damit auch noch eigendlich das meiste spielen kann.
finde einfach sowas kann man auch effizienter gestalten
bin aber einfach solche dimensionen nicht umbedingt gewohnt^^
|
Diese GPU kaufen sich ja auch nur Enthusiasten.
Vielen geht es nur um die Leistung nicht um den Verbrauch.
|
|
|
18.12.11, 21:56
|
#10
|
Der schon wieder
Registriert seit: Apr 2010
Beiträge: 953
Bedankt: 450
|
Naja, dafür habt ihr aber auf der Konsole ja auch nicht die schönste Darstellung.
Bei den meisten FPS Spielen geht es um die Frames, ich kenn haufen leute die zwar eine ansehnliche Hardware haben aber die Einstellungen bei BF3 und Co. Ganz runter schrauben damit sie in Kritischen Situationen genügen Frames haben.
Zu dem soll ja die Rohleistung der HD7970 (Ohne Tesslation) 10-20% mehr betragen als bei der GTX580 (Achtung Gerücht!!!) und das ist dann schon eine Ordentliche Leistung da ist so ein Verbrauch ganz normal.
Was ich sehr gut finde sind die 3GB VRAM die endlich mal Standard werden, so kann man jetzt getrost mal ein Spiel mit Eyefinity Zocken ohne das man gleich die Einstellungen Runter schrauben müsse.
|
|
|
19.12.11, 00:19
|
#11
|
Doomsayer
Registriert seit: Aug 2009
Beiträge: 1.793
Bedankt: 1.493
|
Nur 20% mehr als eine GTX 580, und dann auch noch ohne Tesselation? Bei den meisten Spielen ist eine ATI- GraKa doch sowieso schon im Hintertreffen (Beispiel PhysX), weil vieles Pro-Nvidia entwickelt wird. Aber so wenig Leistungszuwachs im Vergleich zu einer ebenfalls schon leicht betagten Modellreihe des Konkurrenten ist schon ein bisschen sehr bedenklich. Man wird sehen...
Tante Edit sagt: Hier mal die vorab geleakten Informationen in Form einer Präsentation, die wohl vor Ablauf der Sperrfrist veröffentlicht wurde: [ Link nur für registrierte Mitglieder sichtbar. Bitte einloggen oder neu registrieren ]
__________________
Die zwei eisernen Regeln des Erfolgs: 1. Verrate niemals alles, was Du weißt.
|
|
|
19.12.11, 00:22
|
#12
|
Klaus Kinksi
Registriert seit: Oct 2009
Beiträge: 51.504
Bedankt: 55.361
|
Bei den meisten Spielen. Wie viele Spiele mit PhysX kennst du denn? Das sind ja nur eine Handvoll.
Also wieso sollte AMD denn benachteiligt sein?
|
|
|
19.12.11, 01:05
|
#13
|
Doomsayer
Registriert seit: Aug 2009
Beiträge: 1.793
Bedankt: 1.493
|
Nun ja - Frostbite setzt auf PhysX. UE3 setzt auf PhysX. Creation (Bethesda) setzt auf PhysX. Und wenn man sich Benchmarks anschaut, sind Nvidia- Karten in den Spielen, die auf eine dieser Engines setzen, meist schneller untwerwegs. Fallout 3, Unreal Tournament 3, Bad Company 2, da waren vergleichbare Nvidia- Modelle schneller - aus dem Grund, dass die lästige Physikberechnung von der GPU übernommen wird, und nicht von der CPU.
Und was Tessellation angeht, das war (zumindest für mich) bei Metro 2033 mit meiner HD 5870 ein absolutes Disaster, da war jede Nvidia 4xx besser dran.
Es wäre schön, wenn die großen, namhaften Spiele mal beides benutzen... PhysX und Havoc. Dann ist keine der beiden Kartenfamilien benachteiligt.
EDIT: Mich macht gerade eine der Präsentationsfolien stutzig - PCIE x32? Gibt es das schon bzw. welches Board wäre ein Beispiel für diese Anbindung?
__________________
Die zwei eisernen Regeln des Erfolgs: 1. Verrate niemals alles, was Du weißt.
|
|
|
19.12.11, 01:11
|
#14
|
Klaus Kinksi
Registriert seit: Oct 2009
Beiträge: 51.504
Bedankt: 55.361
|
Naja das liegt ja aber an den Spieleherstellern.
Ist das Gleiche wie mit AMD und Intel. Da wird AMD durch Software auch oft benachteiligt. Wodurch Intel dann in Benchmarks besser da steht.
|
|
|
19.12.11, 10:07
|
#15
|
Minecraft Freak
Registriert seit: Nov 2010
Beiträge: 672
Bedankt: 4.360
|
Ich bin gerade gekommen... Das Ding hol ich mir zu Weihnachten.
__________________
Uploader im Ruhestand
|
|
|
19.12.11, 13:14
|
#16
|
Doomsayer
Registriert seit: Aug 2009
Beiträge: 1.793
Bedankt: 1.493
|
Dann darf man davon ausgehen, dass dieses Monster so richtig loslegt, wenn es in einen PCIE x32 - Slot gesteckt wird? * Mal schauen. jetzt habe ich wenigstens einen Anfang zum googlen.
EDIT: Wenn das hier stimmt ([ Link nur für registrierte Mitglieder sichtbar. Bitte einloggen oder neu registrieren ]) dann passt das sauber zusammen. Dieses Jahr (oder Anfang nächstes Jahr) die GraKa, und Ende nächstes Jahr dann das neue Board mit CPU. Die werden dann wohl erst einmal AMDs davonsausen - das wäre dann mein erster Intel seit 7 Jahren.
EDIT2: * wenn diese GraKa es denn schafft, PCIE 2.0 auszulasten. Das bleibt noch zu beweisen.
__________________
Die zwei eisernen Regeln des Erfolgs: 1. Verrate niemals alles, was Du weißt.
|
|
|
19.12.11, 13:28
|
#17
|
Klaus Kinksi
Registriert seit: Oct 2009
Beiträge: 51.504
Bedankt: 55.361
|
Na jetzt gleiche eine der 7000er Serie würde ich mir nicht holen. Die haben doch dann nur das Referenzdesign, und wer will das denn haben?
Auch wenn AMD die Kühlung überarbeitet hat.
|
|
|
19.12.11, 13:38
|
#18
|
Doomsayer
Registriert seit: Aug 2009
Beiträge: 1.793
Bedankt: 1.493
|
Was meinst Du mit Referenzdesign?
__________________
Die zwei eisernen Regeln des Erfolgs: 1. Verrate niemals alles, was Du weißt.
|
|
|
19.12.11, 13:42
|
#19
|
silent guardian
Registriert seit: Apr 2009
Ort: Gotham
Beiträge: 2.756
Bedankt: 1.172
|
Zitat:
Zitat von TheBandicoot
Nun ja - Frostbite setzt auf PhysX. UE3 setzt auf PhysX. Creation (Bethesda) setzt auf PhysX. Und wenn man sich Benchmarks anschaut, sind Nvidia- Karten in den Spielen, die auf eine dieser Engines setzen, meist schneller untwerwegs. Fallout 3, Unreal Tournament 3, Bad Company 2, da waren vergleichbare Nvidia- Modelle schneller - aus dem Grund, dass die lästige Physikberechnung von der GPU übernommen wird, und nicht von der CPU.
|
Ist das dein Ernst? Sorry, aber ich kann nur den Kopf schütteln.
PhysX ist ein reines Zusatzfeature und keine grundlegende Schnittstelle.
Nvidia-Karten waren mit aktivierter PhysX-Darstellung sicherlich nicht schneller als Modelle von ATI und direkt vergleichen lässt sich PhysX-on und PhysX-off ohnehin nicht miteinander.
Ganz zu schweigen davon, dass weder BF:BC2, noch BF3 bzw. Frostbite 2 PhysX unterstützen. Fallout 3/Gamebryo erst recht nicht und auch in Skyrim/Creation gibt's keine Spur davon.
__________________
Chase me, hunt me, condemn me. I can take it.
|
|
|
19.12.11, 13:57
|
#20
|
Doomsayer
Registriert seit: Aug 2009
Beiträge: 1.793
Bedankt: 1.493
|
Sicherlich ist es nur ein Zusatzfeature. Es ist aber essentiell. Physikberechnungen lassen sich von GPUs wesentlich performanter und schneller abarbeiten als von CPUs, und von Physikberechnungen strotzen die genannten Engines an allen Ecken und Enden. Meine einzige Erklärung ist also, dass Nvidia- Karten vergleichbarer Modellreihen deswegen schneller bei diesen Spielen unterwegs sind, weil die Physikberechnungen auf die GPU ausgelagert werden. Nicht, dass die Karten selbst schneller wären. Aber die CPU wird entlastet und damit schießen die Frames in die Höhe. Ich habe einen Freund mit fast identisch aufgebautem System - die einzigen Unterschiede sind seine Festplatte und seine GraKa. Die Festplatte ist genau wie meine eine 3.5 Zoll, allerdings mit 500GB statt 1TB Speicher, und seine GraKa ist eine GTX 480, meine eine 5870. Interessanterweise laufen bei ihm Fallout 3, Skyrim, BC2 und BF3 ebenfalls deutlich schneller bei gleichen Einstellungen, auch wenn PhysX keine vorhandene einstellbare Komponente ist. Bei CoD 5 / 6 / 7 / 8 sind unsere Rechner dagegen annähernd gleich schnell.
Kurz: Wenn also nicht PhysX bzw. Physikberechnungen daran Schuld sind, dass NVidia- Karten die Nase vorn haben, woran liegt es dann? Ich habe leider keine andere Erklärung, aber ich bin bereit, mich eines besseren belehren zu lassen.
__________________
Die zwei eisernen Regeln des Erfolgs: 1. Verrate niemals alles, was Du weißt.
|
|
|
19.12.11, 14:04
|
#21
|
Klaus Kinksi
Registriert seit: Oct 2009
Beiträge: 51.504
Bedankt: 55.361
|
Zitat:
Zitat von TheBandicoot
Was meinst Du mit Referenzdesign?
|
Sapphire 6950 im Referenzdesign
Sapphire 6950 mit eigenem Kühldesign
Referenzdesign ist IMMER die Kühllösung die vom Chiphersteller (in diesem Fall AMD) von Werk aus vorgesehen ist.
Diese Karten kommen auch immer als erstes auf den Markt, bevor dann die Publisher ihre eigenen Kühler entwickeln und drauf setzen.
|
|
|
19.12.11, 14:14
|
#22
|
Doomsayer
Registriert seit: Aug 2009
Beiträge: 1.793
Bedankt: 1.493
|
Ah jetzt ja. Also das hässliche, klobige Ding, das ich im Nachhinein gegen eine Nachrüst- Kühllösung ausgetauscht habe... dann sollte ich mit dem Kauf der 7970 tatsächlich warten, bis die Publisher die Chance haben, ihre eigenen Kühllösungen zu entwickeln.
__________________
Die zwei eisernen Regeln des Erfolgs: 1. Verrate niemals alles, was Du weißt.
|
|
|
19.12.11, 14:35
|
#23
|
silent guardian
Registriert seit: Apr 2009
Ort: Gotham
Beiträge: 2.756
Bedankt: 1.172
|
@ TheBandicoot:
Nochmals: PhysX ist nur ein Zusatzfeature, das durch CUDA-Karten ermöglicht wird und auf einer, von Nvidia geschriebenen, Bibliothek basiert.
Wenn Dinge wie Physik auf die GPU ausgelagert werden, dann kann diese - bei richtiger Programmierung - selbstverständlich schneller arbeiten. Bei der Physik alleine bleibt es allerdings nicht, sodass PhysX in Spielen zum Leistungsfresser wird.
Fakt ist aber, dass Spielentwickler davon ausgehen müssen, dass nicht jeder Endverbraucher eine CUDA-fähige Karte hat und eine eigene Bibliothek im Endeffekt teurer ist, als die Lizenzierung von PhysX.
Du liegst richtig, dass Unterschiede vorhanden sind. Nämlich beim GPU-Computing im Bereich des Anwendungssektors - Nvidia hat dort klar die Nase vorne.
Das Problem ist, dass du PhysX/CUDA mit GPU-Computing in einen Topf wirfst, obwohl es sich in der Hinsicht um Unterklassen handelt.
__________________
Chase me, hunt me, condemn me. I can take it.
|
|
|
19.12.11, 16:55
|
#24
|
Der schon wieder
Registriert seit: Apr 2010
Beiträge: 953
Bedankt: 450
|
Zitat:
Zitat von TheBandicoot
Nur 20% mehr als eine GTX 580, und dann auch noch ohne Tesselation?
|
Wen Tesslation eingeschalten ist dann hat die Karte einen Leistungszuwachs von ca. 60% im vergleich zur GTX580.
Mittlerweile sind die Treiber von AMD zugebrauchen und bei der HD7970 soll die nochmals verbessert werden bin gespannt.
22.12.11 Soll der release der Karte sein.
[ Link nur für registrierte Mitglieder sichtbar. Bitte einloggen oder neu registrieren ]
|
|
|
20.12.11, 00:05
|
#25
|
Doomsayer
Registriert seit: Aug 2009
Beiträge: 1.793
Bedankt: 1.493
|
Interessant dabei ist, dass sich das Ding noch nirgends vorbestellen lässt... weder bei Alternate, noch bei Amazon oder sonst wo.
Traurig ist das hier: [ Link nur für registrierte Mitglieder sichtbar. Bitte einloggen oder neu registrieren ]
Über 500 Eulen für eine ATI (AMD?) GraKa? Was soll denn erst die 7990 kosten? Ich hoffe, das ist ein Fehler - so viel haben bisher nur NVidia- Karten zur Markteinführung gekostet
Gilt das jetzt schon als Doppelpost? Falls ja, bitte ich um einen Hinweis, dann korrigiere ich das sofort und verschmelze die beiden Posts. Ich finde die entprechende Stelle in den Forenregeln nicht und bin mir jetzt nicht sicher, ob es 48 oder 24 Stunden zeitliche Differenz waren.
Hrrhrr... dies lässt mein rotes Herz höher schlagen: Auf Videocardz.com sind nun detailierte Benchmarks aller Kategorien aufgetaucht. Wenn die Zahlen stimmen, die dort veröffentlicht wurden, dann ist das Ding auf jeden Fall gekauft. Zumindest wenn der [ Link nur für registrierte Mitglieder sichtbar. Bitte einloggen oder neu registrieren ] von PCGH publizierte Preis von 549 US Dollar (derzeit etwa 422 Eulen) hinhaut. Aber seht selbst:
[ Link nur für registrierte Mitglieder sichtbar. Bitte einloggen oder neu registrieren ]
__________________
Die zwei eisernen Regeln des Erfolgs: 1. Verrate niemals alles, was Du weißt.
|
|
|
21.12.11, 16:31
|
#26
|
Klaus Kinksi
Registriert seit: Oct 2009
Beiträge: 51.504
Bedankt: 55.361
|
[ Link nur für registrierte Mitglieder sichtbar. Bitte einloggen oder neu registrieren ]
Zitat:
5. In allen anderen Bereichen außerhalb der Börse sind Doppelposts erst nach dem Ablauf von 48 Stunden erlaubt, sofern auf das Thema keine Antwort gegeben wurde.
|
Frage beantwortet?
Naja mit dem Kauf der Karte würde ich noch bis ~ März warten. Wobei ich denke dass auch wieder eine 7950 reichen wird.
|
|
|
21.12.11, 16:45
|
#27
|
Doomsayer
Registriert seit: Aug 2009
Beiträge: 1.793
Bedankt: 1.493
|
Ja, das ist ausreichend, danke... und dabei noch so offensichtlich
Sicherlich werde ich noch warten, zumal der Preis über die Zeit wohl kaum nach oben hin steigen wird. Und obendrein möchte ich diesmal eine Karte mit vernünftiger Kühlung haben, nicht so wie den Staubsauger namens 5870 Referenz. Jedoch steht meine Kaufentscheidung fast schon fest. Sollte eine 7950 sich wie die 6950 zum nächst größeren Modell machen lassen, nehme ich auch die.
__________________
Die zwei eisernen Regeln des Erfolgs: 1. Verrate niemals alles, was Du weißt.
|
|
|
Forumregeln
|
Du kannst keine neue Themen eröffnen
Du kannst keine Antworten verfassen
Du kannst keine Anhänge posten
Du kannst nicht deine Beiträge editieren
HTML-Code ist Aus.
|
|
|
Alle Zeitangaben in WEZ +1. Es ist jetzt 17:33 Uhr.
().
|