NVidia GTX480 - ein absolutes Failprodukt?

- OCinside.de PC Forum
https://www.ocinside.de

-- Grafikkarten OC
https://www.forum-inside.de/forums.cgi?forum=3

--- NVidia GTX480 - ein absolutes Failprodukt?
https://www.forum-inside.de/topic.cgi?forum=3&topic=7510

Ein Ausdruck des Beitrags mit 88 Antworten ergibt bei 3 Antworten pro Seite ca. 30 DIN A4 Seiten. Das entspricht bei 80 g/m² ca. 149.69 Gramm Papier.


-- Veröffentlicht durch Steffen545 am 18:22 am 31. Aug. 2010

naja, mein Board wollte ich nicht verkaufen. Bin total zufrieden mit ihm...

welchen Hersteller sollte man denn bei der GTX480 wählen?:noidea:

edit: ok, mein mainboard kann angeblich SLI:lol: also werden es dann wohl doch 2 GTX 460:lol:

(Geändert von Steffen545 um 21:12 am Sep. 2, 2010)


-- Veröffentlicht durch rage82 am 17:53 am 31. Aug. 2010

undervolten kannst du eventuell probieren, aber weiter runtertakten geht nicht 50/100/67,5 sind schon recht minimal...

scheinen sich recht gut undervolten zu lassen, achte beim kauf aber auch drauf, dass deine karte dazu in der lage ist, eventuell können das manche hersteller-designs nicht ;)

edit:
was ich vergessen habe, 2 gtx460 brauchen unter last genausoviel wie eine gtx480, sind aber schneller und zusammen 40€ günstiger. wenn du also für dein altes board nen guten preis bekommst, zahlst du kaum mehr und hast mehr leistung bei weniger verbrauch im idle und gleichem unter last, mit allen nachteilen die sli/cf halt mit sich bringen ;)

(Geändert von rage82 um 18:18 am Aug. 31, 2010)


-- Veröffentlicht durch Steffen545 am 17:36 am 31. Aug. 2010

ok, die paar mehr watt im idle kann ich verschmerzen. Werd dann doch mal die GTX480 ausprobieren. Die kann ich ja auch noch im Idle runtertakten und evtl undervolten.:lol:


-- Veröffentlicht durch rage82 am 17:18 am 31. Aug. 2010

eine gtx480 zieht etwa 50w im idle, 2 gtx 460 kommen auf etwa 30w idle, 2 5870 kommen auf etwa 40w im idle.

deine gtx260 liegt angeblich bei 45w im idle, wobei man gerade bei der gtx260 mit rivatuner wunder bewirken kann. viele der gtx260 (z.b. xfx-karten) takten im 2d gar nicht runter, geschweige denn senken ihre spannung ab.

für die nutzung einer ati-karte mit zusätzlicher physx-karte gibt es z.b. dieses howto.


-- Veröffentlicht durch Steffen545 am 16:20 am 31. Aug. 2010

hmm wegen sli müsste ich mir ein neues Board kaufen.... teuer...:lol:

und 2x GTX460 ziehn doch im Idle auch kräftig oder? Geht das denn nicht mit der Vcore absenken und takt noch weiter untertakten im IDLE?

Ne 5870 ist natürlich auch ne überlegung wert... Aber will unbedingt Physix beibehalten. Kann ich hierfür meine GTX260 irgendwie missbrauchen? wenn ja, wie funktioniert das, dass die GTX260 nur als Physix karte erkannt wird?:noidea: (aber das zieht ja dann auch wieder mehr strom im Idle :-( )


-- Veröffentlicht durch spraadhans am 8:30 am 31. Aug. 2010

Wenn die Idle wichtiger ist, dann entweder 2x gtx460 im sli oder eine hd5870.


-- Veröffentlicht durch Steffen545 am 20:08 am 29. Aug. 2010

überleg mir schon die ganze Zeit ob ich mir nicht mal ne GTX480kaufen soll...

Der Stromverbrauch beim Zocken ist mir relativ wurscht. Aber im IDLE eben nicht:lol:

Hat denn schon jemand versucht die GTX480 im Idle zu untertakten/undervolten? Wenn ja wie viel und wie viel hats gebracht?:noidea:


-- Veröffentlicht durch rage82 am 17:33 am 27. Mai 2010

die gtx460... soll auf dem gf104 basieren und wird da dann wohl die speerspitze darstellen. da muss man jetzt halt abwarten, wie der wird.

die gtx465 ist eher ein 4830/5830-produkt, beste ausnutzung der chipfertigung.


-- Veröffentlicht durch kammerjaeger am 17:25 am 27. Mai 2010

Es sei denn, die noch kleineren Karten sind keine beschnittenen Chips wie die GTX465, sondern komplett eigenständige Karten. Dann könnte man evtl. zumindest im unteren und mittleren Segment wieder etwas Boden gut machen...


-- Veröffentlicht durch OberstHorst am 15:34 am 27. Mai 2010

Ja.. ich seh auch grad, dass die 470 wohl immer noch zu laut ist und die 465 anscheinend so stark beschnitten ist, dass sie mit den Ati-Karten nicht mehr mithalten kann.

Also ham sie wohl Mist gebaut ;)


-- Veröffentlicht durch SenSej am 15:29 am 27. Mai 2010

aber ob die kleinen nivea karten  gegen die ati konkurenz gegen halten kann glaub ich nicht so ganz ;)


-- Veröffentlicht durch OberstHorst am 15:26 am 27. Mai 2010

Die Flaggschiffe von NVidia waren doch schon immer Stromfresser und haben entsprechende Wärme produziert.

Interessant sind jetzt eigentlich die "kleinen" Grafikkarten, die im Anschluss erscheinen werden ;)


-- Veröffentlicht durch kammerjaeger am 8:08 am 27. Mai 2010

Nicht nur die Leistung fehlte, auch die notwendigen Auflösungseinstellungen im Spiel fehlten i.d.R..


-- Veröffentlicht durch AssassinWarlord am 7:16 am 27. Mai 2010

dieses Eyefinity...was ist daran eigentlich so neu? Multimonitoring betrieb gabs doch schon vor jahrzehnten :noidea: schon damals konnte man doch auf 2 oder mehreren monitoren das sichfeld erweitern lassen, reichte zwar nicht immer die leistung zu, aber es war möglich.


-- Veröffentlicht durch kammerjaeger am 23:44 am 26. Mai 2010


Zitat von KakYo um 16:23 am Mai 26, 2010
Also so schlimm find ich die GTX 480 nicht.

* schnellste Single GPU Grafikkarte
* 20% schneller als eine 5870
* CUDA
* PhysX
* 50% mehr VRam als 5870
* ~20% teurer als eine 5870
* ~40% höherer Stromverbrauch

Ungeachtet des Stromverbrauches bekommt man also durchaus nen ganzen Batzen "Mehrwert" im Vergleich zur 5870. Und mal ehrlich, das ist HighEnd-Bereich (für 400€ kauft sich der normale Anwender nen ganzen Rechner) und da ist der Stromverbrauch mMn nebensächlich.
Das wäre ja das gleiche als würde man den Benzinverbrauch in einem Supersportwagentest als das entscheidende Kriterium hinstellen.




Die ca. 40% mehr beziehen sich auf das gesamte System, die Karte selbst liegt weit über den genannten 40%.
Aber es geht ja nicht nur um den Stromverbrauch an sich, sondern um die "Nebeneffekte" wie:
- höhere Lautstärke
- stärkeres NT wird benötigt
- bessere Belüftung ist Pflicht
- umliegende Bauteile bzw. Mainboard werden wärmer und gehen somit schneller kaputt
- Karte wird wärmer (klick) und ist somit auch anfälliger für Defekte

Zu Deinem Argument des höheren Grafikspeichers:
ATI hat ein komplett anderes Speichermanagement. Insofern kann man die Speichermengen von ATI und Nvidia nicht direkt vergleichen. Bei Settings, wo z.B. Nvidia-Karten mit 1024MB schon die Puste ausgeht, haben ATI-Karten mit 1024MB keine solchen Einbrüche. Oder wie erklärst Du sonst, dass der Abstand zwischen 5870 und GTX480 mit steigender Auflösung schrumpft, während er zwischen 5870 und 5850 eher anwächst? Mit CPU-Limitierung lässt sich das also nicht erklären.

Insofern hinkt der angebliche Vorteil des größeren Speichers gewaltig. Diverse Test haben gezeigt, dass erst im Multimonitor-Betrieb (Eyefinity) die 1GB-Version der 58xx an ihre Speichergrenzen stößt. ;)

Und wenn Du schon vom High-End-Segment sprichst, warum lässt Du dann die 5970 außen vor? Wer ca. 460,- für eine GTX480 ausgeben kann sowie teures Geld für ein Netzteil, dass real 150W mehr leisten muss als mit einer 5870, der kann auch gleich noch einmal rund 90,- drauf legen und direkt zur 5970 greifen, die:
- nochmal gut 20% schneller ist als die GTX480
- trotzdem 60W weniger zieht
- Eyefinity kann (ja, gerade im High-End-Sektor ein nicht zu unterschätzender Faktor, denn besonders Pro-Gamer werden nur ungern auf die Möglichkeit des erweiterten Sichtfeldes verzichten wollen, dessen Nutzen für Gamer wohl Features wie PhysX und CUDA in den Schatten stellt)

(Geändert von kammerjaeger um 23:50 am Mai 26, 2010)


-- Veröffentlicht durch SenSej am 16:48 am 26. Mai 2010

vergiss aber nicht das es auch bald ati karten mit 2GB geben wird und dann werden sich die bench werte ab 1920*1080 auch ändern, denn solche grafikmonster wie metro oder crysis wh in full hd und mit AA und AF da wird der 1GB ram der karte auch schnell voll

und bei den 20% schneller als die ati ist auch nicht bei allen games so ;)

und wegen dem stromverbrauch, 40% sind ne ganze menge wenn der rechner oft und lange läuft macht sich das durchaus bemerkbar ;)


-- Veröffentlicht durch KakYo am 16:23 am 26. Mai 2010

Also so schlimm find ich die GTX 480 nicht.

* schnellste Single GPU Grafikkarte
* 20% schneller als eine 5870
* CUDA
* PhysX
* 50% mehr VRam als 5870
* ~20% teurer als eine 5870
* ~40% höherer Stromverbrauch

Ungeachtet des Stromverbrauches bekommt man also durchaus nen ganzen Batzen "Mehrwert" im Vergleich zur 5870. Und mal ehrlich, das ist HighEnd-Bereich (für 400€ kauft sich der normale Anwender nen ganzen Rechner) und da ist der Stromverbrauch mMn nebensächlich.
Das wäre ja das gleiche als würde man den Benzinverbrauch in einem Supersportwagentest als das entscheidende Kriterium hinstellen.


-- Veröffentlicht durch rage82 am 14:02 am 26. Mai 2010

512mb, aber bei nwn2 gabs die probleme noch nicht. für motb wurde die engine aufgebohrt.

alles andere läuft problemlos, selbst crysis schafft mehr fps.

aber möglich ist es natürlich.


-- Veröffentlicht durch SenSej am 13:27 am 26. Mai 2010

ich kenn zwar deine auflösung nicht aber vermute mal das der speicher knapp wird, oder ?


-- Veröffentlicht durch rage82 am 12:40 am 26. Mai 2010

manch einer weiss auch die bild- und filterqualität zu schätzen, auch da ist ati erst seit der hd5xxx-serie wieder auf gleichem niveau.


ich sehe da während des spielens eh kaum unterschiede, manchmal flimmert halt eine textur (4870), die auf einer gtx260 nicht flimmert. aber damit kann ich leben.

habe mir aber noch keine filtervergleiche mit der gf100 angeschaut.

aktuell stirbt meine karte aber an nwn2-motb musste die texturqualis in allen bereichen auf mittel stellen und lande immerhin bei 20fps. vorher waren es... 6fps.

hätte ich auch nicht gedacht, würde mal gern wissen ob mir da eine 5850 vorteile bringt, bei der alten engine sicher nicht.


-- Veröffentlicht durch spraadhans am 7:50 am 26. Mai 2010

Fehler im vorletzten Post von mir berichtigt, dass momentan kein Weg an ATI vorbei führt, habe ich ja geschrieben, nur wollte ich einfach nicht stehen lassen, dass NV schon vorher schlechter als ATI aufgestellt war. Man denke nur an die legendären 8800er, denen ATI selbst mit der zweiten Generation (hd38xx) nichts entgegen zu setzen hatte und deren Topmodelle (8800 ultra, gts g92) selbst heute noch brauchbare fps liefern...


(Geändert von spraadhans um 7:54 am Mai 26, 2010)


-- Veröffentlicht durch kammerjaeger am 1:20 am 26. Mai 2010


Zitat von spraadhans um 0:09 am Mai 26, 2010

Bis zum Erscheinen der HD5xxx Serie war NV technologisch deutlich besser aufgestellt, die (Performance- und High-End-) Karten waren schneller und meist auch effizienter, nur in der Herstellung teurer und damit beim P/L Verhältnis meist schlechter.



:noidea:

Was die Technologie angeht, so hatte Nvidia nur den Vorteil von CUDA und PhysX, was aber für die meisten Gamer irrelevant bzw. kein Kaufargument ist.
Ich habe mal einen Blick in eine genau ein Jahr alte Preisliste geworfen und mir ein paar Benches dazu angesehen und Deinen Link zum Verbrauch.

Fazit:
- GTX260 vs. 4870: preislich etwa gleich, Leistung und Lastverbrauch ebenfalls, idle leichter Vorteil für Nvidia
- GTX275/280/285 vs. 4890: GTX275 und 4890 etwa gleich schnell und teuer, in der Leistung marginaler Vorsprung für GTX285, aber dafür deutlich teurer. Beim Verbrauch liegt die 4890 idle leicht hinten, dafür unter Last klar vorn.
- GTX295 vs. 4870 X2: GTX klar teurer, dafür ganz leichter Vorsprung bei Leistung und Verbrauch

Grundlegend bei allen Modellen: bei 4xAA kommen die Nvidia besser weg, bei 8xAA die ATI.

Ich sehe da keinen ("deutlichen") technologischen oder leistungsmäßigen Vorsprung für einen Hersteller...


Fakt ist halt aktuell, dass Nvidia den Anschluss in der Klasse >100,- klar verloren hat und auch darunter nur wenig brauchbare, konkurrenzfähige Karten bietet. Wenn nicht endlich die kleineren Karten der neuen Baureihe besser da stehen, wird das auch leider auf längere Sicht so bleiben, denn eine komplett neue Architektur wird man so schnell nicht auf die Beine stellen! Die ersten Benches und Verbrauchsmessungen der GTX465 sowie deren Preis sprechen nicht gerade für eine Optimierung in der Fertigung! Als mir mein Großhändler heute die ersten GTX465 angeboten hat, habe ich dankend abgelehnt, denn die werden bei den Preisen (genau wie die großen Brüder) wie Blei in den Regalen liegen bleiben.
Bleibt also nur zu hoffen, dass man es bei den noch kleineren Modellen endlich besser macht und neben dem Verbrauch auch das Pricing stimmt, nachdem man besonders in den letzten zwei Jahren dem Kunden gerne mal "facegeliftete" oder nur dreist umbenannte Karten unter neuem Namen und zu nochmal erhöhten Preisen verkauft hat...


-- Veröffentlicht durch spraadhans am 0:20 am 26. Mai 2010


Ist sie nicht, die 5970 ist in allen Belangen stärker, selbst mit Tessalation. Trotzdem verbraucht die 5970 klar weniger. ;)


Klar liegt sie als DualGPU Karte vor der GTX480, allerdings ist nach der Meinung vieler Tester die Mikrorucklerproblematik bei ATI schon in deutlich höheren FPS_Regionen verbreitet und könnte die HD5970 subjektiv schon jetzt in einigen Titeln bei bestimmten Auflösungen ggü. einer GTX480 in Bedrängnis bringen...wie gesagt: möglicherweise...

Unbestritten sind HD5850 und HD5870 momentan die im Gesamtpaket besten Karten im Performance-High-End Segment...


-- Veröffentlicht durch spraadhans am 0:09 am 26. Mai 2010

Nee, stimmt natürlich nicht.

Das deutlich später erschienene Gegenprodukt zur GTX260 war die HD4870 und die war in Windows deutlich hungriger und unter Last nur einen Tick "sparsamer" , siehe hier:

http://www.computerbase.de/artikel/grafikkarten/2009/test_13_grafikkarten/21/#abschnitt_leistungsaufnahme

Bis zum Erscheinen der HD5xxx Serie war NV technologisch deutlich besser aufgestellt, die (Performance- und High-End-) Karten waren schneller und meist auch effizienter, nur in der Herstellung teurer und damit beim P/L Verhältnis meist schlechter.

Also immer schön die Kirche im Dorf lassen, momentan hat ATI die Nase vorn (für mich zum ersten Mal seit den X19xx Karten), möglicherweise legt NV irgendwann wieder ordentliche Karten nach...




(Geändert von spraadhans um 7:51 am Mai 26, 2010)


-- Veröffentlicht durch gabiza7 am 23:28 am 25. Mai 2010

War ja lange Zeit im Nvidea-Fan und dachte auch mal kurz drüber nach mir mal ne 260-er GTX zuzulegen, aber die hat ne maximale Leistungsaufnahme von 160W oder irgendwie sowas in der Größenordnung, wenn man sich da bei ATI in der selben Preis- und Leistungsklasse umsieht hat man vll ne maximale Aufnahme von 90W.

Bin mir daher sicher, meine nächste Grafikkarte wird ne ATI. (gibt's auch außerdem mehr Auswahl)


-- Veröffentlicht durch SenSej am 18:14 am 25. Mai 2010

ich hatte eigentlich keine mgpu im sinne aber gut;)

wenn ich ehrlich bin überlege ich mir auch ne 5850/70 zu holen, ich hab nen 24"er
aber bei meinen letzten atikarten gab es immer so eine menge treiberfehler und das CCC war immer so total buggy:(


-- Veröffentlicht durch kammerjaeger am 18:09 am 25. Mai 2010

Nvidia...



Zitat von SenSej um 18:04 am Mai 25, 2010

sie ist zwar die schnellste karte aber wenn ich die leistungsaufnahme sehe könnt ich kotzen ;)



Ist sie nicht, die 5970 ist in allen Belangen stärker, selbst mit Tessalation. Trotzdem verbraucht die 5970 klar weniger. ;)


-- Veröffentlicht durch SenSej am 18:04 am 25. Mai 2010

in zeiten von "GreenIT" finde ich die 400er reihe bis jetzt inakzeptabel
sie ist zwar die schnellste karte aber wenn ich die leistungsaufnahme sehe könnt ich kotzen ;)


Nicht ohne Grund sind die Preise trotz gestiegenen Dollars schon deutlich gefallen und die Verfügbarkeit gut....


meinst du damit ati oder nivea^^


-- Veröffentlicht durch kammerjaeger am 8:39 am 25. Mai 2010


Zitat von Rulinator um 2:05 am Mai 13, 2010
die möglichkeit zweier 5770er schreckt mich noch ab, muss ja höllisch laut sein gleich zwei solcher teile verbaut zu haben und dann ist da noch die kompatiblitätsfrage...



Warum sollten die laut sein? Selbst mit Werkseinstellungen sind die meisten 5770 recht angenehm, wenn auch nicht super-silent. Ich hab meine Powercolor via MSI Afterburner so eingestellt, dass der Lüfter bis 50 Grad bei 25% arbeitet und dann langsam hoch regelt. Bei der LAN am Sonntag kam die Karte nie über 69 Grad bei 45% max. Drehzahl. Erst bei 80 Grad hab ich die Regelung als Sicherheitsreserve etwas aggressiver eingestellt.
Wenn Du bei einem CF eine gute Belüftung hast, idealerweise ein Lüfter in der Seitenwand auf Höhe der Karten, dann wirst Du auf ähnliche Werte kommen. ;)
Und welche Kompatibilitätsprobleme sollte es geben?



Zur GTX470/480:
Die Karten liegen wie Blei in den Regalen, während man die HD 5xxx schon per Vorbestellung verkauft. Das bestätigte mir der Hauptimporteur einiger Marken. Nicht ohne Grund sind die Preise trotz gestiegenen Dollars schon deutlich gefallen und die Verfügbarkeit gut....

(Geändert von kammerjaeger um 8:40 am Mai 25, 2010)


-- Veröffentlicht durch Rulinator am 2:05 am 13. Mai 2010


Zitat von schultheiss18 um 15:48 am März 27, 2010
Ohne worte :lol:

GTX 480 Lautstärke


meine schwester hört das jeden tag.

...

sie ist flugbegleiterin bei air berlin! :thumb:

@ topic

ich bin grad auch an einem punkt, an dem ich plane, wo ich nach dem sommer, pünktlich zu crysis 2 und mafia 2, aufrüste.

dachte cpu-mäßig an einen q9550 (gebraucht, pretested >3.5ghz) und eine hd5850. die möglichkeit zweier 5770er schreckt mich noch ab, muss ja höllisch laut sein gleich zwei solcher teile verbaut zu haben und dann ist da noch die kompatiblitätsfrage...

zur 4870 muss man sagen, die habe ich seit herbst 2008 (neu 220 euro) und läuft auch mit aktuellen games noch überraschend gut, auch bei 1920x1080 und teilweise aa/af und hohen detaileinstellungen! :thumb:

(Geändert von Rulinator um 2:28 am Mai 13, 2010)


-- Veröffentlicht durch AssassinWarlord am 21:25 am 8. April 2010

also ihr meint, wenn ich mir eine kleine Quadcore CPU reinsetze, den ordentlich hochziehe, komme ich mit meinem sys noch eine ganze weile hin? wie gesagt, auflösung wird bei 1680 bleiben, ohne FSAA oder AF...das mache ich eigentlich nie an...wüste auch nicht, das ich sowas je genutzt habe :noidea:

hmm, erstmal schauen, was auf meinem G31 Board an effizienten Quadcores zu betreiben geht :biglol:


-- Veröffentlicht durch SenSej am 15:32 am 8. April 2010

cpu lastige game profitieren von meist bis zu 4 kernen
gta 4 sogar von 6 kernen aber in der regel bist du mit 4 kernen sehr gut bedient ;)


-- Veröffentlicht durch AssassinWarlord am 15:30 am 8. April 2010

interessant :)

lohnen den Quadcores für die heutigen Games? oder nutzen die games immernoch nur 2 cores, oder lasten jeden core nur zu 25% aus statt mit 100%?


-- Veröffentlicht durch kammerjaeger am 0:21 am 8. April 2010


Zitat von gabiza7 um 22:13 am April 7, 2010
Haltet ihr es für wahrscheinlich, dass Nvidea ihre "Neue" nochmal überarbeitet?



Sobald die Fertigung es zulässt...
Momentan kann TSMC aber froh sein, wenn sie die aktuelle Fertigungstechnik halbwegs profitabel hinbekommt, von noch feineren Strukturen scheinen sie momentan nur träumen zu können. ;)



Zitat von spraadhans um 18:29 am April 5, 2010
Was bei dir eher als die Grafik limitieren dürfte, ist wohl die CPU. Ich würde lieber da ansetzen und die gute 4870 noch eine Weile behalten, denn die gehört m.E. gerade bei 1600x1000 noch nicht zum alten Eisen.



Richtig. Natürlich merkt man den Unterschied von der 4870 zur 5870, aber nur bei einigen Spielen und Settings. Die alte E6300 ist dank des kleinen Caches von 2MB nicht ideal für High-End-Gaming und für eine 5870 viel zu lahm. Da helfen selbst hohe Taktraten nicht.
Bei Intel ist der L2-Cache noch viel wichtiger als bei AMD. Der Unterschied ist z.T. enorm, wie man z.B. beim Vergleich E8200 (6MB, 2,66GHz) vs. E4700/E5300 (2MB, 2,6GHz) hier sehen kann. In Spielen sind es zwischen 20 und 40% Differenz! Das durch hohen Takt rein zu holen, ist fast unmöglich, wie man am Vergleich E4500 zu E4700 sieht.
Vielleicht bekommst Du ja einen E8xxx preiswert von einem Umsteiger auf Quad oder S.1156/1366, sonst besser einen Q9xxx. Das bringt mehr als eine neue GraKa. ;)

(Geändert von kammerjaeger um 0:37 am April 8, 2010)


-- Veröffentlicht durch SenSej am 0:18 am 8. April 2010

wer im profibereich ne 1000,- karte kauft hat auch noch ged für ohrstöpsel ;)


-- Veröffentlicht durch AssassinWarlord am 22:15 am 7. April 2010

denke eher nur treiberoptimierungen... und für den Professionellen markt werden die schon abnehmer finden...


-- Veröffentlicht durch gabiza7 am 22:13 am 7. April 2010

Haltet ihr es für wahrscheinlich, dass Nvidea ihre "Neue" nochmal überarbeitet? Oder geht deren Philosphie eher in Richtung "Wir lassen es so und eine paar Dumme kaufen die dann schon."

Zu dem Lautstärke-Test der Karte, die vom Gerät angezeigte Steigerung der Lautstärke ist ja gar nicht mal so hoch, aber rein vom Hören her erreicht der Lüfter in dem Video dann doch mit zunehmender Zeit eine unangenehme Lautstärke.


-- Veröffentlicht durch spraadhans am 18:29 am 5. April 2010

Was bei dir eher als die Grafik limitieren dürfte, ist wohl die CPU. Ich würde lieber da ansetzen und die gute 4870 noch eine Weile behalten, denn die gehört m.E. gerade bei 1600x1000 noch nicht zum alten Eisen.


-- Veröffentlicht durch AssassinWarlord am 17:22 am 5. April 2010

gut, denke auch das ich mit der 5870 eine weile auskommen werde :-)
mit der 4870 die ich damals kaufte komme ich bis heute sehr gut klar


-- Veröffentlicht durch spraadhans am 15:55 am 5. April 2010

Nö, ein PCIE 16x 2.0 langt, für deine Auflösung ist eine 5850 oder 70 wirklich die beste Lösung...

(Geändert von spraadhans um 15:56 am April 5, 2010)


-- Veröffentlicht durch AssassinWarlord am 15:12 am 5. April 2010

dacht ich mir schon :lol:

Hmm, und noch eine frage: Habe mal gelesen, das die DualGPU Grakas wie die 5970 dennoch ein crossfirefähiges Board braucht...ist da was dran? währe ja mächtig sinnlos in meinen augen, wenn man extra noch so nen Board braucht um die Graka darauf zu betreiben?


-- Veröffentlicht durch VoooDooo am 15:00 am 5. April 2010

bei nVidia is auch bei vier Schluss. Aber schon bei vier Chips skaliert es nicht mehr wirklich gut.


-- Veröffentlicht durch AssassinWarlord am 14:51 am 5. April 2010

4gpus können nur angesteuert werden? was das denn, ist doch langweilig...da ruckeln doch noch die alten DosKlassiker :biglol:

kann nVidia mit ihrer SLI technik mehr GPUs verwalten?


3dfx SLI konnte es ja...hmm gut, das nVidia SLI wird damit nix zu tun haben *g*


-- Veröffentlicht durch SenSej am 14:37 am 5. April 2010

das wäre das richtige für 4 mal 480GTX aber da brauchst du allein für die GK´s schon nen 1,2KW NT :blubb:


-- Veröffentlicht durch VoooDooo am 13:53 am 5. April 2010

es gehen imo nur 4 Chips, also nach zwei 5970 is Schluss. Aber das passende Board für deine Idee ist das: :bonk:


-- Veröffentlicht durch KakYo am 13:52 am 5. April 2010

Ich glaube bei 4-way Crossfire ist Schluss, sprich 4x 5870 oder 2x5970:noidea:


-- Veröffentlicht durch AssassinWarlord am 13:43 am 5. April 2010

gut zu wissen.

so könnte man ja theoretisch 4 solcher 5970 karten auf ein Board quetschen was halt 4 PCIe x16 slots hat, und die ebenfals nochmal als crossfire laufen lassen? :buck:


-- Veröffentlicht durch k3im am 9:27 am 5. April 2010

Übernimmt alles brav der Treiber. Brauchst dich um nix zukümmern.

Also laut diesem Bild, und den anderen die google ausspuckt, ;) wird sie als CF erkannt!


-- Veröffentlicht durch AssassinWarlord am 0:57 am 5. April 2010

wie ist es eigentlich heutzutage, muss das Spiel Corssfire/SLI unterstützen, oder übernimmt das absolut nur der Treiber, der die rechenleistung auf beide karten aufteilt?

und wird die 5970 eigentlich auch als Crossfire angesprochen, also als Multi GPU system, oder wird diese als einzelne karte anerkannt?


-- Veröffentlicht durch k3im am 22:39 am 4. April 2010


Zitat von SenSej um 9:22 am April 4, 2010
ich würd sagen lieber die 5850 in einer OC version oder selbst etwas ocen

das topmodell zukaufen macht selten sinn



Ich kann nur, wenn man die Möglichkeit hat, zu zweimal der billigsten 5770 im Presivergleich raten! Sowas z.B. und jut is! Is billiger als ne 5850 und oft auch Leistungsfähiger.

OT: Off ;)

(Geändert von k3im um 22:40 am April 4, 2010)


-- Veröffentlicht durch kammerjaeger am 17:29 am 4. April 2010


Zitat von rage82 um 10:50 am April 4, 2010
es geht um 5870 vs gtx470. da ist der unterschied wesentlich geringer.



Selbst ggü. der 5870 ist die GTX470 ein Stromfresser, kommt sogar fast an die Werte der 5970 ran! Unter Furmark liegt die 5970 zwar klar drüber, aber ingame sieht die Welt wieder ganz anders aus. Da kommt die GTX470 bis auf ein paar Watt an die 5970 ran und liegt gut 60W über der 5870 (siehe vorletzte Grafik, auch andere Messungen mit Spiele-Engines bestätigen das Ergebnis, nur zeigen die nicht alle der betroffenen Karten in einer Grafik).


-- Veröffentlicht durch rage82 am 10:50 am 4. April 2010

es geht um 5870 vs gtx470. da ist der unterschied wesentlich geringer. je nach temperatur sind 10-20 watt drin. die dimension dürfte zumindest die größte sein, die bisher aufgetreten ist, da vorher noch niemand 3mrd transistoren auf einen grafikchip verpflanzt hat.


-- Veröffentlicht durch kammerjaeger am 9:28 am 4. April 2010

Hier ein schöner Vergleich der Verbrauchswerte von GTX470 und 5850 in diversen Spielen. In FarCry2 z.B. zieht die GTX 119W mehr! Daran wird auch ein besserer Kühler nicht viel ändern...


-- Veröffentlicht durch SenSej am 9:22 am 4. April 2010

ich würd sagen lieber die 5850 in einer OC version oder selbst etwas ocen

das topmodell zukaufen macht selten sinn


-- Veröffentlicht durch AssassinWarlord am 2:15 am 4. April 2010

also eher die 5870 und gut ist...


-- Veröffentlicht durch spraadhans am 1:34 am 4. April 2010

Noch nicht aber er hat ja nach der Zukunftstauglichkeit gefragt und da muss man nun ehrlich gestehen, dass möglicherweise schon in einem Jahr eine 5970 in fps-Regionen kommt, welche zu Mikrorucklern führen.

Momentan fehlt aber einfach der Wettbewerb, also sollte man mit einem Kauf noch etwas warten.


-- Veröffentlicht durch kammerjaeger am 1:27 am 4. April 2010

Nur bei einem 5970-CF. Einzeln tritt es praktisch nie in Erscheinung.


-- Veröffentlicht durch spraadhans am 1:08 am 4. April 2010

2. Absatz im Fazit:

http://www.computerbase.de/artikel/grafikkarten/2009/test_ati_radeon_hd_5970/24/#abschnitt_leistungsurteil


-- Veröffentlicht durch AssassinWarlord am 0:34 am 4. April 2010

mikroruckler?


-- Veröffentlicht durch spraadhans am 23:48 am 3. April 2010

Da ATI sich nicht um die Mikrorucklerproblematik kümmert, würde ich die Frage eher mit nein beantworten, denn selbst bei den hohen Frameraten, die die 5970 jetzt erzielt, sind die Ruckler für manche Betrachter jetzt schon störend. In drei Jahren ziemlich sicher auch für dich.

Lieber jetzt eine 5850 und das gesparte Geld....blubb.bla


-- Veröffentlicht durch AssassinWarlord am 20:40 am 3. April 2010

1650x1050er auflösung, ohne AA, max. etwas AF, und eben aber high quality settings in den kommenden games.


-- Veröffentlicht durch rage82 am 20:28 am 3. April 2010

definiere "reichen"


-- Veröffentlicht durch AssassinWarlord am 16:23 am 3. April 2010

hmm, hat ATI eigentlich auch irgendwelche PhysX beschleunigenden dinge onboard? Cuda war doch auch etwas für die Physik effekte, oder?

und wenn man sich heute eine 5970 kaufen würde, würde die doch sicherlich die nächsten 3 jahre reichen, oder? ^^


-- Veröffentlicht durch rage82 am 10:30 am 3. April 2010

die gtx470 wird mit alternativen kühlern konkurrenzfähiger. sie wird nicht nur leiser, denn alleine das ist das KO-kriterium gegenüber der 5870. sondern auch kühler und damit stromsparender. da ist einiges an potenzial vorhanden.

ich warte schon gespannt darauf, das jemand mal nen mk-13 oder ähnliches auf eine gtx480/470 baut und den ganzen testparcour angeht.

aktuell ist das gesamtpaket für mich aber immer noch kaum unterhalb einer katastrophe anzusehen.


-- Veröffentlicht durch kammerjaeger am 8:41 am 3. April 2010

Die GTX470 ist in der Leistung zwischen 5850 und 5870, verbraucht aber selbst ggü. der 5870 deutlich mehr (klick). Lediglich bei exzessiver Tesselation-Nutzung in Verbindung mit 4xMSAA macht sie eine gute Figur.
Extrem sind nicht nur die max. Verbräuche der Fermi, sondern die durchschnittlichen, wie man obigem Link entnehmen kann. Da liegt die GTX470 im Durchschnittsverbrauch sogar auf Augenhöhe mit der 5970 und die GTX480 satte 60W darüber! Und das, obwohl die 5970 selbst in der Paradedisziplin der Fermi (Tesselation wie bei Unigine Heaven oder Metro 2033) immer Sieger bleibt...

Somit hat selbst für DX11 ATI die schnellste Karte und Nvidia die stromhungrigste. ;)

Die GTX470 ist zwar im Vergleich zur GTX480 die "rundere" Karte, aber in meinen Augen nur dann konkurrenzfähig, wenn man wirklich auf CUDA und PhysX Wert legt.


-- Veröffentlicht durch spraadhans am 21:28 am 2. April 2010

Naja, die GTX470 ist ca. auf einem Level mit der 5870 und der Verbrauch liegt zumindest recht deutlich unter der 480, als die rundere Karte.
In kommenden DX11 Anwendungen wird sich Fermie vermutlich deutlicher absetzen können, siehe Metro2033 Benchmarks.

Die Karte hat also Vorteile und Nachteile, ein absoluter Reinfall dürfte zumindest die 470 nicht sein.


-- Veröffentlicht durch kammerjaeger am 17:44 am 2. April 2010


Zitat von k3im um 13:45 am April 2, 2010

Da hat sich nVidia ein ganz schoenes Ei gelegt. Hätten sich lieber mehr Zeit für ein Rundes gutes Produkt nehmen sollen.



Tja, man hat halt versucht, neue Wege zu gehen und für professionelle Anwendungen ein passendes Paket zu schnüren. Dass das aber u.U. im Consumer-Market nicht den gewünschten Erfolgt bringen wird, sieht man bei kompletten Neuentwicklungen erst, wenn das Produkt fertig ist...

Nach mehreren Umbenennungen und marginalen Veränderungen (8800GT -> 9800GT, 9800GTX+ -> GTS250, GT240 -> GT340, 9600GSO -> GT330 usw.) musste man aber endlich mal komplett neue Architekturen entwickeln. Ist halt nicht so geworden, wie man es sich gewünscht hätte.
Vielleicht kann die nächste Generation effizienter gestaltet werden, hoffentlich schon die kommenden Mid-Range-Karten (GT420-GTX460 :noidea:).
Denn wenn das nicht passiert, wird Nvidia bald komplett den Anschluss im Massenmarkt verlieren!


-- Veröffentlicht durch smoke81 am 14:39 am 2. April 2010

Naja, mich wundert es eigentlich, dass die HD2900er-Karten oft noch für rund 50 Euro in Hardwareforen verkauft werden (nach reichlich Qual per OC und Overvolting...).

Eine gleichstarke, aber wesentlich effizientere HD3850/HD3870 der Nachfolgegeneration bekommt man dagegen schon ab 30 Euro.


-- Veröffentlicht durch k3im am 13:45 am 2. April 2010

Erinnert an die 2xxx Reihe von ATI. Die waren ja schon als Heizungen verschrien. Waren sie ja auch.
Der Wiederverkaufswert von so einer Karte wird die Fanboys in 2 jahren ganz schoen vom Hocker hauen :lol:

Da hat sich nVidia ein ganz schoenes Ei gelegt. Hätten sich lieber mehr Zeit für ein Rundes gutes Produkt nehmen sollen.

:ocinside:


-- Veröffentlicht durch kammerjaeger am 23:18 am 29. März 2010


Zitat von petron um 22:53 am März 29, 2010

die lautstärke kann man eigtl. nicht so vergleichen. (zumindest nicht anhand von prozentwerten)

eine tatsächliche verdoppelung des schalldruckpegels erreicht man bei einer erhöhung von ca. 3 dB
eine subjektiv empfundene verdoppelung der lautstärke mit ca. 9 dB.



Deshalb geht man ja immer mehr zu Sone über, was einen realistischeren Eindruck vermittelt.


-- Veröffentlicht durch Xpect am 22:58 am 29. März 2010

*überleg* Aua, die armen Ohren


-- Veröffentlicht durch petron am 22:53 am 29. März 2010

wenn wir schon dabei sind.... ;)

die lautstärke kann man eigtl. nicht so vergleichen. (zumindest nicht anhand von prozentwerten)

eine tatsächliche verdoppelung des schalldruckpegels erreicht man bei einer erhöhung von ca. 3 dB
eine subjektiv empfundene verdoppelung der lautstärke mit ca. 9 dB.

die schlüsse kann man selber ziehen  :lol:


... so richtig ausgereift ist das ganze (noch) nicht. der allgemeinen preisgestaltung hätte das sicher gut getan (zumindest aus endkunden-sicht :lol: )

(Geändert von petron um 23:00 am März 29, 2010)


-- Veröffentlicht durch Xpect am 19:18 am 29. März 2010

Ok, habs mal geändert. Besser so? :)


-- Veröffentlicht durch kammerjaeger am 23:24 am 28. März 2010

Das stimmt wohl. Und auch die prozentuale Angabe der Temperatur ist wenig aussagekräftig.


-- Veröffentlicht durch Lucifer am 20:57 am 28. März 2010

Schon klar aber im ersten Post kommt das nicht rüber und der normaler Leser denkt "Mhhh ist ja gar nicht so schlimm"


-- Veröffentlicht durch Xpect am 19:58 am 28. März 2010


Zitat von Lucifer um 18:18 am März 28, 2010
idle strom = 100% net 15....   von 25watt auf 50watt... und unter last 50% 190 vs 300



Es sind bei CB die Werte des gesamten Systems angegeben. Deswegen sind es "nur" 15% Unterschied ;)


-- Veröffentlicht durch Lucifer am 18:18 am 28. März 2010

idle strom = 100% net 15....   von 25watt auf 50watt... und unter last 50% 190 vs 300


-- Veröffentlicht durch rage82 am 19:17 am 27. März 2010

aktuell liegt sie im preis unter der 5870, ist auch manchmal flotter als diese, genauso oft langsamer. lautstärke ist unter last auch gleich, man möchte es als akzeptabel bezeichnen.


der stromverbrauch ist aktuell der irrelevanteste wert bei den kaufkriterien, da ist das bewusstsein (bei vielen spielern, hotel mama) noch nicht angepasst worden. von daher behaupte ich, sie ist konkurrenzfähig, vor allem bei den "grün" (welch ironie) angehauchten.


-- Veröffentlicht durch kammerjaeger am 19:10 am 27. März 2010

Die GTX470 ist nur dann konkurrenzfähig, wenn sie bei ca. 300,- liegen wird. In der Leistung nur ganz knapp vor der 5850, aber unter Last zieht sie 50W mehr als die 5870 und sogar 90W mehr als die 5850! (siehe THG)


-- Veröffentlicht durch rage82 am 19:04 am 27. März 2010

die dual-karte soll sich schon in entwicklung befinden, wie das ding aller dings aussehen soll und vor allem gekühlt werden will frage ich mich auch.

ich hab ja lange gehofft, das die 250w tdp dem furmark wert entsprechen, leider nein.


was mich wirklich schwer wundert, nv hat im idle taktraten angelegt, da kann ich fast mit dem zeigefinger selbst den takt erzeugen. die spannung der gpu wird aber nicht abgesenkt, völlig unverständlich (zumindest ist es bei der gtx480 so)


die gtx470 ist als einzige konkurrenzfähig, jetzt bin ich mal gespannt wie sich der markt entwickelt.


-- Veröffentlicht durch kammerjaeger am 18:15 am 27. März 2010

Tja, irgendwo muss die entwickelte Wärme ja hin... :lol:

Ich finde es auch extrem, dass sie sogar 60W mehr zieht als ATIs Dual-GPU-Monster 5970 und immerhin 150W mehr als die 5870. (siehe CB)



Zitat von spraadhans um 13:51 am März 27, 2010
Sie wird trotzdem ihre Käufer finden, denn sie ist eben einfach schnell und dabei dürfte das Potential erst mit DX11 und viel Tesselation wirklich ausgereizt werden.



Wer 500,- für die GTX480 ausgeben würde, der zahlt auch noch die 100,- für die 5970 drauf, welche auch mit Tessalation deutlich schneller ist (klick) und trotzdem weniger verbraucht.
Einzige Gründe sind (abgesehen von typischen Nvidia-Fanboys) CUDA, PhysX und 3D Vision. Dafür mangelt an der Unterstützung dreier Monitore.


Eine Dual-GPU-Karte oder deutlich schnellere Variante dürfte es von der GTX4xx in naher Zukunft kaum geben, dafür ist man schon jetzt zu nah an der technisch umsetzbaren Verbrauchsgrenze. Insofern wird ATI mit der 5970 noch einige Zeit die Performance-Krone behalten.


-- Veröffentlicht durch schultheiss18 am 15:48 am 27. März 2010

Ohne worte :lol:

GTX 480 Lautstärke


-- Veröffentlicht durch spraadhans am 14:22 am 27. März 2010

So gehts mir mit meiner 4770 eigentlich auch, nur für GTA wären 1024 MB VRAM schöner, die 5770 ist mir aber zu wenig Steigerung...


-- Veröffentlicht durch smoke81 am 14:15 am 27. März 2010

Wenn man da an die HD38xx-Serie denkt, dann sollte jetzt nach einem halben Jahr eigentlich eine HD5850 ca. 140 Euro kosten und eine HD5870 ca. 180 Euro :lol:

Mal schauen, wann die verfügbaren Karten wieder unter die "Launchpreise" von 210 bzw. 320 Euro fallen werden...

Selbst für mich mit "nur" einer HD4850 (1GB) lohnt eigentlich keine neue Karte unter einer HD5850 - und die ist einfach noch zu teuer.


-- Veröffentlicht durch spraadhans am 13:51 am 27. März 2010

Sie wird trotzdem ihre Käufer finden, denn sie ist eben einfach schnell und dabei dürfte das Potential erst mit DX11 und viel Tesselation wirklich ausgereizt werden.

Viele Käufer interessieren sich nach wie vor nicht für den Verbrauch eines SpielePCs und deshalb dürften viele treue NV-Kunden auch hier zuschlagen.

Ärgerlich ist vor allem die Tatsache, dass die 58xx nicht wesentlich günstiger werden (dürften).


-- Veröffentlicht durch Henro am 13:11 am 27. März 2010

In meinen Augen auch ein absoluter Fehlschlag ... schneller ja aber die (auf verschiedene Weise) Kosten dafür wären es mir im Leben nicht wert.


-- Veröffentlicht durch smoke81 am 11:14 am 27. März 2010

Brutal ist der Verbrauch bei zwei Monitoren und das dürfte nicht gerade selten der Fall sein bei solchen potentiellen Kunden...

Interessant finde ich immer die Grafikkartentests von HT4u, dort werden die Verbräuche alleine von der Grafikkarte gemessen (ebenso ist der Netzteilwirkungsgrad außerhalb der Messung).

Die GTX480 verbraucht im Furmark ~ 320W... liegt also über den veröffentlichten Spezifikationen. Selbst mit einem guten Netzteil werden dann schnell ~ 360W an der Steckdose daraus...


-- Veröffentlicht durch Xpect am 10:56 am 27. März 2010

Sry, mir fiel kein andrer Titel ein:

Ich hab mir grad den Test auf CB durchgelesen (Link) Und bin absolut enttäucht.

Im Vergleich zur HD5870 ist die GTX480 zwar schneller, aber das ist ja nicht alles.
Mal ein Vergleich in Prozenten (aus den Ergebnissen des Tests berechnet), die Werte stehen alle im Verhältnis zur HD5870 (HD5870=100%), bei der Performance habe ich die Auflösung 1680x1050 nur betrachtet, ein heutigen Quasi-Standard:

Performanc: +15%
Performance (Qualität): +18%
Performance (DX11): +22%
Stromverbrauch Idle: +15% (191W)(HD5870: 166W)
Stromverbrauch Last: +48% (452W)(HD5870: 305W)(Dual-GPU HD5970: 392W)
Temperatur Idle: +30% (43°C)(HD5870: 33°C)
Temperatur Last: +22% (93°C)(HD5870: 76°C)
Lautstärke Idle: +07% (45,5dB)(HD5870: 41dB)
Lautstärke Last: +17% (63dB)(HD5870: 54dB)
Preis: +26%

Preis vorraussichtlich laut CB: 480€
Preis der HD5870: 380€



Also ich hoff ihr könnt mit den Werten was anfangen wie ich sie dargestellt hab in der Kurzfassung. Im Endeffekt zahlt man für ~18% mehr Performance (wer so eine Karte hat spielt sicher nciht ohne AA etc ;)) einen 26% höheren Preis und hat 48% mehr Stromverbrauch als mit einer HD5870. Das aber nur beim zocken. Im idle mit nur einem Monitor hat man zwischen den beiden Karten logischerweise keine Leistugsunterschiede und dennoch um 15% höhere Stromkosten. Ich muss sagen, ich bin mehr als enttäuscht von der Karte. Zumal ncoh nichtmal sämtliche Einheiten des Chips aktiviert sind, was im CB Artikel ebenfalls erwähnt wird.


(Geändert von Xpect um 19:17 am März 29, 2010)


OCinside.de PC Forum
© 2001 - 2024 www.ocinside.de