NVidia GTX480 - ein absolutes Failprodukt?
- OCinside.de PC Forum
-- Grafikkarten OC
--- NVidia GTX480 - ein absolutes Failprodukt?
|
Ein Ausdruck des Beitrags mit 88 Antworten ergibt bei 3 Antworten pro Seite ca. 30 DIN A4 Seiten. Das entspricht bei 80 g/m² ca. 149.69 Gramm Papier.
-- Veröffentlicht durch Steffen545 am 18:22 am 31. Aug. 2010
naja, mein Board wollte ich nicht verkaufen. Bin total zufrieden mit ihm...
-- Veröffentlicht durch rage82 am 17:53 am 31. Aug. 2010
undervolten kannst du eventuell probieren, aber weiter runtertakten geht nicht 50/100/67,5 sind schon recht minimal...
-- Veröffentlicht durch Steffen545 am 17:36 am 31. Aug. 2010
ok, die paar mehr watt im idle kann ich verschmerzen. Werd dann doch mal die GTX480 ausprobieren. Die kann ich ja auch noch im Idle runtertakten und evtl undervolten.:lol:
-- Veröffentlicht durch rage82 am 17:18 am 31. Aug. 2010
eine gtx480 zieht etwa 50w im idle, 2 gtx 460 kommen auf etwa 30w idle, 2 5870 kommen auf etwa 40w im idle.
-- Veröffentlicht durch Steffen545 am 16:20 am 31. Aug. 2010
hmm wegen sli müsste ich mir ein neues Board kaufen.... teuer...:lol:
-- Veröffentlicht durch spraadhans am 8:30 am 31. Aug. 2010 Wenn die Idle wichtiger ist, dann entweder 2x gtx460 im sli oder eine hd5870.
-- Veröffentlicht durch Steffen545 am 20:08 am 29. Aug. 2010
überleg mir schon die ganze Zeit ob ich mir nicht mal ne GTX480kaufen soll...
-- Veröffentlicht durch rage82 am 17:33 am 27. Mai 2010
die gtx460... soll auf dem gf104 basieren und wird da dann wohl die speerspitze darstellen. da muss man jetzt halt abwarten, wie der wird.
-- Veröffentlicht durch kammerjaeger am 17:25 am 27. Mai 2010
Es sei denn, die noch kleineren Karten sind keine beschnittenen Chips wie die GTX465, sondern komplett eigenständige Karten. Dann könnte man evtl. zumindest im unteren und mittleren Segment wieder etwas Boden gut machen...
-- Veröffentlicht durch OberstHorst am 15:34 am 27. Mai 2010
Ja.. ich seh auch grad, dass die 470 wohl immer noch zu laut ist und die 465 anscheinend so stark beschnitten ist, dass sie mit den Ati-Karten nicht mehr mithalten kann.
-- Veröffentlicht durch SenSej am 15:29 am 27. Mai 2010 aber ob die kleinen nivea karten gegen die ati konkurenz gegen halten kann glaub ich nicht so ganz ;)
-- Veröffentlicht durch OberstHorst am 15:26 am 27. Mai 2010
Die Flaggschiffe von NVidia waren doch schon immer Stromfresser und haben entsprechende Wärme produziert.
-- Veröffentlicht durch kammerjaeger am 8:08 am 27. Mai 2010
Nicht nur die Leistung fehlte, auch die notwendigen Auflösungseinstellungen im Spiel fehlten i.d.R..
-- Veröffentlicht durch AssassinWarlord am 7:16 am 27. Mai 2010 dieses Eyefinity...was ist daran eigentlich so neu? Multimonitoring betrieb gabs doch schon vor jahrzehnten :noidea: schon damals konnte man doch auf 2 oder mehreren monitoren das sichfeld erweitern lassen, reichte zwar nicht immer die leistung zu, aber es war möglich.
-- Veröffentlicht durch kammerjaeger am 23:44 am 26. Mai 2010
Die ca. 40% mehr beziehen sich auf das gesamte System, die Karte selbst liegt weit über den genannten 40%. Aber es geht ja nicht nur um den Stromverbrauch an sich, sondern um die "Nebeneffekte" wie: - höhere Lautstärke - stärkeres NT wird benötigt - bessere Belüftung ist Pflicht - umliegende Bauteile bzw. Mainboard werden wärmer und gehen somit schneller kaputt - Karte wird wärmer (klick) und ist somit auch anfälliger für Defekte Zu Deinem Argument des höheren Grafikspeichers: ATI hat ein komplett anderes Speichermanagement. Insofern kann man die Speichermengen von ATI und Nvidia nicht direkt vergleichen. Bei Settings, wo z.B. Nvidia-Karten mit 1024MB schon die Puste ausgeht, haben ATI-Karten mit 1024MB keine solchen Einbrüche. Oder wie erklärst Du sonst, dass der Abstand zwischen 5870 und GTX480 mit steigender Auflösung schrumpft, während er zwischen 5870 und 5850 eher anwächst? Mit CPU-Limitierung lässt sich das also nicht erklären. Insofern hinkt der angebliche Vorteil des größeren Speichers gewaltig. Diverse Test haben gezeigt, dass erst im Multimonitor-Betrieb (Eyefinity) die 1GB-Version der 58xx an ihre Speichergrenzen stößt. ;) Und wenn Du schon vom High-End-Segment sprichst, warum lässt Du dann die 5970 außen vor? Wer ca. 460,- für eine GTX480 ausgeben kann sowie teures Geld für ein Netzteil, dass real 150W mehr leisten muss als mit einer 5870, der kann auch gleich noch einmal rund 90,- drauf legen und direkt zur 5970 greifen, die: - nochmal gut 20% schneller ist als die GTX480 - trotzdem 60W weniger zieht - Eyefinity kann (ja, gerade im High-End-Sektor ein nicht zu unterschätzender Faktor, denn besonders Pro-Gamer werden nur ungern auf die Möglichkeit des erweiterten Sichtfeldes verzichten wollen, dessen Nutzen für Gamer wohl Features wie PhysX und CUDA in den Schatten stellt) (Geändert von kammerjaeger um 23:50 am Mai 26, 2010)
-- Veröffentlicht durch SenSej am 16:48 am 26. Mai 2010
vergiss aber nicht das es auch bald ati karten mit 2GB geben wird und dann werden sich die bench werte ab 1920*1080 auch ändern, denn solche grafikmonster wie metro oder crysis wh in full hd und mit AA und AF da wird der 1GB ram der karte auch schnell voll
-- Veröffentlicht durch KakYo am 16:23 am 26. Mai 2010
Also so schlimm find ich die GTX 480 nicht.
-- Veröffentlicht durch rage82 am 14:02 am 26. Mai 2010
512mb, aber bei nwn2 gabs die probleme noch nicht. für motb wurde die engine aufgebohrt.
-- Veröffentlicht durch SenSej am 13:27 am 26. Mai 2010 ich kenn zwar deine auflösung nicht aber vermute mal das der speicher knapp wird, oder ?
-- Veröffentlicht durch rage82 am 12:40 am 26. Mai 2010
manch einer weiss auch die bild- und filterqualität zu schätzen, auch da ist ati erst seit der hd5xxx-serie wieder auf gleichem niveau.
-- Veröffentlicht durch spraadhans am 7:50 am 26. Mai 2010
Fehler im vorletzten Post von mir berichtigt, dass momentan kein Weg an ATI vorbei führt, habe ich ja geschrieben, nur wollte ich einfach nicht stehen lassen, dass NV schon vorher schlechter als ATI aufgestellt war. Man denke nur an die legendären 8800er, denen ATI selbst mit der zweiten Generation (hd38xx) nichts entgegen zu setzen hatte und deren Topmodelle (8800 ultra, gts g92) selbst heute noch brauchbare fps liefern...
-- Veröffentlicht durch kammerjaeger am 1:20 am 26. Mai 2010
:noidea: Was die Technologie angeht, so hatte Nvidia nur den Vorteil von CUDA und PhysX, was aber für die meisten Gamer irrelevant bzw. kein Kaufargument ist. Ich habe mal einen Blick in eine genau ein Jahr alte Preisliste geworfen und mir ein paar Benches dazu angesehen und Deinen Link zum Verbrauch. Fazit: - GTX260 vs. 4870: preislich etwa gleich, Leistung und Lastverbrauch ebenfalls, idle leichter Vorteil für Nvidia - GTX275/280/285 vs. 4890: GTX275 und 4890 etwa gleich schnell und teuer, in der Leistung marginaler Vorsprung für GTX285, aber dafür deutlich teurer. Beim Verbrauch liegt die 4890 idle leicht hinten, dafür unter Last klar vorn. - GTX295 vs. 4870 X2: GTX klar teurer, dafür ganz leichter Vorsprung bei Leistung und Verbrauch Grundlegend bei allen Modellen: bei 4xAA kommen die Nvidia besser weg, bei 8xAA die ATI. Ich sehe da keinen ("deutlichen") technologischen oder leistungsmäßigen Vorsprung für einen Hersteller... Fakt ist halt aktuell, dass Nvidia den Anschluss in der Klasse >100,- klar verloren hat und auch darunter nur wenig brauchbare, konkurrenzfähige Karten bietet. Wenn nicht endlich die kleineren Karten der neuen Baureihe besser da stehen, wird das auch leider auf längere Sicht so bleiben, denn eine komplett neue Architektur wird man so schnell nicht auf die Beine stellen! Die ersten Benches und Verbrauchsmessungen der GTX465 sowie deren Preis sprechen nicht gerade für eine Optimierung in der Fertigung! Als mir mein Großhändler heute die ersten GTX465 angeboten hat, habe ich dankend abgelehnt, denn die werden bei den Preisen (genau wie die großen Brüder) wie Blei in den Regalen liegen bleiben. Bleibt also nur zu hoffen, dass man es bei den noch kleineren Modellen endlich besser macht und neben dem Verbrauch auch das Pricing stimmt, nachdem man besonders in den letzten zwei Jahren dem Kunden gerne mal "facegeliftete" oder nur dreist umbenannte Karten unter neuem Namen und zu nochmal erhöhten Preisen verkauft hat...
-- Veröffentlicht durch spraadhans am 0:20 am 26. Mai 2010
Klar liegt sie als DualGPU Karte vor der GTX480, allerdings ist nach der Meinung vieler Tester die Mikrorucklerproblematik bei ATI schon in deutlich höheren FPS_Regionen verbreitet und könnte die HD5970 subjektiv schon jetzt in einigen Titeln bei bestimmten Auflösungen ggü. einer GTX480 in Bedrängnis bringen...wie gesagt: möglicherweise... Unbestritten sind HD5850 und HD5870 momentan die im Gesamtpaket besten Karten im Performance-High-End Segment...
-- Veröffentlicht durch spraadhans am 0:09 am 26. Mai 2010
Nee, stimmt natürlich nicht.
-- Veröffentlicht durch gabiza7 am 23:28 am 25. Mai 2010
War ja lange Zeit im Nvidea-Fan und dachte auch mal kurz drüber nach mir mal ne 260-er GTX zuzulegen, aber die hat ne maximale Leistungsaufnahme von 160W oder irgendwie sowas in der Größenordnung, wenn man sich da bei ATI in der selben Preis- und Leistungsklasse umsieht hat man vll ne maximale Aufnahme von 90W.
-- Veröffentlicht durch SenSej am 18:14 am 25. Mai 2010
ich hatte eigentlich keine mgpu im sinne aber gut;)
-- Veröffentlicht durch kammerjaeger am 18:09 am 25. Mai 2010
Nvidia...
Ist sie nicht, die 5970 ist in allen Belangen stärker, selbst mit Tessalation. Trotzdem verbraucht die 5970 klar weniger. ;)
-- Veröffentlicht durch SenSej am 18:04 am 25. Mai 2010
in zeiten von "GreenIT" finde ich die 400er reihe bis jetzt inakzeptabel
meinst du damit ati oder nivea^^
-- Veröffentlicht durch kammerjaeger am 8:39 am 25. Mai 2010
Warum sollten die laut sein? Selbst mit Werkseinstellungen sind die meisten 5770 recht angenehm, wenn auch nicht super-silent. Ich hab meine Powercolor via MSI Afterburner so eingestellt, dass der Lüfter bis 50 Grad bei 25% arbeitet und dann langsam hoch regelt. Bei der LAN am Sonntag kam die Karte nie über 69 Grad bei 45% max. Drehzahl. Erst bei 80 Grad hab ich die Regelung als Sicherheitsreserve etwas aggressiver eingestellt. Wenn Du bei einem CF eine gute Belüftung hast, idealerweise ein Lüfter in der Seitenwand auf Höhe der Karten, dann wirst Du auf ähnliche Werte kommen. ;) Und welche Kompatibilitätsprobleme sollte es geben? Zur GTX470/480: Die Karten liegen wie Blei in den Regalen, während man die HD 5xxx schon per Vorbestellung verkauft. Das bestätigte mir der Hauptimporteur einiger Marken. Nicht ohne Grund sind die Preise trotz gestiegenen Dollars schon deutlich gefallen und die Verfügbarkeit gut.... (Geändert von kammerjaeger um 8:40 am Mai 25, 2010)
-- Veröffentlicht durch Rulinator am 2:05 am 13. Mai 2010
meine schwester hört das jeden tag. ... sie ist flugbegleiterin bei air berlin! :thumb: @ topic ich bin grad auch an einem punkt, an dem ich plane, wo ich nach dem sommer, pünktlich zu crysis 2 und mafia 2, aufrüste. dachte cpu-mäßig an einen q9550 (gebraucht, pretested >3.5ghz) und eine hd5850. die möglichkeit zweier 5770er schreckt mich noch ab, muss ja höllisch laut sein gleich zwei solcher teile verbaut zu haben und dann ist da noch die kompatiblitätsfrage... zur 4870 muss man sagen, die habe ich seit herbst 2008 (neu 220 euro) und läuft auch mit aktuellen games noch überraschend gut, auch bei 1920x1080 und teilweise aa/af und hohen detaileinstellungen! :thumb: (Geändert von Rulinator um 2:28 am Mai 13, 2010)
-- Veröffentlicht durch AssassinWarlord am 21:25 am 8. April 2010
also ihr meint, wenn ich mir eine kleine Quadcore CPU reinsetze, den ordentlich hochziehe, komme ich mit meinem sys noch eine ganze weile hin? wie gesagt, auflösung wird bei 1680 bleiben, ohne FSAA oder AF...das mache ich eigentlich nie an...wüste auch nicht, das ich sowas je genutzt habe :noidea:
-- Veröffentlicht durch SenSej am 15:32 am 8. April 2010
cpu lastige game profitieren von meist bis zu 4 kernen
-- Veröffentlicht durch AssassinWarlord am 15:30 am 8. April 2010
interessant :)
-- Veröffentlicht durch kammerjaeger am 0:21 am 8. April 2010
Sobald die Fertigung es zulässt... Momentan kann TSMC aber froh sein, wenn sie die aktuelle Fertigungstechnik halbwegs profitabel hinbekommt, von noch feineren Strukturen scheinen sie momentan nur träumen zu können. ;)
Richtig. Natürlich merkt man den Unterschied von der 4870 zur 5870, aber nur bei einigen Spielen und Settings. Die alte E6300 ist dank des kleinen Caches von 2MB nicht ideal für High-End-Gaming und für eine 5870 viel zu lahm. Da helfen selbst hohe Taktraten nicht. Bei Intel ist der L2-Cache noch viel wichtiger als bei AMD. Der Unterschied ist z.T. enorm, wie man z.B. beim Vergleich E8200 (6MB, 2,66GHz) vs. E4700/E5300 (2MB, 2,6GHz) hier sehen kann. In Spielen sind es zwischen 20 und 40% Differenz! Das durch hohen Takt rein zu holen, ist fast unmöglich, wie man am Vergleich E4500 zu E4700 sieht. Vielleicht bekommst Du ja einen E8xxx preiswert von einem Umsteiger auf Quad oder S.1156/1366, sonst besser einen Q9xxx. Das bringt mehr als eine neue GraKa. ;) (Geändert von kammerjaeger um 0:37 am April 8, 2010)
-- Veröffentlicht durch SenSej am 0:18 am 8. April 2010 wer im profibereich ne 1000,- karte kauft hat auch noch ged für ohrstöpsel ;)
-- Veröffentlicht durch AssassinWarlord am 22:15 am 7. April 2010 denke eher nur treiberoptimierungen... und für den Professionellen markt werden die schon abnehmer finden...
-- Veröffentlicht durch gabiza7 am 22:13 am 7. April 2010
Haltet ihr es für wahrscheinlich, dass Nvidea ihre "Neue" nochmal überarbeitet? Oder geht deren Philosphie eher in Richtung "Wir lassen es so und eine paar Dumme kaufen die dann schon."
-- Veröffentlicht durch spraadhans am 18:29 am 5. April 2010 Was bei dir eher als die Grafik limitieren dürfte, ist wohl die CPU. Ich würde lieber da ansetzen und die gute 4870 noch eine Weile behalten, denn die gehört m.E. gerade bei 1600x1000 noch nicht zum alten Eisen.
-- Veröffentlicht durch AssassinWarlord am 17:22 am 5. April 2010
gut, denke auch das ich mit der 5870 eine weile auskommen werde :-)
-- Veröffentlicht durch spraadhans am 15:55 am 5. April 2010
Nö, ein PCIE 16x 2.0 langt, für deine Auflösung ist eine 5850 oder 70 wirklich die beste Lösung...
-- Veröffentlicht durch AssassinWarlord am 15:12 am 5. April 2010
dacht ich mir schon :lol:
-- Veröffentlicht durch VoooDooo am 15:00 am 5. April 2010 bei nVidia is auch bei vier Schluss. Aber schon bei vier Chips skaliert es nicht mehr wirklich gut.
-- Veröffentlicht durch AssassinWarlord am 14:51 am 5. April 2010
4gpus können nur angesteuert werden? was das denn, ist doch langweilig...da ruckeln doch noch die alten DosKlassiker :biglol:
-- Veröffentlicht durch SenSej am 14:37 am 5. April 2010 das wäre das richtige für 4 mal 480GTX aber da brauchst du allein für die GK´s schon nen 1,2KW NT :blubb:
-- Veröffentlicht durch VoooDooo am 13:53 am 5. April 2010 es gehen imo nur 4 Chips, also nach zwei 5970 is Schluss. Aber das passende Board für deine Idee ist das: :bonk:
-- Veröffentlicht durch KakYo am 13:52 am 5. April 2010 Ich glaube bei 4-way Crossfire ist Schluss, sprich 4x 5870 oder 2x5970:noidea:
-- Veröffentlicht durch AssassinWarlord am 13:43 am 5. April 2010
gut zu wissen.
-- Veröffentlicht durch k3im am 9:27 am 5. April 2010
Übernimmt alles brav der Treiber. Brauchst dich um nix zukümmern.
-- Veröffentlicht durch AssassinWarlord am 0:57 am 5. April 2010
wie ist es eigentlich heutzutage, muss das Spiel Corssfire/SLI unterstützen, oder übernimmt das absolut nur der Treiber, der die rechenleistung auf beide karten aufteilt?
-- Veröffentlicht durch k3im am 22:39 am 4. April 2010
Ich kann nur, wenn man die Möglichkeit hat, zu zweimal der billigsten 5770 im Presivergleich raten! Sowas z.B. und jut is! Is billiger als ne 5850 und oft auch Leistungsfähiger. OT: Off ;) (Geändert von k3im um 22:40 am April 4, 2010)
-- Veröffentlicht durch kammerjaeger am 17:29 am 4. April 2010
Selbst ggü. der 5870 ist die GTX470 ein Stromfresser, kommt sogar fast an die Werte der 5970 ran! Unter Furmark liegt die 5970 zwar klar drüber, aber ingame sieht die Welt wieder ganz anders aus. Da kommt die GTX470 bis auf ein paar Watt an die 5970 ran und liegt gut 60W über der 5870 (siehe vorletzte Grafik, auch andere Messungen mit Spiele-Engines bestätigen das Ergebnis, nur zeigen die nicht alle der betroffenen Karten in einer Grafik).
-- Veröffentlicht durch rage82 am 10:50 am 4. April 2010
es geht um 5870 vs gtx470. da ist der unterschied wesentlich geringer. je nach temperatur sind 10-20 watt drin. die dimension dürfte zumindest die größte sein, die bisher aufgetreten ist, da vorher noch niemand 3mrd transistoren auf einen grafikchip verpflanzt hat.
-- Veröffentlicht durch kammerjaeger am 9:28 am 4. April 2010
Hier ein schöner Vergleich der Verbrauchswerte von GTX470 und 5850 in diversen Spielen. In FarCry2 z.B. zieht die GTX 119W mehr! Daran wird auch ein besserer Kühler nicht viel ändern...
-- Veröffentlicht durch SenSej am 9:22 am 4. April 2010
ich würd sagen lieber die 5850 in einer OC version oder selbst etwas ocen
-- Veröffentlicht durch AssassinWarlord am 2:15 am 4. April 2010 also eher die 5870 und gut ist...
-- Veröffentlicht durch spraadhans am 1:34 am 4. April 2010
Noch nicht aber er hat ja nach der Zukunftstauglichkeit gefragt und da muss man nun ehrlich gestehen, dass möglicherweise schon in einem Jahr eine 5970 in fps-Regionen kommt, welche zu Mikrorucklern führen.
-- Veröffentlicht durch kammerjaeger am 1:27 am 4. April 2010
Nur bei einem 5970-CF. Einzeln tritt es praktisch nie in Erscheinung.
-- Veröffentlicht durch spraadhans am 1:08 am 4. April 2010
2. Absatz im Fazit:
-- Veröffentlicht durch AssassinWarlord am 0:34 am 4. April 2010 mikroruckler?
-- Veröffentlicht durch spraadhans am 23:48 am 3. April 2010
Da ATI sich nicht um die Mikrorucklerproblematik kümmert, würde ich die Frage eher mit nein beantworten, denn selbst bei den hohen Frameraten, die die 5970 jetzt erzielt, sind die Ruckler für manche Betrachter jetzt schon störend. In drei Jahren ziemlich sicher auch für dich.
-- Veröffentlicht durch AssassinWarlord am 20:40 am 3. April 2010 1650x1050er auflösung, ohne AA, max. etwas AF, und eben aber high quality settings in den kommenden games.
-- Veröffentlicht durch rage82 am 20:28 am 3. April 2010 definiere "reichen"
-- Veröffentlicht durch AssassinWarlord am 16:23 am 3. April 2010
hmm, hat ATI eigentlich auch irgendwelche PhysX beschleunigenden dinge onboard? Cuda war doch auch etwas für die Physik effekte, oder?
-- Veröffentlicht durch rage82 am 10:30 am 3. April 2010
die gtx470 wird mit alternativen kühlern konkurrenzfähiger. sie wird nicht nur leiser, denn alleine das ist das KO-kriterium gegenüber der 5870. sondern auch kühler und damit stromsparender. da ist einiges an potenzial vorhanden.
-- Veröffentlicht durch kammerjaeger am 8:41 am 3. April 2010
Die GTX470 ist in der Leistung zwischen 5850 und 5870, verbraucht aber selbst ggü. der 5870 deutlich mehr (klick). Lediglich bei exzessiver Tesselation-Nutzung in Verbindung mit 4xMSAA macht sie eine gute Figur.
-- Veröffentlicht durch spraadhans am 21:28 am 2. April 2010
Naja, die GTX470 ist ca. auf einem Level mit der 5870 und der Verbrauch liegt zumindest recht deutlich unter der 480, als die rundere Karte.
-- Veröffentlicht durch kammerjaeger am 17:44 am 2. April 2010
Tja, man hat halt versucht, neue Wege zu gehen und für professionelle Anwendungen ein passendes Paket zu schnüren. Dass das aber u.U. im Consumer-Market nicht den gewünschten Erfolgt bringen wird, sieht man bei kompletten Neuentwicklungen erst, wenn das Produkt fertig ist... Nach mehreren Umbenennungen und marginalen Veränderungen (8800GT -> 9800GT, 9800GTX+ -> GTS250, GT240 -> GT340, 9600GSO -> GT330 usw.) musste man aber endlich mal komplett neue Architekturen entwickeln. Ist halt nicht so geworden, wie man es sich gewünscht hätte. Vielleicht kann die nächste Generation effizienter gestaltet werden, hoffentlich schon die kommenden Mid-Range-Karten (GT420-GTX460 :noidea:). Denn wenn das nicht passiert, wird Nvidia bald komplett den Anschluss im Massenmarkt verlieren!
-- Veröffentlicht durch smoke81 am 14:39 am 2. April 2010
Naja, mich wundert es eigentlich, dass die HD2900er-Karten oft noch für rund 50 Euro in Hardwareforen verkauft werden (nach reichlich Qual per OC und Overvolting...).
-- Veröffentlicht durch k3im am 13:45 am 2. April 2010
Erinnert an die 2xxx Reihe von ATI. Die waren ja schon als Heizungen verschrien. Waren sie ja auch.
-- Veröffentlicht durch kammerjaeger am 23:18 am 29. März 2010
Deshalb geht man ja immer mehr zu Sone über, was einen realistischeren Eindruck vermittelt.
-- Veröffentlicht durch Xpect am 22:58 am 29. März 2010 *überleg* Aua, die armen Ohren
-- Veröffentlicht durch petron am 22:53 am 29. März 2010
wenn wir schon dabei sind.... ;)
-- Veröffentlicht durch Xpect am 19:18 am 29. März 2010 Ok, habs mal geändert. Besser so? :)
-- Veröffentlicht durch kammerjaeger am 23:24 am 28. März 2010
Das stimmt wohl. Und auch die prozentuale Angabe der Temperatur ist wenig aussagekräftig.
-- Veröffentlicht durch Lucifer am 20:57 am 28. März 2010 Schon klar aber im ersten Post kommt das nicht rüber und der normaler Leser denkt "Mhhh ist ja gar nicht so schlimm"
-- Veröffentlicht durch Xpect am 19:58 am 28. März 2010
Es sind bei CB die Werte des gesamten Systems angegeben. Deswegen sind es "nur" 15% Unterschied ;)
-- Veröffentlicht durch Lucifer am 18:18 am 28. März 2010 idle strom = 100% net 15.... von 25watt auf 50watt... und unter last 50% 190 vs 300
-- Veröffentlicht durch rage82 am 19:17 am 27. März 2010
aktuell liegt sie im preis unter der 5870, ist auch manchmal flotter als diese, genauso oft langsamer. lautstärke ist unter last auch gleich, man möchte es als akzeptabel bezeichnen.
-- Veröffentlicht durch kammerjaeger am 19:10 am 27. März 2010
Die GTX470 ist nur dann konkurrenzfähig, wenn sie bei ca. 300,- liegen wird. In der Leistung nur ganz knapp vor der 5850, aber unter Last zieht sie 50W mehr als die 5870 und sogar 90W mehr als die 5850! (siehe THG)
-- Veröffentlicht durch rage82 am 19:04 am 27. März 2010
die dual-karte soll sich schon in entwicklung befinden, wie das ding aller dings aussehen soll und vor allem gekühlt werden will frage ich mich auch.
-- Veröffentlicht durch kammerjaeger am 18:15 am 27. März 2010
Tja, irgendwo muss die entwickelte Wärme ja hin... :lol:
Wer 500,- für die GTX480 ausgeben würde, der zahlt auch noch die 100,- für die 5970 drauf, welche auch mit Tessalation deutlich schneller ist (klick) und trotzdem weniger verbraucht. Einzige Gründe sind (abgesehen von typischen Nvidia-Fanboys) CUDA, PhysX und 3D Vision. Dafür mangelt an der Unterstützung dreier Monitore. Eine Dual-GPU-Karte oder deutlich schnellere Variante dürfte es von der GTX4xx in naher Zukunft kaum geben, dafür ist man schon jetzt zu nah an der technisch umsetzbaren Verbrauchsgrenze. Insofern wird ATI mit der 5970 noch einige Zeit die Performance-Krone behalten.
-- Veröffentlicht durch schultheiss18 am 15:48 am 27. März 2010
Ohne worte :lol:
-- Veröffentlicht durch spraadhans am 14:22 am 27. März 2010 So gehts mir mit meiner 4770 eigentlich auch, nur für GTA wären 1024 MB VRAM schöner, die 5770 ist mir aber zu wenig Steigerung...
-- Veröffentlicht durch smoke81 am 14:15 am 27. März 2010
Wenn man da an die HD38xx-Serie denkt, dann sollte jetzt nach einem halben Jahr eigentlich eine HD5850 ca. 140 Euro kosten und eine HD5870 ca. 180 Euro :lol:
-- Veröffentlicht durch spraadhans am 13:51 am 27. März 2010
Sie wird trotzdem ihre Käufer finden, denn sie ist eben einfach schnell und dabei dürfte das Potential erst mit DX11 und viel Tesselation wirklich ausgereizt werden.
-- Veröffentlicht durch Henro am 13:11 am 27. März 2010 In meinen Augen auch ein absoluter Fehlschlag ... schneller ja aber die (auf verschiedene Weise) Kosten dafür wären es mir im Leben nicht wert.
-- Veröffentlicht durch smoke81 am 11:14 am 27. März 2010
Brutal ist der Verbrauch bei zwei Monitoren und das dürfte nicht gerade selten der Fall sein bei solchen potentiellen Kunden...
-- Veröffentlicht durch Xpect am 10:56 am 27. März 2010
Sry, mir fiel kein andrer Titel ein:
|
OCinside.de PC Forum
© 2001 - 2024 www.ocinside.de