Ge-force 4200 oder 5600?

- OCinside.de PC Forum
https://www.ocinside.de

-- Grafikkarten OC
https://www.forum-inside.de/forums.cgi?forum=3

--- Ge-force 4200 oder 5600?
https://www.forum-inside.de/topic.cgi?forum=3&topic=2420

Ein Ausdruck des Beitrags mit 58 Antworten ergibt bei 3 Antworten pro Seite ca. 20 DIN A4 Seiten. Das entspricht bei 80 g/m² ca. 99.79 Gramm Papier.


-- Veröffentlicht durch The Edge am 16:27 am 11. Juli 2003

:godlike: das pin ich mir an die wand :lol:

ich versuchs - und @darc wenn ich mir den zündschnur mod abgewöhne :blubb: gewöhnd u dir dieses provozieren nach dem motto "kleiner" ab. das bringt mich sofort auf 180+ und da muss sich dann keiner mehr wundern.


-- Veröffentlicht durch Blade1972 am 10:22 am 11. Juli 2003

OT Mode
@Edge:


es ist doch immer das gleiche, jugendliche haben es schon nicht leicht. wenn es streit gibt haben wir nie recht/sind immer die dummen - nur weil ich vor ein paar wochen ne3n ausraster hatte wollte ich das nicht zur serie werden lassen. habe ich auch nicht gemacht. fangt bloss nicht jedesmal mit diesem sch**** an wenn ich mich mal zur wehr setze/anderer meinung bin.

1. beurteile ich nicht nach Alter, sondern nur nach Postings. ;) Ist vielleicht manchmal unfair, da jüngere Member eventuell dadurch "überfortert" sind :blubb: ( ich meine Niemanden speziellen um gleich irgendwelchen Hassattacken zuvor zukommen ;) ) aber das wird hier ja gewünscht alle gleich zustellen. :thumb:
2. Hast du hier im Topic mal wieder die "Zündschnur" gelegt, dann darfst du dich auch nicht wundern wenn es wieder "rund geht" :blubb: :lol:
3. "zur wehr setzen" :noidea: sind wir hier im Krieg oda was :lol: klar kann mann seine Meinung dazu haben, aber mann sollte immer sachlich bleiben und vorallem macht der Ton die Musik. ;) BTW also in dem Fall kann ich Darkcrawlers Argumente schon verstehen. Im übrigen ist das seit dem Mainboardtopic nicht das erstemal, das du wieder im "Provokationsmodus" postest. Is jetzt auch egal, versuche einfach nicht immer einen auf Rambo zumachen. Das passt eigentlich nicht so richtig zu dir. :)

OT Mode off


-- Veröffentlicht durch The Edge am 22:59 am 10. Juli 2003

:tired: mein reden! :lol:

:thumb:

close :P


-- Veröffentlicht durch webspider am 22:47 am 10. Juli 2003

@Blade1972
bring mal ordnung in diesen thread , das artet ja schon fast aus
von graka auf l1 cache , irgendwie geht bei manchen threads der sinn des gesamten forums verloren
@ edge & dark  
entweder sachlich und fachlich  auseinandersetzen  ,oder es sein lassen , benchmarks besagen teilweise gar nichts ,am besten ist immer noch selber testen und sich dann eine meinung bilden:thumb:

(Geändert von webspider um 22:50 am Juli 10, 2003)


-- Veröffentlicht durch The Edge am 21:30 am 10. Juli 2003

irgendwie finde ich das nicht ganz in ordnung. wieso nur ich? kein wort an darc als wenn er alles richtig machen würde - damit zankt er sich hier genau so - ich habe ja wenigstens am rande bemerkt, dass das hier kein OT ist...

es ist doch immer das gleiche, jugendliche haben es schon nicht leicht. wenn es streit gibt haben wir nie recht/sind immer die dummen - nur weil ich vor ein paar wochen ne3n ausraster hatte wollte ich das nicht zur serie werden lassen. habe ich auch nicht gemacht. fangt bloss nicht jedesmal mit diesem sch**** an wenn ich mich mal zur wehr setze/anderer meinung bin.

was soll ich machen? soll ich immer nur zustimmen? darc beherrscht es erstklassig, andere zur weissglut zu bringen - okay ist das nicht. und zustimmen werde ich nur dann, wenn ein argument vertretbar ist.


-- Veröffentlicht durch Blade1972 am 12:37 am 9. Juli 2003

Offtopicmode on

Ich denke das reicht jetzt mal langsam :blubb: Von Grakas sind wir jetzt bei Cachegrößen von Durons :wall:
@Edge: Meinst du nicht auch das es langsam nicht echt peinlich für dich wird ? Vor ein paar Tagen war es erst meinereiner und Gipskopf und jetzt hier Kammerjaeger und Darkcrawler ! Frage muß das sein :blubb: Sorry aber ich hab mir das jetzt mal die letzten Tage hier im Forum mal näher angeschaut und irgendwie, drängt sich mir der Gedanke auf, das du derzeit wohl mit fast jedem Streß suchst !?! Ich sag es nochmal, arbeite mal daran...

Offtopicmode off


-- Veröffentlicht durch The Edge am 22:20 am 8. Juli 2003


Zitat von Ossi am 9:50 am Juli 8, 2003
Kommt ihr 2 Aufs ocinside Treffen wenn ja wirds geil!!:blubb:



ich bin schonmal nicht da - aus bremen komm ich da schlicht und einfach nicht hin. wie auch ohne karre...


-- Veröffentlicht durch darkcrawler am 10:55 am 8. Juli 2003


Zitat von AssassinWarlord am 13:07 am Juli 5, 2003
naja, ist doch eigentlich ganz leicht zu kapieren, doch wenn es bei manchen hier nicht in die rübe geht...

BEI einem DX9 game, startet das game wenigstens noch! auch wenn es sein kann, das es ruckelt, ist es immer noch besser als wenn das spiel garnet started, weil die GF4ti KEIN DX9 hat, wenn die grakas sowas nicht aufweissen in der zukunft, dan verweigert einfach das spiel zu starten!

Sagen wir mal, es ist ein monat kurz  kurz davor, das ein reines DX9 game auf den markt kommt, dann kauft ihr euch die GF4ti, und die habt ihr einen monat lang, bis das game rauskommt. Ihr hollt euch das neue game, wollt es natürlich gleich zocken, aber das game startet nicht! weill die karte kein DX9 unterstützt.

Da lachen wir über euch, wenn ich das net spielen könnt, nur weill ihr die GF4ti gekauft habt, weill ihr dachtet, das sie auslangt!

Noch lacht ihr über uns, die einen raten, sich eine FX zu holen, wenn einer vor der entscheidung liegt: GF4ti 4200 oder FX 5600!

Aber wenn die zeit reif ist, kann ja nVidia endlich mal einen Treiber basteln, der nur FX optimiert ist, und das dan erst die karte zeigt was loss ist! so das die selbst bei DX8 die GF4 Platt macht!

@The Edge, ich glaube net, das die FX5600 256bit speicheranbinung hat, die hatt nur 128Bit, erst die 5900 hat das...darum ist die jetzt auch so schweine schnell...
Aber denoch fx5600 RULT (auch wenn ich die net habe, gabs damals noch net)







nö, bei ner gf 1 kann man schliesslich auch dx8 installen und damit dx8 spiele zoggen;)

(Geändert von darkcrawler um 11:18 am Juli 8, 2003)


-- Veröffentlicht durch darkcrawler am 9:51 am 8. Juli 2003

dann könnt ich ihm vielleicht lesen beibringen ;)


-- Veröffentlicht durch Ossi am 9:50 am 8. Juli 2003

Kommt ihr 2 Aufs ocinside Treffen wenn ja wirds geil!!:blubb:


-- Veröffentlicht durch darkcrawler am 9:48 am 8. Juli 2003


Zitat von darkcrawler am 2:12 am Mai 19, 2003

Zitat von The Edge am 18:47 am Mai 16, 2003

Zitat von Henro am 18:41 am Mai 16, 2003
durons ab 1000 Mhz sind XPs mit 64kb L2 Cache ;)



64KB L1, 128KB L2 :tongue:



nö, genau falsch, henro hat schon recht;)





wie schon gesagt, augen aufmachen, lesen (vielleicht noch n bissel denken) und dann wirst du merken, dass du die werte genau falsch rum gepostet hast und ich sage, das es so rum genau falsch ist, und nich die fakten verdrehen;)


dir is nich mehr zu helfen alder:lolaway::lolaway::lolaway:



Zitat von darkcrawler am 21:05 am Mai 19, 2003

Zitat von The Edge am 2:22 am Mai 19, 2003
ach woher haste denn die info? das wär mir neu, dass der L1 cache grösser ist als der L2 cache...

siehe hier http://www.kmelektronik.de/root/shop4/auswahl.php?ArtNr=3315



k&m:confused::lolaway:

na dann stöber mal bei www.amd.de, da wirst eines besseren belehrt:kidding:




und nochmal genau lesen, na woher hab ich die info, der der l1 grösser ist als der l2

ausserdem kann man nich "einfach mal so beliebig" die grösse des l1 verändern, da dies ein komplettes redesign des core erfordern würde;)

mach ruhig weiter mit deinen verschwörungtheorien dickköppchen ;), ich amüsier mich prächtig, vielleicht kommts noch so gut wie im hw damals, da hast auch nix mehr gemerkt;)

(Geändert von darkcrawler um 9:49 am Juli 8, 2003)


-- Veröffentlicht durch The Edge am 1:53 am 8. Juli 2003

ich schiebe jegliche verantwortung auf K&M und gut is - ich schau da schon lange - sowas prägt man sich ein, man.
mensch! auf solche leute müsste man sich doch verlassen können - wenn sogar die das falsch machen....

und selbst wenn. mal folgendes überlegt:

-->du schriebst nie was vom L1
-->aber hast mich da auch nicht verbessert
--> also ging ich zuerst logischerweise davon aus, dass 64/64 richtig ist
-->da der L1 cache allerdings ziemlich nie bei cpus genau so gross ist/war, wie der L2, dachte ich, du liegst falsch - hinzu kam die sache mit K&M - klingelts? ;) so super simpel.
-->aber das mit dem 128KB L1 wollteste wohl nicht preisgeben, so der vollständigkeit halber, oder?
-->tat da nicht genau so eine verbesserung not?
-->also weisste/wussteste die werte doch nicht - L2 ist nicht alles ;)

-->zum oc kasper machst du dich im moment - ich schnibbel schonmal die pappmütze :tongue:

(Geändert von The Edge um 1:55 am Juli 8, 2003)


-- Veröffentlicht durch darkcrawler am 0:54 am 8. Juli 2003


zum l2 cache - du hattest andauernd gesagt 64KB L1 und  64L2, oder lügst du das jetzt aus scham weg?  




na dann träum mal weiter von deinen unfundierten behauptungen ;)

spätestens beim barton müsste dir deine (un-)logik spanisch vorkommen


edit: da ich im gegensatz zu dir nich nur rumlabbern und irgendwelche märchen ausdenken will, hier mal ein kleiner auszug vom topic:



Zitat von darkcrawler am 2:12 am Mai 19, 2003

Zitat von The Edge am 18:47 am Mai 16, 2003

Zitat von Henro am 18:41 am Mai 16, 2003
durons ab 1000 Mhz sind XPs mit 64kb L2 Cache ;)



64KB L1, 128KB L2 :tongue:



nö, genau falsch, henro hat schon recht;)




und dann....



Zitat von darkcrawler am 21:05 am Mai 19, 2003

Zitat von The Edge am 2:22 am Mai 19, 2003
ach woher haste denn die info? das wär mir neu, dass der L1 cache grösser ist als der L2 cache...

siehe hier http://www.kmelektronik.de/root/shop4/auswahl.php?ArtNr=3315



k&m:confused::lolaway:

na dann stöber mal bei www.amd.de, da wirst eines besseren belehrt:kidding:



ich weiss ja nich was du mit deiner tollen aktion hier erreichen willst, und mich hier grundlos als lügner titulierst, aber vielleicht willst unser neuer oc-kasper werden:lolaway:

erst denken dann posten und die infos mal nich vonne krassedirektconnection k&m holn;)


(Geändert von darkcrawler um 1:28 am Juli 8, 2003)


-- Veröffentlicht durch The Edge am 23:15 am 7. Juli 2003


Zitat von darkcrawler am 21:10 am Juli 7, 2003
aber das ist genau die antwort die ich von dir erwartet hab, genau wie die aktion, wo du deine unqalifizierten kommentare, ich vermute jetzt mal aus feigheit oder scham oder was weiss ich im hw schnell alle im nachhinein gelöscht hast;)



hehe nö. ich war der einzige, der gemerkt hat, dass das NICHT OFFTOPIC WAR! das war ein topic in einem der hauptforen und da ist jeder streitpost zuviel - scham :crazy: ich kenne ein forum, da stehen viel dümmere sachen von mir drin (vielleicht, weil das 1 1/2 jahre her ist).

zum l2 cache - du hattest andauernd gesagt 64KB L1 und  64L2, oder lügst du das jetzt aus scham weg? :tongue:

ausserdem denke ich logisch.

L1 cache athlon 128 duron hälfte --> 64
L2 cache atrhlon 256 duron hälfte --> 128

allerdings gibt es ja 2 L1 caches - den data und den instruction cache und die sollten beide schon 65KB haben, sonst kannstes vergessen.

das wusste ich bis dahin aber nicht also hab ich einfach die hälfte abgerechnet - ich habe die werte wenigstens gewusst - ich hatte das teil ne lange zeit lang und hab viel drüber gelesen.


-- Veröffentlicht durch darkcrawler am 21:10 am 7. Juli 2003





Zitat von darkcrawler am 23:55 am Juli 3, 2003

Zitat von The Edge am 18:01 am Juli 3, 2003

Zitat von darkcrawler am 21:29 am Juli 2, 2003
mach die augen auf, seh dir die benches an und staune, wennde dann immer noch die 560er fürs doppelte geld vorziehst, kann dir auch keine rmehr helfen, kleener dickkopp;)



der begriff "vollidiot" rückt für mich LANGSAM aberr sicher näher! ES GEHT NJICHT UM JETZT, SONDERN UM SPÄÄÄÄÄÄTER!!! :shout::gripe:

und das kleener dickkopp verbitte ich mir, sonst werde ich RICHTIG




och nich doch mein kleener, nachher fliessen bei dir hier wieder die tränen, kleiner besserwisser (duron hat 128k l2 na klar) da zitier ich einfach ma dieter nuhr:



:lolaway::lol: DU lagst mit 64L1/64L2 genau so falsch, um das thema nochmal aufzugreifen - ich habe nur L1 mit L2 verwechselt, das ist mein prob - du wusstest ja die zahlen nichmal :kidding:

;)




na klar, ich wusste die zahlen nichma:crazy:

du hast dich noch lauthals lustig gemacht von wegen l2 cache kleiner als l1 cache wäre völliger schwachsinn.

als ich extra für dich die whitepapers verlinkt hab, dass du mal n blick drauf werfen solltest kam natürlich keiner von deinen kommentaren mehr:tongue:

aber das ist genau die antwort die ich von dir erwartet hab, genau wie die aktion, wo du deine unqalifizierten kommentare, ich vermute jetzt mal aus feigheit oder scham oder was weiss ich im hw schnell alle im nachhinein gelöscht hast;)


-- Veröffentlicht durch kammerjaeger am 18:49 am 7. Juli 2003

Deshalb hab ich es ja in " gesetzt.
Von den Features sind sie identisch. Daß einige (nicht alle) 4200 ein anders Layout haben, ändert nichts.
Die Leistung wird von GPU- und Speicher-Takt bestimmt.


-- Veröffentlicht durch Ossi am 13:31 am 7. Juli 2003


kammerjaeger Erstellt 8:41 am Juli 7, 2003
@ The Edge

Woher der plötzliche Sinneswandel?  
Die TI4600 ist doch auch nur eine "übertaktete TI4200", ohne DX9...



Was erzählst du denn für einen Quark die Ti4600 kam paar Monate früher raus als die TI4200 die TI4200 ist ein heruntergetaktet TI4600 mit anderen Layout!!


-- Veröffentlicht durch kammerjaeger am 8:41 am 7. Juli 2003

@ The Edge

Woher der plötzliche Sinneswandel? :noidea:
Die TI4600 ist doch auch nur eine "übertaktete TI4200", ohne DX9...


-- Veröffentlicht durch The Edge am 0:43 am 7. Juli 2003

neee! ich hab grad mal anders überlegt! in den benchmarks sieht die 4600 gar nicht so alt aus - guter kauf :thumb: - kostenpunkt?


-- Veröffentlicht durch grandpa am 20:30 am 6. Juli 2003

So, daß meine "simple" Frage so persönlich wird hätte ich nicht gedacht???
Ich brauch unbedingt eine, da ohne halt gar nix läuft.
Ich habe jetzt eine 4600 geholt, da sie nur minimal teuerer war als eine gute 4200er. Gut, das ist zwar nicht zukunftssicher, aber wirklich zukunftssicher ist eigentl. gar nix. Sollten wirklich flächendeckend dx9 spiele verfügbar sein, dann wird auch eine 5600 wohl nicht wirklich leistung bringen sondern eher im einsteigersegment mitmischen und mit heutigen MX-karten vergleichbar sein.
mal sehen was auf dem markt ist wenn wirklich spiele da sind, die auf einer 4X00 nicht mehr vernünftig laufen.
Also an alle 5600-befürworter: nicht traurig sein, ist nicht persönlich!


-- Veröffentlicht durch The Edge am 17:26 am 5. Juli 2003

was spekulieren wir eigentlich... einfach mal abwarten. solange meine Ti 4200 noch reicht, behalte ich die.

wer meint, auf jeden fall geld sparen zu müssen, kaufe sich bitte die ti 4200

wer hofft, dass diese kartew in zukunft gebraucht wird und besser läuft, kaufe sich die FX 5600U, dann aber mit 400/800 taktung.

wer auf nummer sicher gehen will und genug geld hat, kaufe sich ati/R 9700Pro/9800Pro und der salat ist gegessen.


-- Veröffentlicht durch kammerjaeger am 16:51 am 5. Juli 2003


Zitat von The Edge am 15:54 am Juli 5, 2003


es ging grandpa um eine investition. die frage war entweder 4200 oder 5600 - dann 5600 oder GAR NICHTS. so einfach :tongue:



Und genau das sehe ich anders.

Bis man eine DX9-Karte wirklich feature- und performance-mäßig braucht, kostet eine FX5900 weniger als jetzt der Aufpreis einer FX5600 ggü. der TI4200 ist.
Ausserdem kann man dann die TI4200 verkaufen, wodurch man sogar noch billiger wegkommt... ;)

Solange der "normale Standard-PC" nicht in mind. 80% der Haushalte eine FX5800 beherbergt, wird kein Spielehersteller ein absolut reines DX9-Spiel rausbringen. Der Absatzmarkt wäre zu gering.
Da wird es eher Lösungen geben, die die Features der Karte abfragen und bei DX9-Support ein paar Effekte mehr aktivieren. Aber bis Spiele den Dienst mit DX8-Karten gänzlich versagen, wird es noch dauern.

Ich denke z.B. an Aquanox 2, welches mit Patch DX9 unterstützt, normalerweise aber nur DX8 braucht. So wird es in Zukunft öfter sein... ;)


-- Veröffentlicht durch The Edge am 15:54 am 5. Juli 2003

gigaqhypermegaultra :lolaway:

es ging grandpa um eine investition. die frage war entweder 4200 oder 5600 - dann 5600 oder GAR NICHTS. so einfach :tongue:


-- Veröffentlicht durch Crusader am 14:51 am 5. Juli 2003

will mich ja net in die diskussion reinhängen... aber zukunftssicher ist ein fx5600 ob ultra hyperultra oder megahypergigalultra garantiert nicht... des weiteren ging es grandpa nur darum das er für wenig geld viel leitung bekommt und in preis leistung ist die ti-4200 nur von der radeon 9500 zu schlagen... je nachdem wie er das empfinden hat mehr leistung zu brauchen... ich weis auch gar nicht warum euch die ti-4200 zu langsam ist? ich hab so eine karte und bei mir läuft nahezu alles bei 1024*768 facher auflösung mit 32-bit und (fast immer) maximalen details ruckelfrei (30 - 60 fps) ... kommende spitzentitel wie doom3, stalker, half life 2 brauchen dann mit sicherheit eine flotte dx 9 fähige grafikarte... bis dahin ist es nicht sinnvoll sich über zukunftsmusik gedanken zu machen da die spielaindustrie sowieso immer der hardwareindustrie technologisch ein halbes bis 1 jahr hinterher schleift

(Geändert von Crusader um 14:52 am Juli 5, 2003)


-- Veröffentlicht durch Ossi am 13:16 am 5. Juli 2003

Ach so die neue FX5600 Ultra Rev.2.0 ist auch im Direct X8 schneller als die Ti4200/4400 nur so.

Frequenz: 400/800 neue!:godlike:
Hier GeForce FX5600Ultra Rev.2

(Geändert von Ossi um 13:20 am Juli 5, 2003)


-- Veröffentlicht durch AssassinWarlord am 13:07 am 5. Juli 2003

naja, ist doch eigentlich ganz leicht zu kapieren, doch wenn es bei manchen hier nicht in die rübe geht...

BEI einem DX9 game, startet das game wenigstens noch! auch wenn es sein kann, das es ruckelt, ist es immer noch besser als wenn das spiel garnet started, weil die GF4ti KEIN DX9 hat, wenn die grakas sowas nicht aufweissen in der zukunft, dan verweigert einfach das spiel zu starten!

Sagen wir mal, es ist ein monat kurz  kurz davor, das ein reines DX9 game auf den markt kommt, dann kauft ihr euch die GF4ti, und die habt ihr einen monat lang, bis das game rauskommt. Ihr hollt euch das neue game, wollt es natürlich gleich zocken, aber das game startet nicht! weill die karte kein DX9 unterstützt.

Da lachen wir über euch, wenn ich das net spielen könnt, nur weill ihr die GF4ti gekauft habt, weill ihr dachtet, das sie auslangt!

Noch lacht ihr über uns, die einen raten, sich eine FX zu holen, wenn einer vor der entscheidung liegt: GF4ti 4200 oder FX 5600!

Aber wenn die zeit reif ist, kann ja nVidia endlich mal einen Treiber basteln, der nur FX optimiert ist, und das dan erst die karte zeigt was loss ist! so das die selbst bei DX8 die GF4 Platt macht!

@The Edge, ich glaube net, das die FX5600 256bit speicheranbinung hat, die hatt nur 128Bit, erst die 5900 hat das...darum ist die jetzt auch so schweine schnell...
Aber denoch fx5600 RULT (auch wenn ich die net habe, gabs damals noch net)




-- Veröffentlicht durch The Edge am 23:02 am 4. Juli 2003


Zitat von AssassinWarlord am 20:44 am Juli 4, 2003
Also ich würde mir auch sofort die FX 5600 hollen, wenn ich entscheiden müste ob ti4200 oder FX5600. Ist doch eigentlich ganz einfach: Zukunftssicherheit!

Wenn  ein DX 9 game mal rauskomt, da geht die ti 4200 sowas in die Kniehe, da denkt man eine S3 sei schneller, nur weill die nix mit den Dx9 anfangen zu weiss!. darum wird dx9 SOFTWARE gerendert!. ABER da ja die FX DX9 kennt, macht sie das hardwaremässig, und darum auch mit grossen abstand schneller als die TI4200!

Bei DX8 ist die ti4200 zwar schneller, aber wegen so ein bissel schneller als die fx 5600 sollte man sich NICHT auch gleich die ti4200 kaufen.

Wie gesagt, ZUKUNFTSSICHERHEIT muss auch dabei sein, und da eben die ti4200 "nur" DX 8 beherscht, lammt die extrem in reinen DX 9 games. Doom3 hat ja nur teilweisse DX9, aber selbst da, wird die FX insgesamt schneller sein, als die ti4200.

Liegt nur daran wengen software-rendern und Hardware-rendern...



mein gott - DANKE :thumb:

wenigstens ein paar leute verstehen was ich meine...........


-- Veröffentlicht durch franky am 22:33 am 4. Juli 2003

bei doom wird deine 5600er wohl auch nicht abkacken...
vom preis/leistungsverhältnis ist die 4200er zur zeit wohl kaum zu schlagen und wie hier einige vor mir schon gesagt haben wenn
dx9 mal wirklich gebraucht wird...also beim shooter, nich zum siedeln dann wird eine 5800 oder besser nötig sein und bis dahin reicht die 4200 noch allemal


-- Veröffentlicht durch AssassinWarlord am 20:44 am 4. Juli 2003

Also ich würde mir auch sofort die FX 5600 hollen, wenn ich entscheiden müste ob ti4200 oder FX5600. Ist doch eigentlich ganz einfach: Zukunftssicherheit!

Wenn  ein DX 9 game mal rauskomt, da geht die ti 4200 sowas in die Kniehe, da denkt man eine S3 sei schneller, nur weill die nix mit den Dx9 anfangen zu weiss!. darum wird dx9 SOFTWARE gerendert!. ABER da ja die FX DX9 kennt, macht sie das hardwaremässig, und darum auch mit grossen abstand schneller als die TI4200!

Bei DX8 ist die ti4200 zwar schneller, aber wegen so ein bissel schneller als die fx 5600 sollte man sich NICHT auch gleich die ti4200 kaufen.

Wie gesagt, ZUKUNFTSSICHERHEIT muss auch dabei sein, und da eben die ti4200 "nur" DX 8 beherscht, lammt die extrem in reinen DX 9 games. Doom3 hat ja nur teilweisse DX9, aber selbst da, wird die FX insgesamt schneller sein, als die ti4200.

Liegt nur daran wengen software-rendern und Hardware-rendern...


-- Veröffentlicht durch The Edge am 8:55 am 4. Juli 2003


Zitat von Blade1972 am 21:29 am Juli 3, 2003
@Edge: Hast schon wieder "den schlechten Tag" :blubb: das artet hier schon wieder so aus wie letzt bei den Mainboards :grr: wolltest du nich an dir "arbeiten" :blubb: ;) Egal bitte lese dir mal den Bericht bei THG durch. Ja ich weiß THG is nix für dich :blubb: ich würde den trozdem lesen, weil genau die Problematik die dich interessiert besprochen wird.;) und den bei 3D Center pinne ich nochmal dazu. Wenn du dir die Mühe machst und dir alle Infos der beiden Berichte "reinziehst" :lol: dürfte einiges klarer sein. BTW komm mal wieder runter :lol:



:tired:. ich wusste, das sowas kommt. ich sehe es aber nicht als so akut an :blubb::lol:
ich wäre, wenn,, jetzt total ausgerastet, aber das wolln wa ja alle nicht (ich besonders nicht ;))
übrigens thx für den denkanstoss :wall::lol: vielleicht les ich ja mal... is die schule :lolaway:



Zitat von darkcrawler am 23:55 am Juli 3, 2003

Zitat von The Edge am 18:01 am Juli 3, 2003

Zitat von darkcrawler am 21:29 am Juli 2, 2003
mach die augen auf, seh dir die benches an und staune, wennde dann immer noch die 560er fürs doppelte geld vorziehst, kann dir auch keine rmehr helfen, kleener dickkopp;)



der begriff "vollidiot" rückt für mich LANGSAM aberr sicher näher! ES GEHT NJICHT UM JETZT, SONDERN UM SPÄÄÄÄÄÄTER!!! :shout::gripe:

und das kleener dickkopp verbitte ich mir, sonst werde ich RICHTIG




och nich doch mein kleener, nachher fliessen bei dir hier wieder die tränen, kleiner besserwisser (duron hat 128k l2 na klar) da zitier ich einfach ma dieter nuhr:



:lolaway::lol: DU lagst mit 64L1/64L2 genau so falsch, um das thema nochmal aufzugreifen - ich habe nur L1 mit L2 verwechselt, das ist mein prob - du wusstest ja die zahlen nichmal :kidding:

;)


wenn du hier wieder mal unbegründet leute beleidigen willst und satire oder sarkasmus für dich n fremdwort ist, hört für mich der spass auf jungspund, darüber solltest du vielleicht ma nachdenken, denn son geistiger abfall, wie du ihn ab und an mal (besser: in letzter zeit öfers) von dir gibst GEHÖRT WOHL NICHT IN DIESES FORUM und das will was heissen, wenn ich ma was gross schreib.

geh zu pcghw oder sonstwo dein shice posten:down:



find ich lächerlich :lolaway: kommste einmal nicht mit jemandem klar, soll er irgendwo hingehen - erst mit blöden sprüchen absichtlich provozieren und wenn eine (absolut gerechtfertigte) antwort kommt, kopp in'n sand :lol: -
ist das richtig, leute wegzuschicken, nur weil sie mal etwas "dynamischer" denken? es geht nicht in meinen ("nich-dick-)kopp" rein, dass eine FX5600U gegen eine Ti4200 verliert - ich habe eigentlich nichts dagegen, das beruhigt mich vielmehr, aber irgendwie kann des einfach net sein :crazy:... daher ;)

BTW spoätestens die neue FX 5600Ultra (400/800) gewinnt gegen die Ti4200 ;)



und das kleener dickkopp verbitte ich mir, sonst werde ich RICHTIG offensiv.



tjo, was da wieder fürn quark rauskommt, kann sich schon jetzt im hw ansehen, ich freu mich (und lach jetzt) schon:tongue:



tja. :biglol:.

erstens...
...kommt es...
...anders.
zweitens als man denkt. ;)

sorry, dass ich deine erwartungen nicht erfüllt habe :lol:

:)

(Geändert von The Edge um 8:56 am Juli 4, 2003)


-- Veröffentlicht durch darkcrawler am 23:55 am 3. Juli 2003


Zitat von The Edge am 18:01 am Juli 3, 2003

Zitat von darkcrawler am 21:29 am Juli 2, 2003
mach die augen auf, seh dir die benches an und staune, wennde dann immer noch die 560er fürs doppelte geld vorziehst, kann dir auch keine rmehr helfen, kleener dickkopp;)



der begriff "vollidiot" rückt für mich LANGSAM aberr sicher näher! ES GEHT NJICHT UM JETZT, SONDERN UM SPÄÄÄÄÄÄTER!!! :shout::gripe:

und das kleener dickkopp verbitte ich mir, sonst werde ich RICHTIG




och nich doch mein kleener, nachher fliessen bei dir hier wieder die tränen, kleiner besserwisser (duron hat 128k l2 na klar) da zitier ich einfach ma dieter nuhr:


wenn du hier wieder mal unbegründet leute beleidigen willst und satire oder sarkasmus für dich n fremdwort ist, hört für mich der spass auf jungspund, darüber solltest du vielleicht ma nachdenken, denn son geistiger abfall, wie du ihn ab und an mal (besser: in letzter zeit öfers) von dir gibst GEHÖRT WOHL NICHT IN DIESES FORUM und das will was heissen, wenn ich ma was gross schreib.

geh zu pcghw oder sonstwo dein shice posten:down:





und das kleener dickkopp verbitte ich mir, sonst werde ich RICHTIG offensiv.



tjo, was da wieder fürn quark rauskommt, kann sich schon jetzt im hw ansehen, ich freu mich (und lach jetzt) schon:tongue:

(Geändert von darkcrawler um 0:07 am Juli 4, 2003)


-- Veröffentlicht durch Blade1972 am 21:29 am 3. Juli 2003

@Edge: Hast schon wieder "den schlechten Tag" :blubb: das artet hier schon wieder so aus wie letzt bei den Mainboards :grr: wolltest du nich an dir "arbeiten" :blubb: ;) Egal bitte lese dir mal den Bericht bei THG durch. Ja ich weiß THG is nix für dich :blubb: ich würde den trozdem lesen, weil genau die Problematik die dich interessiert besprochen wird.;) und den bei 3D Center pinne ich nochmal dazu. Wenn du dir die Mühe machst und dir alle Infos der beiden Berichte "reinziehst" :lol: dürfte einiges klarer sein. BTW komm mal wieder runter :lol:


-- Veröffentlicht durch The Edge am 21:03 am 3. Juli 2003


Zitat von Beschleunigen am 18:43 am Juli 3, 2003
die jetzigen DX9 karten werden für reine DX9 titel genauso geeignet
sein, wie die erste GF3 für DX8.

alle, die sich heute ne DX9 karte kaufen, sind
einfach noch nicht reif genug - sie fallen auf
marketing versprechen rein. vielleicht müssen sie
für ihr geld auch nicht arbeiten - allerdings kaufe
ich eine DX9 karte, wenn die spiele es unumgänglich
machen..




:thumb::thumb: endlich erklärt mal einer was! :blubb:

der meinung bin ich auch - wo du es sagst - wie gesagt ich habe eine Ti 4200, aber warum diese diskussion begonnen ist? weil ich nicht glauben kann, dass eine 350/700er karte mit DX 9 pixel/vertexshader 2.0+ und 256Bit Speicherinterface gegen die Ti 4200 250/500 verkackt..........

viel besser muss sie ja nicht sein, aber das sie manchmal schlechter ist....... kann ja auch sein, dass der Detonator FX für DX9 karten in etwa die Qualität der Detos 28.32 für DX 8 Karten :crazy: hat....

man hat ja gesehen, welchen unterschied eiin tweaktreiber bringen kann - es darf nur keine qualität kosten - optimieren kann man ja...

okay im moment ist die FX 5600U eindeutig NICHT zu empfehlen!
genau so wenig wie alle FX ausser 5800U und 5900er serie - die ham was druff. :)

aber wenn man mal von nvidia absieht - ati rulz im moment.


-- Veröffentlicht durch Beschleunigen am 18:43 am 3. Juli 2003

ich mische mich jetzt auch noch ein.

kammerjäger hat recht - soviel vorab.

die vergangenheit hat immer wieder gezeigt,
was hier vermutet wird. die jetzigen DX9 karten
werden für reine DX9 titel genauso geeignet
sein, wie die erste GF3 für DX8.

alle, die sich heute ne DX9 karte kaufen, sind
einfach noch nicht reif genug - sie fallen auf
marketing versprechen rein. vielleicht müssen sie
für ihr geld auch nicht arbeiten - allerdings kaufe
ich eine DX9 karte, wenn die spiele es unumgänglich
machen..
falls es nvidia dann noch gibt, wird es wohl min.
der nachfolger der FX werden..

wenn doom nicht läuft - kauf ich eine -

mfg
tobi


-- Veröffentlicht durch Webspacemail am 18:29 am 3. Juli 2003

du vertauschst hier eindeutig !

5800ultra und 5600ultra,

die 5600 ist der letzte kack, hat zwar dx9 aber nix weiter, ist langsamer, dank schlechterem aufbau usw...

das ist ne "sparvariante" für aldi pc`s wobei dx9 nur der "köder" ist, über die wahre performance sagt das garnix aus


-- Veröffentlicht durch The Edge am 18:01 am 3. Juli 2003


Zitat von darkcrawler am 21:29 am Juli 2, 2003
mach die augen auf, seh dir die benches an und staune, wennde dann immer noch die 560er fürs doppelte geld vorziehst, kann dir auch keine rmehr helfen, kleener dickkopp;)



der begriff "vollidiot" rückt für mich LANGSAM aberr sicher näher! ES GEHT NJICHT UM JETZT, SONDERN UM SPÄÄÄÄÄÄTER!!! :shout::gripe:

und das kleener dickkopp verbitte ich mir, sonst werde ich RICHTIG offensiv.

@Crusader :thumb:

gegen die Ti 4200 sag ich ja nix (hab die selber) aber es geht hier um eine inversition. deswegen entweder FX 5600U, R9700NP oder KEINE graka! Ti4200 lohnt net zu kaufen - wenn bei vice city rauchentwicklung meine FPS gegen null senkt, ist das nicht gerade empfehlenswert....... hat was mit den shadern zu tun - die sind bei ATI und der FX besser ;);););)


(Geändert von The Edge um 20:59 am Juli 3, 2003)


-- Veröffentlicht durch Crusader am 9:42 am 3. Juli 2003

momentan lohnt sich gar kein kauf von grafikkarten.... es sei denn man kann nicht mehr aktuelle spiele in 800*600 facher auflösung mit mittleren details spielen... der markt entwickelt einfach zu schnell momentan... ati und nvidia haben schon für herbst neue modelle vorgestellt die unter anderem 512mb ram haben sollen und ram taktraten jenseits der 1ghz grenze... warte bis die modelle draussen sind dann werfen die dir ne at i9700 / 9800 oder ne fx 5800 / 5900 hinterher...

PS: wenn's denn unbedingt eine karte sein muss dann ne ti-4200 mit 64mb ram als zwischenlösung... hab solche schon für ~ 90 EUR gesehn

(Geändert von Crusader um 9:45 am Juli 3, 2003)


-- Veröffentlicht durch kammerjaeger am 23:51 am 2. Juli 2003

:thumb:


-- Veröffentlicht durch darkcrawler am 21:29 am 2. Juli 2003

mach die augen auf, seh dir die benches an und staune, wennde dann immer noch die 560er fürs doppelte geld vorziehst, kann dir auch keine rmehr helfen, kleener dickkopp;)

(Geändert von darkcrawler um 21:48 am Juli 2, 2003)


-- Veröffentlicht durch The Edge am 17:47 am 2. Juli 2003

häääh?? worauf stützt ihr eure annahmen!? :noidea:

ihr habt keine ahnung, was kommt (so wenig, was kommt(/en kann) wie ich) und meint einfach "joah was die Ti 4.2 nicht mehr packt, schafft die FX 5.6 sowieso nicht oder so, naja bestimmt nicht..."

woher wissat ihr das so einfach? nur weil die FX DX 8 nicht mag!? naja. toll. - viel spass noch - meine empfehlung als NVidianer: ATI Radeon 9700 NonPro. :thumb:


-- Veröffentlicht durch darkcrawler am 13:25 am 2. Juli 2003

eben, wenn vollwertige dx9 spiele draussen sind, isse dafür eh zu lahm


-- Veröffentlicht durch kammerjaeger am 13:24 am 2. Juli 2003

Die FX5600 wird ebenfalls für das zu langsam sein, wofür die TI4200 nicht mehr ausreichen wird.
Wozu also jetzt fast 100,- zuviel bezahlen für weniger Leistung?
Das Geld ist besser in 1-2 Jahren in einer neuen GraKa investiert (Nachfolger der FX5900/R9800...), gegen die dann auch die FX5600 machtlos ist.

Und nun zu den von Dir gewünschten Fakten: Die TI4200 hat 2 VertexShader, die FX5600 nur einen. Das dürfte ein Hauptgrund sein...

P.S.: Ich bin auch kein Freund von 400,- teuren Karten, da sie kein Mensch wirklich braucht...


-- Veröffentlicht durch darkcrawler am 13:22 am 2. Juli 2003


wieviele 2k1er bekommt man mit einer Ti 200 unoced? 7000? HÖCHSTENS! wenn meine GF 2 GTS mit 240MHz 5300 macht.. und die ist von den anderen sachen fast gleichauf mit der GF 3 Ti200. im gegensatz zur 4 MX 440.



das deine gts schneller als ne mx440 ist wag ich zu bezweifeln, die macht auf deinem sys oced locker 2000 pkt mehr;)


zum thema: eindeutig die 4200, da: ~gleich schnell oder schneller und nur halb so teuer

(Geändert von darkcrawler um 13:23 am Juli 2, 2003)


-- Veröffentlicht durch The Edge am 13:00 am 2. Juli 2003

argh was redet ihr teilweise denn fürn stuss :blubb: - ich hab mich nur drüber aufgeregt, dass kammerjaeger den dämlichen vergleich Ti - MX in verbindung mit FX bringt - und vor allem ist direct X 8 für 2k1 entscheidend und nicht 9 - allerdings: die zeit der FX wird kommen. 100pro - siehe 3d marks 2k3.

denkt mal ein bisschen vorm posten nach - ich habe jetzt keinen bock, den kinderkram zu schildern, warum die FX 5600 besser sein MUSS.

die masse der ocinsider machen einen fehler: ihr rennt blind den massen hinterher ohne zu überlegen - vielleicht ist die FX noch zu überentwickelt für derzeitige spiele? sie kann vielleicht ihr volle power (NOCH) nicht ausspielen...

mich interessiert nicht die schwanzlänge meiner graka in 3d marks - das ist nur eine spielerei!! wichtig sind die spiele wie UT2K3 und noch viel wichtiger die zukünftigen!

worauf ich hinauswill! --> im moment nicht irgendwas kaufen, nur weil jemand sagt, es sei gut - was bringt euch eine FX 5900 (zum beispiel) , die in 3d 2k3 massig pkt sammelt und hinterher kommt raus, dass nvidia den treiber optimiert hat...

daher finde ich es assig, für eine FX direct X 8 benchmarks in den vordergrund zu stellen!

KURZ:

-wartet ab, wenn anspruchsvolle spiele kommen, die die Ti 4200 nicht mehr packt, braucht ihr die FX 5600!
-ich rate im moment noch nicht unbedingt zu einer GeForce FX - so lange alle spiele gut laufen, wieso eine neue graka!?!?
--> alternative: ATI. aber wir werden bei anspruchsvollen spielen später mal sehen, ob die radeons sich durchkämpfen werden, oder da verzweifeln, wo die hammerleistung der FX erst entfesselt wird!!


versucht mal, etwas in die ZUKUNFT zu schauen - oder kauft ihr euch jeden monat erine neue graka!? also ich nicht. meine Ti 4200 bleibt drin, bis was auf den markt kommt, das alles weghämmert mit purer power und ohne benchtreiber o.ä. ....:thumb:








aber mal was anderes.
versucht mir doch einfach mal zu erklären, warum die FX 5600 Ultra nicht an meine Ti 4200 rankommt. vielleicht verstehe ich dann - und ich will TECHNIK hören und keine sch**** THG benchmarks vor der nase haben. die sind unzuverlässig, glaube ich. beweist mir anhand von fachchinesisch, warum die karten so gut sind, wie sie sind!

(Geändert von The Edge um 13:06 am Juli 2, 2003)


-- Veröffentlicht durch Blade1972 am 8:34 am 2. Juli 2003

@kammerjaeger: :thumb: so sieht es aus und net anders :blubb: :lol:
@Edge: Im unteren und mittleren Preissegment, ist ATI klar vorne. Nicht nur bei der Performance sondern auch im Preisleistungsverhältnis. ;) Bei den "Higend" Karten sieht es eher ausgelichen, wobei ATI meist das bessere Preisleistungsverhältnis hat. :lol: BTW da du THG ja net "leiden" kannst :blubb: schau mal hier rein. Der Bericht ist derzeit wohl das ausführlichste und sachlichste, was es IMHO im Netzt dazu gibt. ;)


-- Veröffentlicht durch ATHome am 1:10 am 2. Juli 2003

@Edge:

Dann frag ich mich warum die 5600 in fast jedem Bench langsamer ist als die Ti4200...:noidea:

Und ich würd mal gerne wissen, wie du auf den Dreh kommst, das der DirectX Support was über die Geschwindigkeit der Graka aussagt...:noidea:

EDIT: Ich sehe Kammerjäger war schneller und hat deine "Argumente" schon wiederlegt...;)

(Geändert von ATHome um 1:12 am Juli 2, 2003)


-- Veröffentlicht durch kammerjaeger am 1:02 am 2. Juli 2003

@ The Edge

:lol::blubb:
Was erzählst Du da bloss für einen Unsinn?

Am Ende willst Du uns auch noch weißmachen, daß eine FX5200 schneller ist als eine TI4200 (oder sogar TI4600), nur weil die FX5200 DX9 unterstützt.
Selbst die FX5200 Ultra mit 325/650 MHz hat keine Chance.
Siehe: klick

Und eine GF3TI200 kommt selbst ohne OC in einem vernünftigen System auf >8.000 Punkte, nicht wie Du erzählst auf max. 7.000.
Einige hier haben damit übertaktet sogar über 10.000 Punkte.

Um ausserdem Deine Aussage bzgl. 3DMark
(" -->ausserdem: die Ti200 ist auch nur OCed schneller - ohne OC
~gleichschnell. oc nutzt der MX 440 bei DX 7 nen scheis, wenn se DX 8 braucht... --> nature fällt wech = ~70% punktzahl.")
zu entkräften, nehmen wir doch mal typische Spiele:

klick klick klick

Wenn zwischen 10-40% Mehrleistung kein Argument zugunsten der TI200 sind, dann weiß ich auch nicht mehr...

Geschwindigkeit hat weder nur etwas mit DirectX-Features noch mit der Taktfrequenz zu tun.

So ist eine Radeon 9600Pro auch langsamer als eine 9500Pro, obwohl sie höher getaktet ist.

Andere Eigenschaften, wie z.B. die Anzahl der Rendering-Pipelines, sind oft wichtiger als MHz oder DirectX-Features.

Also bleib bitte sachlich statt Halb- und Un-Wahrheiten zu verbreiten, damit ist nämlich niemandem geholfen. Wir sind es sonst, die diesen Mist dann wieder in mühevoller Arbeit aus den Köpfen rausbekommen müssen.

(Geändert von kammerjaeger um 1:08 am Juli 2, 2003)


-- Veröffentlicht durch The Edge am 0:30 am 2. Juli 2003

...allerdings tendiere ich iMo praktisch klar zur radeon - logisch, die FX kannste eh inne tonne treten.......

bis auf die 5900er reihe, die gehen schon eher ab, auch ohne den benchmarktreiber :crazy:


-- Veröffentlicht durch jogoman am 0:25 am 2. Juli 2003

ich stehe auch vor einem neuen graka-akuf und habe mich schon entschieden (ich hatte die gleichen kandidaten wobei die 5600 eher "vernachlässigt" wurde! :wink: ) - naja ich werde mir die Radeon9600PRO kaufen is wohl das beste was es für den preis gibt ich will vorallem 128Mb ram für texturintensive spiele wie z.B. UT2k3...was echt toll aussieht wenn die texturen so hochauflösend sind... :thumb:


-- Veröffentlicht durch The Edge am 0:21 am 2. Juli 2003


Zitat von kammerjaeger am 18:03 am Juli 1, 2003
Eine MX440 mit GPU 275MHz ist auch langsamer als eine TI200 mit 175MHz...



sch**** argument, um das mal etwas offensiv zu betrachten - aber fragen wir uns warum? folgendes:

welche DX support hat die MX 440?

richtig.

DX7.

wie welche graka?

richtig.

GF 2 MX.

:gulp:

...

und die Ti 200?

hm..

DX 8.

ahaa! :idea:

nun vergleichen wir...

...Ti 4200 mit...

...FX 5600 Ultra.

Ti4200 hat?

DX 8, korrekt!

und FX 5600?

direct X sieben natürlich!! :blubb:

--> DX 9 support, daher muss das teil schneller sein.
-->ausserdem: die Ti200 ist auch nur OCed schneller - ohne OC
~gleichschnell. oc nutzt der MX 440 bei DX 7 nen scheis, wenn se DX 8 braucht... --> nature fällt wech = ~70% punktzahl.

wieviele 2k1er bekommt man mit einer Ti 200 unoced? 7000? HÖCHSTENS! wenn meine GF 2 GTS mit 240MHz 5300 macht.. und die ist von den anderen sachen fast gleichauf mit der GF 3 Ti200. im gegensatz zur 4 MX 440.

kurz: ich krieg das nicht gebacken! dass ne MX core immer arschlahm ist, steht ausser frage - aber müsste eine GraKa mit

-256Bit Speicherinterface
-350/700er takt
-DX 9 support
-pixel/vertexshader 2.0+

nicht an einer graka mit

-128Bit SP-int.
-250/513
-DX 8
-pixel/vertexsh. 1.4

vorbeiziehen!?

(Geändert von The Edge um 0:24 am Juli 2, 2003)


-- Veröffentlicht durch HITAC am 21:55 am 1. Juli 2003

Ein Pentium III mit 1,4 GHz machte auch einen Pentium 4 mit 1,8 GHz platt......


MHz sind nicht alles!


-- Veröffentlicht durch kammerjaeger am 18:03 am 1. Juli 2003

Eine MX440 mit GPU 275MHz ist auch langsamer als eine TI200 mit 175MHz...


-- Veröffentlicht durch StoneTheCrow am 15:14 am 1. Juli 2003

Hat es aber, ich habs selber ausprobiert.


-- Veröffentlicht durch The Edge am 15:02 am 1. Juli 2003

THG is assi. :crazy: ne GF4 Ti 4200 hat 250/513 - ne FX5600 nagelneue pixel/vertexshader und 350/700 - da KANN das teile einfach nicht weniger 3dmarks2k1 haben....


-- Veröffentlicht durch kammerjaeger am 11:56 am 1. Juli 2003


Zitat von grandpa am 9:48 am Juli 1, 2003
Die 5600 kostet ungefähr das selbe



Wär mir neu...

Die TI4200 gibt es <100,- während die 5600 >160,- liegt.

Die 5600 lohnt also absolut nicht.

Dann eher in der Preislage eine 9500Pro (solange es sie nicht gibt) oder die 9600Pro.


P.S.: Besonders peinlich für die FX ist das erste Spiel, welches mit Patch DX9 unterstützt:
http://www.de.tomshardware.com/graphic/20030416/radeon9600pro-21.html

(Geändert von kammerjaeger um 11:59 am Juli 1, 2003)


-- Veröffentlicht durch grandpa am 10:09 am 1. Juli 2003

Ja, so was in die Richtung hab ich schon gelesen, aber das ist ja "nur" ein dx8-bench. im dx9-bench sieht das wieder anders aus.
Wenn ich kriterien wie Preis, zukunftsorientierte technik, und geschwindikeit abwägen muss, fällt mir die entscheidung schwer.
Einerseits it die 5600 neuer und dx9fähig, andererseits geht die 4200 besser in den "noch" weitverbreiteten dx8-spielen.
wie sieht mit übertaktungpotentiel der Kartzen aus? Weiß da einer was dazu? vor allem zur 5600, von der 4200 weiß ich´s ja.


-- Veröffentlicht durch moosy am 9:56 am 1. Juli 2003

Hi vielleicht hilft dir das weiter

BEnch


Gruss Moosy


-- Veröffentlicht durch grandpa am 9:48 am 1. Juli 2003

Hallo,

ich hab ja schon eine menge recherchiert, aber bin leider auf kein befriedigendes Ergebnis gekommen, was diese beiden Garka´s angeht.
Ich weiß daß die 4200 eine sehr gute karte ist, aber die dx9- unterstützung fehlt halt. Die 5600 kostet ungefähr das selbe und hat noch dazu dx9-unterstützung, aber ist sie auch mindestens gleich schnell oder besser???

Wäre nett wenn einer klare ergebnisse hätte.


OCinside.de PC Forum
© 2001 - 2024 www.ocinside.de