Es ist offiziell: AMD kauft ATI

- OCinside.de PC Forum
https://www.ocinside.de

-- News
https://www.forum-inside.de/forums.cgi?forum=8

--- Es ist offiziell: AMD kauft ATI
https://www.forum-inside.de/topic.cgi?forum=8&topic=1554

Ein Ausdruck des Beitrags mit 99 Antworten ergibt bei 3 Antworten pro Seite ca. 33 DIN A4 Seiten. Das entspricht bei 80 g/m² ca. 164.66 Gramm Papier.


-- Veröffentlicht durch The Papst am 13:54 am 28. Aug. 2006

Also wenn du die vcore gleich zeitig mit runter setzt, bringts natürlich schon was.


-- Veröffentlicht durch Maddini am 12:51 am 28. Aug. 2006

naja das schöne an meienr karte ist das ich mit dem ati tool ja 2 profile erstellen kann. ein 2D und ein 3D und da kann ich auch schön die spannungen regeln. also auch runter gehen mit dem saft, was natürlich die komponenten schonen sollte oder?

nebenbei noch den stromverbrauch reduziert und die wärmeentwiklung ebenso.

ist zwar nicht notwendig aber ich glaub ich werd das mal austesten wie tief ne 1900er geht :thumb:


-- Veröffentlicht durch The Papst am 11:52 am 28. Aug. 2006

Außerdem bringt es nicht sehr viel.


-- Veröffentlicht durch smoke81 am 11:43 am 28. Aug. 2006


Zitat von Maddini um 11:11 am Aug. 28, 2006
wenn wir schon von idle wetrten rechnen, wie weit kann man im 2D modus runter takten bevor man merkt das die grafik beim browsen und so hinterherhinkt??

sprich allgemein nciht auf die karte bezogen.

400mhz, 300mhz, 200mhz ab wann wirds lahm?? :noidea:



Bis es im 2D-Betrieb lahm wird, kann man theoretisch sehr weit runtertakten (von mir aus 10 Mhz), allerdings ist das Problem, das die Karte vorher instabil wird.

Tiefer als 100 Mhz würde ich aber sowieso nicht gehen, da die Hardware einfach nicht dafür ausgelegt wurde. Ein Problem ist z.B., dass die Versorgungsspannung dann zu hoch wird für die paar Takte und die Schaltkreise stört oder gar zerstören kann.

Man kann sich nach unten - wie nach oben - nur in bestimmten physikalischen Grenzen bewegen.


-- Veröffentlicht durch Maddini am 11:11 am 28. Aug. 2006

wenn wir schon von idle wetrten rechnen, wie weit kann man im 2D modus runter takten bevor man merkt das die grafik beim browsen und so hinterherhinkt??

sprich allgemein nciht auf die karte bezogen.

400mhz, 300mhz, 200mhz ab wann wirds lahm?? :noidea:


-- Veröffentlicht durch kammerjaeger am 12:40 am 27. Aug. 2006


Zitat von Hitman um 11:28 am Aug. 27, 2006
Ochnö, kein THG Test bitte, die sind ja so realistisch wie der D805er auf 4,x Ghz hochtakten....



Ist ja richtig, daß der THG-Artikel zum D805 wohl sponsored by Intel und völlig reißerisch und überzogen aufgemacht war, aber an Meßwerten können sie auch nicht vorbei, lediglich deren Interpretation ist oft etwas beeinflußt vom "aktuellen Hauptsponsor"...

Wenn Du Dir mal andere Vergleiche ansiehst, dann wirst Du merken, daß die Werte von THG bzgl. Stromverbrauch auch dort bestätigt werden, z.B. bei Hardwareluxx, wo die X1900XTX im Gesamtsystem je nach Hersteller bei Idle 142,6W bis 144,3W liegt und somit auch dort im Mittelfeld aller Karten. Die Werte stimmen also absolut mit den Ergebnissen von THG überein. ;)

P.S.: Die höheren Werte unter Last bei THG im Vergleich zu Hardwareluxx kommen übrigens u.a. durch den P4 DualCore, der nunmal "etwas" mehr verbraucht als der FX57. Auch das NT spielt natürlich eine Rolle. Deshalb liegen bei THG alle Systeme unter Last deutlich höher als bei Hardwareluxx...

(Geändert von kammerjaeger um 12:47 am Aug. 27, 2006)


-- Veröffentlicht durch Hitman am 11:28 am 27. Aug. 2006

Ochnö, kein THG Test bitte, die sind ja so realistisch wie der D805er auf 4,x Ghz hochtakten....


-- Veröffentlicht durch kammerjaeger am 14:38 am 26. Aug. 2006

Nö, im Idle liegen die X1900XTX noch human: klick
Selbst die sparsamsten Karten im Testfeld liegen Idle nur max. 20W darunter. Eine 7800GS AGP z.B. dafür schlappe 40W über der X1900XTX! ;)
Erst unter 3D wird sie zum Stromfresser.


-- Veröffentlicht durch Hitman am 14:02 am 26. Aug. 2006

" Da machen sich dann Unterschiede von 40-50W nur durch die CPU im Idle "

Eben, genau wie die ATIs ;) .


-- Veröffentlicht durch kammerjaeger am 0:12 am 26. Aug. 2006


Zitat von Hitman um 23:28 am Aug. 25, 2006
:noidea:
Nein, ich meine nur, dass immer gesagt wurde: Ja, Intel, die sind ja so heiß, und Strom, was meinst du was dich das im Jahr kostet?

Im Endeffekt sind das nur Zahlen die unter den zweistelligen Eurobetrag gehen. So wie es bei den ATI Karten ist, so war es auch bei Intel. Nur da wurde immer trara rum gemacht.



Naja, die Frage ist eben immer, wann der Stromverbrauch zum Tragen kommt. Besonders trifft es eben diejenigen, deren Rechner ständig läuft.

Beim Spielen kommen hierfür fast nur absolute Pro-Gamer oder Dauerschulschwänzer in Frage, denn kein normaler Mensch lastet seine GraKa mind. 8h am Tag aus. Und im Idle ist selbst eine X1900XTX noch recht genügsam im Vergleich zu vielen anderen Karten...

Einige Prescotts jedoch (und besonders natürlich D8xx-CPUs und einige D9xx) ziehen selbst im Idle schon alleine mehr als mein gesamter Office-PC zusammen! Da machen sich dann Unterschiede von 40-50W nur durch die CPU im Idle übers Jahr sehr wohl bemerkbar mit mehr als nur einstelligen Summen:
50W Mehrverbrauch über 10 Stunden pro Tag sind schon fast 40,- im Jahr. Für Dauersauger im 24/7-Betrieb sind 50W Differenz dann schon fast 100,-...

Vergleicht man dann noch etwa leistungsgleiche X2-CPUs mit einem D950, so sind es im Idle schon 84W, unter Last immerhin 160W Differenz. klick
Da kommt dann pro Jahr doch schon so mancher Euro zusammen. Durch OC wird die Sache erst recht nicht besser. ;)

Wer jedoch den Rechner pro Tag nur 1-2 Stunden laufen hat, der kann darüber sehr wohl hinwegsehen... :lol:

(Geändert von kammerjaeger um 0:15 am Aug. 26, 2006)


-- Veröffentlicht durch Hitman am 23:28 am 25. Aug. 2006

:noidea:
Nein, ich meine nur, dass immer gesagt wurde: Ja, Intel, die sind ja so heiß, und Strom, was meinst du was dich das im Jahr kostet?

Im Endeffekt sind das nur Zahlen die unter den zweistelligen Eurobetrag gehen. So wie es bei den ATI Karten ist, so war es auch bei Intel. Nur da wurde immer trara rum gemacht.

Ich wollte dich sicher nicht angreifen. :thumb:


-- Veröffentlicht durch Maddini am 20:44 am 25. Aug. 2006


Zitat von Hitman um 20:07 am Aug. 23, 2006
"auf die 3€ mehr was ich im jahr an strom zahle kommts mir net an"

Erstaunlich, das sagte ich früher immer über meinen Pentium und da haben mich alle ausgelacht.....

:lol:



ähm was willst du mir damit sagen?? :noidea:


-- Veröffentlicht durch Hitman am 20:07 am 23. Aug. 2006

"auf die 3€ mehr was ich im jahr an strom zahle kommts mir net an"

Erstaunlich, das sagte ich früher immer über meinen Pentium und da haben mich alle ausgelacht.....

:lol:


-- Veröffentlicht durch The Papst am 11:51 am 23. Aug. 2006

Tatsächlich, hätte mir auffallen müssen:ohno: Bin ja grad erst aufgestanden;)


-- Veröffentlicht durch Maddini am 11:48 am 23. Aug. 2006

idle schon aber unter last ist die XTX wieder ganz oben.


-- Veröffentlicht durch The Papst am 11:46 am 23. Aug. 2006

In diesem Test verbraucht ne xtx deutlich weniger als ne 7900 GTX:noidea:


-- Veröffentlicht durch Maddini am 9:54 am 23. Aug. 2006

jep kann ich kammerjäger nur zustimmen und selbst bei ner X1900XT auf über XTX niveou und ner knapp 3ghz cpu reicht ein tagan mit 480W lockerst aus. auf die 3€ mehr was ich im jahr an strom zahle kommts mir net an :thumb:


-- Veröffentlicht durch kammerjaeger am 0:30 am 23. Aug. 2006


Zitat von skynet um 22:03 am Aug. 22, 2006

ich korrigiere, jeder mit ner ATI X1x00 karte wäre froh, wenn seine karte nur soviel wie ne NV4x ziehn würde... NV geht trotz mehr leistung mit dem stromverbrauch runter, nen quadsli verbund, zieht gaaanzzzz knapp mehr als nen CF verbund....  ATI ist halt absoluter rotz(abgesehn vom AF)....



Bullshit! Das gilt nur für die Topmodelle!
So liegt z.B. eine X1800GTO mit der 7900GT im Verbrauch auf einem Niveau (49W), eine X1800XL auch nur bei 60W. Die neue X1900GT liegt sogar mit 75W um schlappe 20W unter einer 7900GTX!
Lediglich die Top-Modelle X1900XT/XTX sind nicht nur in der Leistung ungeschlagen (bei Single-Karten), sondern leider auch beim hohen Verbrauch...  ;)

(Geändert von kammerjaeger um 0:31 am Aug. 23, 2006)


-- Veröffentlicht durch skynet am 22:03 am 22. Aug. 2006


Zitat von ErSelbst um 8:05 am Aug. 22, 2006

Dann kam die GF5 reihe, die der TOTALE MÜLL war.. laut,langsam und stromfressend!
Heute wäre jeder froh, wenn aktuelle GraKas "nur" das ziehen würden, was ne 5er brauchte ... :lol:

140 Watt für ne ATI- Karte :ultrgoil:



ich korrigiere, jeder mit ner ATI X1x00 karte wäre froh, wenn seine karte nur soviel wie ne NV4x ziehn würde... NV geht trotz mehr leistung mit dem stromverbrauch runter, nen quadsli verbund, zieht gaaanzzzz knapp mehr als nen CF verbund....  ATI ist halt absoluter rotz(abgesehn vom AF)....


-- Veröffentlicht durch BlackHawk am 18:06 am 22. Aug. 2006

jop, Prescott like - ist schon erschreckend :(

mfg BlackHawk


-- Veröffentlicht durch ErSelbst am 8:05 am 22. Aug. 2006


Dann kam die GF5 reihe, die der TOTALE MÜLL war.. laut,langsam und stromfressend!
Heute wäre jeder froh, wenn aktuelle GraKas "nur" das ziehen würden, was ne 5er brauchte ... :lol:

140 Watt für ne ATI- Karte :ultrgoil:


-- Veröffentlicht durch Hitman am 17:52 am 21. Aug. 2006

Ich hoffe nur dass NVidia es schafft diese komische Neuerung durchzuziehen. (da war was mit: zweite Grafikkarte als Art PhysiX Karte laufen zu lassen)

Wenn Nvidia es schaffen würde das mit zwei verschiedenen Karten zum laufen zu bringen würd ichs mir auch mal überlegen. Immerhin würde eine "kleinere" Grafikkarte weniger kosten als ne Physikkarte und evtl. den Prozessor weniger belasten womit der wieder mehr schaufeln könnte.

Ist alles reine Theorie, ATI wird das evtl. auch implementieren können ich möchte das nicht auf rein Nvidia beziehen nur war ja eben laut mit der Phys Karte bei der zweiten Grafikkarte.


-- Veröffentlicht durch BDKMPSS am 10:30 am 21. Aug. 2006

Das Crossfire "problem" hat/wird sich jezt auch auflösen...
mit den X1x50er karten gibts ja keine masterkerten und das komische kabel mehr...

jetzt weren zwar wieder eineige sagen, das nur von nV's viel besserer lösung geklaut, aber die koplung funktioniert technisch immernoch ganz anders...

aber mit Halbwissen auf den putz hauende wird es immer geben


-- Veröffentlicht durch DScooter am 23:01 am 20. Aug. 2006

Also eigentlich wollte ich in das Topic hier nix schreiben, weil es einfach nicht sachlich bleibt, aber das werden wir wohl nie schaffen ;)

Ich hatte bisher mehr nvidia karten als Ati, aber ich hatte nie Probleme mit Ati Karten... nur waren bei mir die nvidia-Karten einfacher zu handhaben, also von der Kühlung.

Ati hinkt nvidia in Sachen Single Graka in NICHTS nach, aber CF ist einfach nur Müll, da die Masterkarten einfach zuviel kosten, und CF ohne Masterkarten (Budget) einfach net so doll ist..

Aber ich glaube, das Amd Ati bestimmt hilft, diese "Probleme" zu lösen.

Wer also EINE nvidia Karte hat, und sagt Ati ist Müll, der will einfach nicht wahrhaben, das Ati ein gleichstarker gegner ist!

Wer nun aber zwei nvidia karten hat, der kann getrost sagen, das SLI besser ist als CF, nur finde ich das nicht von Bilang, da einfach der Anteil an Dual Graka Systemen, die gerechtfertigt sind (da eine karte nicht ausreicht) einfach zu klein ist..

Im normalfall geht es um EINE Karte, also sollte auch da der Schwerpunkt liegen ;)

Und zum Thema, das Ati angeblich immerschon hinterherhinkt:

Also Ich weiss noch, dass nvidia mit der GF4 reihe immer pissed war, da die 9700Pro einfach eine neue Welt eröffnet hat..

Dann kam die GF5 reihe, die der TOTALE MÜLL war.. laut,langsam und stromfressend!

Ati zog schnell mit der 9800 nach, die die komplette GF5 reihe aushäbelte, da man für den Preis einer 9800Pro gerade mal die 5900 bekam, die einfach schlecht im direkten vergleich war...

Und die 5950Ultra konnte nicht mit der 9800XT gleichziehen (die es meist sogar noch günstiger gab, und die auch weniger Strom verbrauchte ;)

Dann kam die X reihe von ati und die GF6 von nvidia..

eine 6800Ultra war einfach besser als eine X800XT, aber nicht wesentlich, wobei hier Ati auch langsam mehr Strom brauchte, aber noch nicht so viel wie nvidia...

Nun mit Sli war nvidia nicht nur schneller sondern auch geschickter.. hier klarer Punkt für nvidia...

und z.Z hat nvidia die Spitze UND auch den Budget Bereicht für sich.

Wo nun aber Ati "schon immer hinterherhinkt" kann ich nicht sehen....

Erkläre dies mir dann bitte einer, der nvida overkill guy group!

Soviel von mir :)

(Geändert von DScooter um 23:03 am Aug. 20, 2006)


-- Veröffentlicht durch ErSelbst am 11:01 am 20. Aug. 2006


Zitat von kammerjaeger um 19:06 am Aug. 15, 2006

Zitat von Hitman um 18:09 am Aug. 15, 2006

Also wenn ATI schlecht ist, AMD aber gut, die Guten demnach nen schlechten kaufen, wird der Schlechte dann gut oder der Gute Schecht? Wobei sich die Frage stellt ob sich das nicht relativiert und beide mittelmäßig werden.....

PS: @Sky  :kasperle:



Alles eine Frage der dominanteren Gene... :lol:

Bei mir liefen ATI- Karten immer shice (mit AMD und Intel) - also hat wohl ATI die stärkeren Gene ... Aber NV + Intel is auch ne schöne Kombination :biglol:


-- Veröffentlicht durch BlackHawk am 0:04 am 18. Aug. 2006

was geht denn hier ab - bis zum karneval ist es doch nich etwas hin... :wusch:

mfg BlackHawk


-- Veröffentlicht durch kammerjaeger am 19:06 am 15. Aug. 2006


Zitat von Hitman um 18:09 am Aug. 15, 2006

Also wenn ATI schlecht ist, AMD aber gut, die Guten demnach nen schlechten kaufen, wird der Schlechte dann gut oder der Gute Schecht? Wobei sich die Frage stellt ob sich das nicht relativiert und beide mittelmäßig werden.....

PS: @Sky  :kasperle:



Alles eine Frage der dominanteren Gene... :lol:


-- Veröffentlicht durch Hitman am 18:09 am 15. Aug. 2006

Mein Gott lasst ihn doch! Ihr macht nur sein Weltbild kaputt. Und sowas nennt sich OC-Gemeinde, tststs.

Amd ist eben besser als Intel und Nvidia ist besser als ATI.
Und da ATI nun bald zu Amd wird ist eben Amd besser als Intel und schlechter als NVidia.
Demnach ist Nvidia besser als AMD und Intel was heißt, dass er sich bald einen NVidia Prozessor kauft mit nem NForce5 Board....

Oder gibts da nen Haken an der Logik? Also wenn ATI schlecht ist, AMD aber gut, die Guten demnach nen schlechten kaufen, wird der Schlechte dann gut oder der Gute Schecht? Wobei sich die Frage stellt ob sich das nicht relativiert und beide mittelmäßig werden.....

PS: @Sky  :kasperle:


-- Veröffentlicht durch Paschka am 12:04 am 15. Aug. 2006


Zitat von skynet um 1:58 am Aug. 15, 2006
ich glaube, ich verstehe von der technik mehr, als du jemals verstehn wirst/kannst...



normalerweise lasse ich mich nicht auf dein niveau runter...aber einbildung ist auch ne bildung...und bei dir ganz besonders...


-- Veröffentlicht durch kammerjaeger am 4:28 am 15. Aug. 2006

Technik verstehen und sich auf tolle Zahlen, Schlagworte und Pseudo-Features zu stützen ist eine Sache.
Sich in der Praxis ein eigenes, unabhängiges Bild davon machen zu können und direkte Vergleiche anzustellen ist eine andere Sache.

Leider mangelt es bei Dir am zweiten Punkt...

Nur weil man weiß, wie z.B. ein Wankelmotor arbeitet, ist man noch kein guter Autofahrer oder gar Autotester. ;)


-- Veröffentlicht durch skynet am 1:58 am 15. Aug. 2006

ich glaube, ich verstehe von der technik mehr, als du jemals verstehn wirst/kannst...


-- Veröffentlicht durch Paschka am 4:43 am 14. Aug. 2006

naja....immerhin hat nvxxxx einen deppen gefunden der die ganze techniksch****e als "megaübersupertrupf" wertet :ultragoil:
oh man sky..was bist du doch für ein hängengebliebenes stück geforce geworden:lolaway:
du würdest wohl auch noch heute zwei voodoo2@sli gegen eine gf 4 ti benchen und dann mit erstaunen, fanatismus und nvidia euphorie fest stellen dass die nvidia schneller ist...
am besten du machst dich erstmal schlau was so die bustypen sind, was z.B. 128 bit bzw sogar 256 bit (nein nicht bitburger) überhaupt bedeuten...und wenn du das nächste mal in irgendwelche zukunftsvisionenen ala scientology blickst dann mach dich vorher mal lieber schlau bevor du DICH und deinen GOTT (nvidia :lolaway:) noch weiter blamierst...und denke daran...deine mutter schwitzt auch keine eiswürfel beim kacken.


:ultragoil:
echt peinlich sky...:waterfall:



:lolaway:


-- Veröffentlicht durch skynet am 2:26 am 14. Aug. 2006


Zitat von Kauernhoefer Speedy um 19:52 am Aug. 12, 2006
AMD gibt ATI die richtige (stromsparende) Richtung vor!
ATI arbeitet an stromsparenden Grafikprozessoren mit zwei Kernen.
In der übernächsten Generation ist es soweit:thumb:

Quelle



also mitte/ende 2008... dann hat ATI 40W GPU's und NV 15W GPU's :lol:

technologisch wird ATI IMMER, NV hinterherhinken... können ja immernoch net die vollen SM3.0 spezifikationen... erbärmlich!


-- Veröffentlicht durch Rulinator am 14:57 am 13. Aug. 2006

@ kammerjäger

er wirds auch noch lernen... ;)

@ speedy

jo, des wird allerdings mal zeit! :)


-- Veröffentlicht durch BlackHawk am 1:54 am 13. Aug. 2006


Zitat von Kauernhoefer Speedy um 19:52 am Aug. 12, 2006
AMD gibt ATI die richtige (stromsparende) Richtung vor!
ATI arbeitet an stromsparenden Grafikprozessoren mit zwei Kernen.
In der übernächsten Generation ist es soweit:thumb:

Quelle


also das klingt doch wirklich super!

wird auch mal zeit das die da gleichziehen...

mfg BlackHawk


-- Veröffentlicht durch Kauernhoefer Speedy am 19:52 am 12. Aug. 2006

AMD gibt ATI die richtige (stromsparende) Richtung vor!
ATI arbeitet an stromsparenden Grafikprozessoren mit zwei Kernen.
In der übernächsten Generation ist es soweit:thumb:

Quelle


-- Veröffentlicht durch kammerjaeger am 23:41 am 11. Aug. 2006


Zitat von skynet um 21:03 am Aug. 11, 2006

junge, ich kann die qualität selber mit eigenden augen sehn... im rechner meiner besten freundin, werkelt sonen x1600 gerümpel... und texturquali besser als bei NV... siiischa digga!

gegen SSAA kommt nix an, was ATI hat, die mit ihrem max. 2xSSAA anteil... *prust*



1. komisch, daß sämtliche Testseiten da etwas ganz anderes sagen und selbst der "Nvidia-Guru" Tobi es inzwischen auch so sieht. Als er nur die alte 9600 aus dem "Kaufhaus-PC" seines Bruders kannte, hat er auch noch anders geredet...
2. willst Du doch wohl nicht ernsthaft eine 100,- teure Karte, mit der 1600x1200 mit mind. 4xAA/8xAF überhaupt nicht spielbar ist, mit einer Dual-GPU-Karte der oberen Leistungsklasse vergleichen? Vergleich die X1600 mit der 7600GS (denn das wäre der Gegner...) und Du wirst sehen, wer die bessere BQ hat! Ich habs getan, indem ich beide Karten im identischen System mit dem gleichen Monitor verglichen hab.... ;)

Warum müssen diese Fanboys nur immer mit ihren Äpfel/Birnen-Vergleichen kommen.   :noidea:


-- Veröffentlicht durch skynet am 21:03 am 11. Aug. 2006


Zitat von kammerjaeger um 10:09 am Aug. 11, 2006

Zitat von skynet um 9:27 am Aug. 11, 2006

und zur besseren BQ der ATI karten, sie flimmern genau so stark.... einziger pluspunkt geht ans AF.... und da fahre ich eh SSAA.... was die ganze sache schon wieder hinfällig macht!



Du hast es immer noch nicht begriffen (im Gegensatz zu Beschleunigen, der es mit eigenen Augen sehen konnte!)...
Es geht doch nicht nur um Features wie SSAA, TAA oder irgendwelches Flimmern!
Alleine die Texturqualität ist bei den ATI-Karten schon mit Standard-Treiber-Settings höher als der Treiber einer 7900 es in den max. Einstellungen ermöglicht. Das liegt nicht an der Karte, sondern an den Einstellungen und der Qualität der Treiber, die Nvidia zugunsten der Performance beschnitten hat!

Bevor Du das nicht einsiehst, ist jede weitere Diskussion zwecklos! ;)






junge, ich kann die qualität selber mit eigenden augen sehn... im rechner meiner besten freundin, werkelt sonen x1600 gerümpel... und texturquali besser als bei NV... siiischa digga!

gegen SSAA kommt nix an, was ATI hat, die mit ihrem max. 2xSSAA anteil... *prust*


-- Veröffentlicht durch VoooDooo am 13:15 am 11. Aug. 2006

der Name an sich is mir egal, ob jetzt ATI oder Radeon oder beides oder keins bleibt ;). Hauptsache das Produkt stimmt, wie es heißt is mir persönlich egal. Nur werden sie aus marketingtechnischen Gründen mind. einen der Namen behalten müssen!!!


-- Veröffentlicht durch kammerjaeger am 12:51 am 11. Aug. 2006

Das denke ich auch. Nach Rage und Radeon kann ruhig mal wieder ein neuer Name kommen, aber ATI als Markenname sollte bleiben. Schließlich heißen Chrysler-Modelle ja jetzt auch nicht Mercedes, auch wenn sie inzwischen viel gemeinsam haben (siehe z.B. Crossfire, der auf dem SLK basiert etc.). ;)


-- Veröffentlicht durch smoke81 am 12:32 am 11. Aug. 2006

Radeon wäre mir nicht so wichtig, das könnte sich auch mal wieder bei einer neuen Generation ändern...

Wer weiß, vielleicht schon mit dem R600 mit Direct3D10-Unterstützung?
Mittlerweile gibt es eh schon Probleme mit den ganzem Zahlen-Wust. Was soll nach X1950XTX kommen? :lol:

Es wird mal Zeit, die "Radeon" zu ersetzen und der Zeitpunkt ist mit der Next-Gen sehr gut :thumb:

Aber ATI darf niemals als Markenname gestrichen oder ersetzt werden!!


-- Veröffentlicht durch Henro am 11:19 am 11. Aug. 2006

wie findet ihr denn die diskusion darüber ob AMD den Namen ATI weiterführen soll oder nicht ?

Mir ist es eigentlich scnuppe solange nicht gleich das komplette namensschema aufgegeben wird, die Karten also weiterhin radeon heißen.


-- Veröffentlicht durch Tomalla am 10:36 am 11. Aug. 2006

Genau!:stop:

Back to Topic:danger:

Bleibt bitte beim Thema. Sonst mache ich das Ding zu.:blubb:

- Tomalla -


-- Veröffentlicht durch kammerjaeger am 10:09 am 11. Aug. 2006


Zitat von skynet um 9:27 am Aug. 11, 2006

und zur besseren BQ der ATI karten, sie flimmern genau so stark.... einziger pluspunkt geht ans AF.... und da fahre ich eh SSAA.... was die ganze sache schon wieder hinfällig macht!



Du hast es immer noch nicht begriffen (im Gegensatz zu Beschleunigen, der es mit eigenen Augen sehen konnte!)...
Es geht doch nicht nur um Features wie SSAA, TAA oder irgendwelches Flimmern!
Alleine die Texturqualität ist bei den ATI-Karten schon mit Standard-Treiber-Settings höher als der Treiber einer 7900 es in den max. Einstellungen ermöglicht. Das liegt nicht an der Karte, sondern an den Einstellungen und der Qualität der Treiber, die Nvidia zugunsten der Performance beschnitten hat!

Bevor Du das nicht einsiehst, ist jede weitere Diskussion zwecklos! ;)


-- Veröffentlicht durch darkcrawler am 9:59 am 11. Aug. 2006

ach jungs, schön das ich was zu lesen hab, immer wieder schön wenn ihr euch stänkert ;)


Zitat von Hitman um 21:38 am Aug. 10, 2006


PS: Der hier fiel mir übern Weg. Nur für dich Sky :   :kasperle:



der's ja mal arg insider :biglol:


-- Veröffentlicht durch skynet am 9:27 am 11. Aug. 2006

ne GX2 zieht soviel saft wie 2x 7900GT(ist ja nix anderes)...
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_7950_gx2_quad-sli/24/#abschnitt_stromverbrauch


und nur hohe auflösungen zählen, wer mit unterhalb von 16/12 - 4/16 zockt, dem ist eh net zu helfen, augenkrebs ahoi!

und zur besseren BQ der ATI karten, sie flimmern genau so stark.... einziger pluspunkt geht ans AF.... und da fahre ich eh SSAA.... was die ganze sache schon wieder hinfällig macht!

(Geändert von skynet um 9:28 am Aug. 11, 2006)


-- Veröffentlicht durch kammerjaeger am 1:24 am 11. Aug. 2006


Zitat von skynet um 22:22 am Aug. 10, 2006

warum wiederspricht sich das? 50% mehr leistung einer 1900XTX für nur 350€



Mal wieder typisch!
Irgendwelche wilden, völlig überzogenen Zahlen in den Raum werfen, die weder Hand noch Fuß haben!
Selbst im Vergleich zur X1800XT ist der Nachfolger 7950GX2 nur in hohen Auflösungen mit max. Qualität bis ca. 50% schneller. Der Unterschied ist nur, daß die GX2 dafür 60% teurer ist und 74% mehr Saft frißt (350,- vs. 220,- und 143W vs. 82W), was sich dann auch preislich schon wieder beim benötigten NT deutlich widerspiegelt und den Preis sehr schnell relativiert! ;)

Hinzu kommt, daß sie ihre Stärken erst dann auspielen kann, wenn der typische 19" TFT schon längst am Ende seiner möglichen Auflösungen ist!
Und dann frage ich mich doch, ob 99% aller Gamer nicht mit der unbestritten besseren Grafik-Qualität der ATI-Karten und einer X1800XT besser bedient sind, die jeden 19" TFT auch auslastet, nur eben optisch schöner....

Die 7900GX2 ist mal wieder ein typisches Objekt für Benchmark-Jäger, macht aber für den normalen Gamer wenig Sinn. Die theoretische Leistung pro Euro mag ja angemessen sein, nur hätte man die Entwicklung besser in die Qualität gesteckt statt in einen zweiten Stromfresser und benchmarkoptimierte Treiber, denn in der Praxis bringen einem theoretische Werte nix.

P.S.: Vergleich zur X1900XTX und 7900GTX und  großer Vergleichstest.


-- Veröffentlicht durch skynet am 22:22 am 10. Aug. 2006


Zitat von kammerjaeger um 20:21 am Aug. 10, 2006
Zumal sich die "Argumente" GX2 und "mehr Leistung fürs Geld" extrem widersprechen!

Selbst Tobi hat inzwischen selbst erfahren, daß die X1900 nicht nur schneller ist als eine vergleichbar teure 7900, sie liefert auch noch die bessere Bildqualität!

Du hast nicht zufällig die letzten Jahre seit der GF4TI verpennt? Denn seit der FX-Reihe hat Nvidia (von kurzfristigen Ausreißern abgesehen) kein Land mehr gesehen! Das ändert sich auch nicht durch irrwitzige Prestige-Objekte wie der GX2, welche absolut null Marktpräsenz haben!  ;)





warum wiederspricht sich das? 50% mehr leistung einer 1900XTX für nur 350€... also quatsch net rum...

http://www.geizhals.at/deutschland/a197049.html


-- Veröffentlicht durch skynet am 22:20 am 10. Aug. 2006


Zitat von Henro um 19:56 am Aug. 10, 2006

Zitat von skynet um 19:52 am Aug. 10, 2006
ahahahahahahahahahahahahaha.... intel besser... ja, aber erst seit dem core.... davor --> *krrmpfff* und das seit dem K6-2+

und das NV die besseren karten baut, ist wohl nix neues.... NV war bis zur NV25 chef, und seit dem NV4x sind sie es wieder, mehr features und mehr leistung fürs geld... werfe nur mal das wort GX2 in den raum... :thumb:




also ohne dich jetzt auch noch angreifen zu wollen, das tuen die anderen hampel doch viel lieber und ziehen es normaler diskusion vor, aber :

Blos weil man seit dann und wann besser WAR ändert es nicht an dem JETZT ;)

Und die GX2 kannste im prinzip nur mit einer Crossfire Lösung vergleichen weils keine "normale" Single lösung ist sonder ne 2 Platinige SLI lösung mit einem Slot. Das wäre dann das Äpfel und Birnen Ding ;)




nö, kannste im jeden single-slot PCIe board betreiben, also eine karte... fazit: ATI hat die arschkarte! :thumb:


-- Veröffentlicht durch smoke81 am 22:16 am 10. Aug. 2006

So eine 7900 GX2 für ca. 350.- ist echt super - wenn sie ins Gehäuse paßt.

Trotzdem ist das nicht jedermanns Preisklasse und diskutieren bringt in dem Fall sowieso nichts. Jeder soll kaufen, was er meint und solange der Markt und die Kräfte einigermaßen ausgeglichen sind, kann das doch jedem Recht sein :thumb:


Also back2Topic ;)


-- Veröffentlicht durch Hitman am 21:38 am 10. Aug. 2006

Ach, heute ist ein schöner Tag, alle lieben sich heute...

Vor allem weil es immer hieß:
Intel ? Pah, AMD hauen die Weg.

Intel war mal schneller aber jetzt sind die Doof.

Und jetzt heißt es:
Intel ? Ja die waren ja jetzt früher immer schlechter und sind daher doof.

Weist du was ich dazu sage? Nichts :lol:

PS: Der hier fiel mir übern Weg. Nur für dich Sky :   :kasperle:


-- Veröffentlicht durch kammerjaeger am 20:21 am 10. Aug. 2006

Zumal sich die "Argumente" GX2 und "mehr Leistung fürs Geld" extrem widersprechen!

Selbst Tobi hat inzwischen selbst erfahren, daß die X1900 nicht nur schneller ist als eine vergleichbar teure 7900, sie liefert auch noch die bessere Bildqualität!

Du hast nicht zufällig die letzten Jahre seit der GF4TI verpennt? Denn seit der FX-Reihe hat Nvidia (von kurzfristigen Ausreißern abgesehen) kein Land mehr gesehen! Das ändert sich auch nicht durch irrwitzige Prestige-Objekte wie der GX2, welche absolut null Marktpräsenz haben!  ;)


-- Veröffentlicht durch Henro am 19:56 am 10. Aug. 2006


Zitat von skynet um 19:52 am Aug. 10, 2006
ahahahahahahahahahahahahaha.... intel besser... ja, aber erst seit dem core.... davor --> *krrmpfff* und das seit dem K6-2+

und das NV die besseren karten baut, ist wohl nix neues.... NV war bis zur NV25 chef, und seit dem NV4x sind sie es wieder, mehr features und mehr leistung fürs geld... werfe nur mal das wort GX2 in den raum... :thumb:




also ohne dich jetzt auch noch angreifen zu wollen, das tuen die anderen hampel doch viel lieber und ziehen es normaler diskusion vor, aber :

Blos weil man seit dann und wann besser WAR ändert es nicht an dem JETZT ;)

Und die GX2 kannste im prinzip nur mit einer Crossfire Lösung vergleichen weils keine "normale" Single lösung ist sonder ne 2 Platinige SLI lösung mit einem Slot. Das wäre dann das Äpfel und Birnen Ding ;)


-- Veröffentlicht durch skynet am 19:52 am 10. Aug. 2006

ahahahahahahahahahahahahaha.... intel besser... ja, aber erst seit dem core.... davor --> *krrmpfff* und das seit dem K6-2+

und das NV die besseren karten baut, ist wohl nix neues.... NV war bis zur NV25 chef, und seit dem NV4x sind sie es wieder, mehr features und mehr leistung fürs geld... werfe nur mal das wort GX2 in den raum... :thumb:


-- Veröffentlicht durch Hitman am 17:52 am 10. Aug. 2006

Aber er hat ja auch noch nicht begriffen dass Intel besser ist von daher.... ;)


-- Veröffentlicht durch smoke81 am 10:51 am 10. Aug. 2006

ATI gefällt mir momentan auch besser, mal abgesehen von der 7600-Serie.

Das Multimonitoring der Geforce 6800 vermisse ich aber trotzdem manchmal...


-- Veröffentlicht durch kammerjaeger am 0:03 am 10. Aug. 2006

Tief in seinem Inneren weiß er auch, daß ATI in vielen Bereichen (wenn auch nicht in allen...) die besseren Karten baut. Aber so etwas zuzugeben fällt manchmal schwer, wenn man sich einmal auf eine Linie eingeschossen hat und dann irgendwann zugeben muß, daß man Unrecht hatte. ;)


-- Veröffentlicht durch The Papst am 23:06 am 9. Aug. 2006

:lolaway:

Selbst Beschleuniger hats langsam gepeilt, dass auch ATI gute GraKas baut, jetzt kannst du auch langsam einlenken;)


-- Veröffentlicht durch BDKMPSS am 22:58 am 9. Aug. 2006

:lol:


-- Veröffentlicht durch skynet am 21:26 am 9. Aug. 2006


Zitat von NoBody um 13:20 am Aug. 9, 2006

jetzt frage ich dich mal: welche nvidia karten/ati karten hatteste bis jetzt?

Naja ich hatte bis jetzt keine guten!
Aber im Low-End bereich ist NVidia besser!

Ich hatte:
GF 2 MX 400
GF 4 MX 440SE
GF 4 MX 420
ATi Radeon 9200SE
GF 4 MX 440 8x
GeForce FX 5700LE
GeForce 6200TC

In der Reihenfolge!
Und jedem auch seine meinung!



im JEDEN bereich ist NV besser... highend --> schnellste, mid-rage: schnellste, lowend --> schnellste

ATI ist seit erscheinen der NV4x serie, gut ins hintertreffen geraten...

die umsatzzahlen beweisen es ja...

und ich kaufe mir immernoch keine ATI graka, nur weils nun AMD ist... bleibe bei grün + grün....


-- Veröffentlicht durch kammerjaeger am 16:21 am 9. Aug. 2006

GF2MX -> R7500
Die gesamte GF4MX-Reihe wurde von der R8500 vernichtet!
Die 9500/9600 war der FX5700LE eindeutig überlegen, besonders bei neueren Engines.
Das Gegenstück zur 6200TC ist die gleichwertige X300HM. Beides keine Spielekarten...


-- Veröffentlicht durch NoBody am 15:01 am 9. Aug. 2006

Ja vielleicht beruht meine Meinung ja auf der Gewohnheit.
Kann sein.
Aber Welche GraKas waren denn mit den von mir oben genannten zu vergleichen, von ATI:noidea:


-- Veröffentlicht durch Jack the Ripper am 14:03 am 9. Aug. 2006


Aber im Low-End bereich ist NVidia besser!

Ich hatte:
GF 2 MX 400
GF 4 MX 440SE
GF 4 MX 420
ATi Radeon 9200SE
GF 4 MX 440 8x
GeForce FX 5700LE
GeForce 6200TC

Worauf beruht dann deine Meinung? O.o

Also ich werd mir weiterhin NV kaufen und das einfach aus Gewohnheit. Ich glaube auch, dass das die Meisten so machen und es einfach net wahrhaben wollen. Dann wird halt erzählt, dass man es aus Leistungsgründen macht...

is Schwachsinn in meinen Augen.. wenn man keine Refernzwerte hat (s.o.) sollte man es einfach dabei belassen, dass man eine Marke aus Gewohnheit kauft


-- Veröffentlicht durch kammerjaeger am 13:43 am 9. Aug. 2006


Zitat von NoBody um 13:20 am Aug. 9, 2006

Aber im Low-End bereich ist NVidia besser!



Mit welcher Begründung?
Für einige Linux-Distributionen mag für manche User Nvidia die bessere Wahl sein, aber es gibt deutlich mehr Gründe im Low-Budget-Bereich für ATI. Lediglich die aktuellen Preise einiger 7600GS/GT machen Nvidia-Karten <150,- interessant (7600GS für 85,- und 7600GT für 140,-). Für 70,- ist auch noch die 7300GT recht ordentlich. Ansonsten hat ATI in dieser Klasse eindeutig die Nase vorn, z.B. mit der Asus X800 256MB für 95,- oder für Video-Freaks die X1300/X1600. ;)


-- Veröffentlicht durch NoBody am 13:20 am 9. Aug. 2006


jetzt frage ich dich mal: welche nvidia karten/ati karten hatteste bis jetzt?

Naja ich hatte bis jetzt keine guten!
Aber im Low-End bereich ist NVidia besser!

Ich hatte:
GF 2 MX 400
GF 4 MX 440SE
GF 4 MX 420
ATi Radeon 9200SE
GF 4 MX 440 8x
GeForce FX 5700LE
GeForce 6200TC

In der Reihenfolge!
Und jedem auch seine meinung!


-- Veröffentlicht durch N omega G am 19:12 am 8. Aug. 2006


Zitat von The Papst um 17:18 am Aug. 8, 2006
Das ganze ist schon wieder hinfällig. Der Name ATI bleibt doch bestehen.



gott sei dank :godlike:        die hätten sich ja wohl selber ins knie damit geschossen.

außerdem: amd radeon  oO :lol:


-- Veröffentlicht durch smoke81 am 18:12 am 8. Aug. 2006


Zitat von The Papst um 17:18 am Aug. 8, 2006
Das ganze ist schon wieder hinfällig. Der Name ATI bleibt doch bestehen.




:thumb:


-- Veröffentlicht durch The Papst am 17:18 am 8. Aug. 2006

Das ganze ist schon wieder hinfällig. Der Name ATI bleibt doch bestehen.


-- Veröffentlicht durch N omega G am 15:26 am 8. Aug. 2006


Zitat von Hitman um 15:22 am Aug. 8, 2006
"eine amd graka reinstecken würden?! "

Ich würde behaupten:

JA !

:lol:



so war das nicht gemeint :lolaway:


-- Veröffentlicht durch Hitman am 15:22 am 8. Aug. 2006

"eine amd graka reinstecken würden?! "

Ich würde behaupten:

JA !

:lol:


-- Veröffentlicht durch N omega G am 15:16 am 8. Aug. 2006

gibt ja viele amd + nv fans. würd mich mal interessieren was sie davon halten. ob sie sich eine amd graka reinstecken würden?! oder wird ihnen der namenwechsel egal, den man weiß ja, dass es von ehemaligen ati mitarbeitern produziert wird.


-- Veröffentlicht durch Kosmonautologe am 12:54 am 8. Aug. 2006

AMD streicht „ATi“-Markennamen

Quelle: Computerbase, siehe Link


-- Veröffentlicht durch Henro am 10:16 am 4. Aug. 2006

:crazy:


-- Veröffentlicht durch N omega G am 0:58 am 4. Aug. 2006


Zitat von NoBody um 14:22 am Aug. 3, 2006
Ich weis nicht warum, aber ich finde NVidia auch besser als ATi!
Und ich find auch das AMD und NVidia zusammen gehören!!!!



jetzt frage ich dich mal: welche nvidia karten/ati karten hatteste bis jetzt? ;)


-- Veröffentlicht durch Rulinator am 18:32 am 3. Aug. 2006

nö, amd gehört schon zu ati, das ist die kombination aus cpu und gpu, auf die ich seit jahren setze. amd ist besser als intel und ati ist besser als nvidia, also gehören die besten zusammen! und los geht der krieg! :biglol:


-- Veröffentlicht durch NoBody am 14:22 am 3. Aug. 2006

Ich weis nicht warum, aber ich finde NVidia auch besser als ATi!
Und ich find auch das AMD und NVidia zusammen gehören!!!!


-- Veröffentlicht durch kammerjaeger am 21:19 am 2. Aug. 2006

Wird sich zeigen...
Was das Management und die Entwicklungsabteilungen aus der Fusion machen, kann keiner heute sagen.
In vielen Fällen wird aus beiden Firmen etwas Positives weiterentwickelt. So hat sich z.B. langfristig Daimler-Chrysler sehr positiv entwickelt, nachdem Schrempp zunächt ein paar sehr interessante und innovative Chrysler-Entwicklungen ausgebremst hat. Letztendlich hat Mercedes aber beim Design von den Amis gelernt und Chrysler bei der Qualität zugelegt... ;)


-- Veröffentlicht durch THE OVERCLOCKER am 20:14 am 2. Aug. 2006

frag mich grad ob es für den Endnutzer Vorteile bringen wird?:noidea:
was meint ihr?


-- Veröffentlicht durch BlackHawk am 12:38 am 28. Juli 2006

das ist mit intel ist glaube ich wirklich nur theater, was mich vielmehr interssiert ist der letzte abschnitt:


Der Vierte im Bunde hat sich allem Ansschein nach schon damit abgefunden, dass AMD ATi gekauft hat und kann damit auch wohl recht gut leben. nVidia verspricht sich von der Übernahme von ATi durch AMD im High-End Chipsatz-Segment fortan ohne jegliche Konkurrenz darzustehen und somit der einzige Zuliefererer von Intel und AMD zu sein. Doch so ganz recht haben die Kalifornier nicht, denn Intel ließ hinter vorgehaltener Hand verlauten, dass man das Lizenzabkommen mit ATi nicht auflösen werde, sodass der kanadische Hersteller weiterhin die Berechtigung hätte, noch bis Ende 2007 Chipsätze für Intel zu produzieren. Andererseits hält nVidia den Deal für quatsch und vergleicht ihn mit der damaligen Übernahme von 3DFX, die ja förmlich gesagt ein "Desaster" war und mit den heutigen Verhältnissen nicht zu vergleichen ist. nVidia kaufte damals das Unternehmen auf, weil es Pleite war; ATi hingegen ist ein blühendes Unternehmen, welches bislang noch nicht ansatzweise an den Konkurs denken musste. Generell können die Kalifornier nicht verstehen, warum AMD zu diesem Zeitpunkt ATi aufkaufen will und verweist darauf, dass AMD erst einmal den Rückstand zu den Core 2 Duo Prozessoren wett machen sollte. Indes machte man sich die letzten zwei Tage Gedanken darüber, ob AMD den Namen ATi weiter beibehalten würde. Wir persönlich glauben "Ja", denn der Name ATi ist ein wirklich guter und es wäre schade, wenn die Zeit für ihn abgelaufen wäre. All diese Spekulationen könnten nun für die Katz sein, wenn Intel tatsächlich noch einmal dazwischen funkt und sich ATi schnappt. Das Karussell dreht sich und dreht sich, die Frage ist nur, wo es stehen bleibt.



da kommt wirklich alles zusammen, vorallem wenn ich die dick markierten bereiche lese :lol:

mfg BlackHawk


-- Veröffentlicht durch smoke81 am 11:44 am 28. Juli 2006

Intel pfuscht auch noch mit: Link


-- Veröffentlicht durch BUG am 11:29 am 28. Juli 2006


Zitat von BDKMPSS um 14:16 am Juli 26, 2006
die sockel sind ja quasi tradition und auch gut so...

So7 war ein einziger krampf mit AMD @ Intel-chip...

..lief bei mir recht anständig, hatte ne Zeit lang ein Asus mit Intel TX Chipsatz und einen AMD K6-II @ 375MHz mit Multi 5 und 75 MHz FSB am laufen. :)

cu
BUG


-- Veröffentlicht durch BDKMPSS am 14:16 am 26. Juli 2006

die sockel sind ja quasi tradition und auch gut so...

So7 war ein einziger krampf mit AMD @ Intel-chip...

läuft auch ein ganz anderes protokoll/infastruktur drüber (integrierter Ram-controler, HT, QuadPumpedFSB, ...)

aber es zu erzwingen immer 2 versionen von geich aktuellen addon-cards in den handel zu bringen, wird sich niemand trauen

(Geändert von BDKMPSS um 14:18 am Juli 26, 2006)


-- Veröffentlicht durch Hitman am 12:50 am 26. Juli 2006

"aber AMD und ATi sind nciht sony, die alles so bauen, das nur ihre eigenen teile rein gehen... "

Sockel 754, Sockel 939, Sockel 775, Sockel A, .....

Naja, sind beide Seiten so....


-- Veröffentlicht durch BDKMPSS am 11:42 am 26. Juli 2006

das schließt sich schon von vornherrein aus...

PCIe STANDARD

wenn, dann müssten sie es ATiexpress oder so nenen, aber AMD und ATi sind nciht sony, die alles so bauen, das nur ihre eigenen teile rein gehen... (siehe UMD, MD, MemoryStick, BlueRay, Vario PC boards NTs...) :lol:


-- Veröffentlicht durch Hitman am 11:17 am 26. Juli 2006

Das Problem wird evtl. sein wenn sich Amd dazu entschließen sollte einen PCI-E Standart herauszubringen, der aber nur ATI Karten beinhalten kann....

Das würde den Käufer einschränken und ich könnte mir wirklich vorstellen dass Intel sowas gemacht hätte....

Mal abwarten, hoffentlich artet es nicht so aus, dass der AMD User ATI kaufen muss und Intel User ne Nvidia. Dann nämlich wird beides teurer....


-- Veröffentlicht durch BlackHawk am 9:52 am 26. Juli 2006

wenn intel vorgehabt hätte nvidia zu kaufen wäre das für die (finanziell gesehen) wohl das geringste problem gewesen ;)

ich denke das beide ihre vorteile draus ziehen werden, da hat razzzia schon nicht unrecht. ich bin aber auch mal gespannt zu sehen wie nvidia da reagiert (oder auch nicht) :biglol:

mfg BlackHawk


-- Veröffentlicht durch razzzzia am 17:14 am 25. Juli 2006


Zitat von HomerIII um 16:14 am Juli 25, 2006

Ich sehs schon vor mir " Intel kauft Nvidia für 10 Mrd Dollar .... "




Eher nicht, Intel verkauft schon die meisten Grafikchips ;)
Und die paar Zocker gehen denen mal quer am Arsch vorbei.

Ich denke mal, das der Kauf von ATI eine strategische Entscheidung zur weiteren Ausbreitung im Server/Workstationmarkt war.

ATI hat nen Batzen Leute eingekauft, um in der Chipsatzproduktion tätig zu werden, ein Großteil der aktuellen Serverboards fährt mit dem guten alten aber kompatiblen ATI Rage-Chip rum.

Ein Grund dafür, das sich Opteronkisten nicht so schnell durchsetzen, wie AMD das gerne hätte, ist, dass es eben noch nicht so wie bei intels ist, wo man in ein Intel-Gehäuse (kauft blos nie das fuc* Intelmanagement-Modul dazu :megagulp: ) ein Intelmainboard steckt, darauf kommen Intel-CPUs und fertig. Wenns Ärger mit einem der Teile gibt, ruft man bei der selben Hotline an, und bekommt nen guten Service.
(RAM und Platten ist ein anderes Thema, der RAM fällt im Servermarkt aber auch preislich eher unter "Kleinteile")

Der Server/Workstationmarkt ist auch zur Zeit eher der Geldsch****er, hier kommt es mehr auf guten Service und Verlässlichkeit an, der Desktopmarkt hat zur Zeit sehr kleine Margen (Intel verramscht seine Netburst-Fehlkonstruktionen, AMD korrigiert die Preise runter um weitere Marktanteile zu erobern; NVIDIA und ATI führen einen idiotischen Kampf mit halbausgegorenen Produkten, die mangels freigegbener Spezifikationen niemand wirklich ausnutzen kann) erfordert sehr viel Aufwand für Marketing.



(Geändert von razzzzia um 17:15 am Juli 25, 2006)


-- Veröffentlicht durch BDKMPSS am 16:46 am 25. Juli 2006


Zitat von Henro um 12:05 am Juli 25, 2006

es wurde sicher nicht umsonst schon spekuliert und darüber genewst ;)



...über "anti-HT" auch...

es ist nutzlos, keine graka der welt nutzt/braucht alle 16PCIe lanes und das wird eine weile so bleiben.

und die latenzen sind dadurch, das grafikkarten ja bekanntlich eigenen ram haben auch vernachlässigbar.

würde nur einer onboard graka ohne ram was bringen, aber damit kann man eh nicht zoggen, da bring schnellerer interfacezugriff auch nix

und die CPU müsste kontakte für die PCIe lanes bringen... für die ~30 lanes die einigen chipsätze heute so bringen brüchte man ein paar hundert extra pins und der HT langweilt sich dann da die imense bandbreite nur für i/o genutzt wird :crazy:


-- Veröffentlicht durch HomerIII am 16:14 am 25. Juli 2006

DAS hätte ich niemals gesagt, noch viel eher AMD + NVIDIA ...

Ich sehs schon vor mir " Intel kauft Nvidia für 10 Mrd Dollar .... "


-- Veröffentlicht durch Henro am 12:05 am 25. Juli 2006


Zitat von BDKMPSS um 10:38 am Juli 25, 2006
was soll der PCIe Controler in der CPU?

im gegensatz zum speicher sind die latenzen und bandbreite für das bissel grafik vollkommen ausreichend... das würde 0 vorteil bringen... und dual/trippel/quad und äh 5x/6x graka systeme für die verrückten währen damit nicht so einfach möglich... auch die anderen subsysteme währen völlig unnötig zu integrieren... und upgraden oder gar probleme ausbessern währe dann viel schwieriger

(Geändert von BDKMPSS um 10:43 am Juli 25, 2006)



es wurde sicher nicht umsonst schon spekuliert und darüber genewst ;)


-- Veröffentlicht durch BlackHawk am 11:21 am 25. Juli 2006

ich hoffe einfach nur darauf das es wieder amd chipsätze geben wird bzw. unter ati's label welche an die qualität und zuverlässig der damaligen anknüpfen werden und intel's produkten ebenbürtig sind :)

mehr will und erwarte ich nicht... :lol:

ausserdem denke ich das ati's einfluss im graka sektor amd in bezug auf die momentan etwas brikäre situation stärken und finanziell den rücken absichern wird.

mfg BlackHawk


-- Veröffentlicht durch BDKMPSS am 10:38 am 25. Juli 2006

was soll der PCIe Controler in der CPU?

im gegensatz zum speicher sind die latenzen und bandbreite für das bissel grafik vollkommen ausreichend... das würde 0 vorteil bringen... und dual/trippel/quad und äh 5x/6x graka systeme für die verrückten währen damit nicht so einfach möglich... auch die anderen subsysteme währen völlig unnötig zu integrieren... und upgraden oder gar probleme ausbessern währe dann viel schwieriger

(Geändert von BDKMPSS um 10:43 am Juli 25, 2006)


-- Veröffentlicht durch Henro am 9:13 am 25. Juli 2006

ich hoffe ja es bleibt alles so wie es ist im cpu und graka sektor und der zusammenschluss geht nur in die richtung chipsatz und/oder noch stärkere intergation von funktionen in die cpu wie z.B. der PCie Controller.


-- Veröffentlicht durch Rulinator am 18:41 am 24. Juli 2006

ohje... gibt einige die auf amd + nvidia schwören! :lol:

ich find das gut, nutze amd UND ati und hoffe, die bringen was ordentliches zustande! :)


-- Veröffentlicht durch BDKMPSS am 18:31 am 24. Juli 2006

vielleicht gibt es dann ja mal einen benutzbaren A64 chipsatz...

Das jetztige ATi ding + funzendes USB2.0 - unnötigen 2 oder gar 3 x16 slots und schon könnte man dem ding eine chance geben

alles jetzt auf dem markt ist ja mehr als schrott (dank nV)...


-- Veröffentlicht durch BUG am 18:13 am 24. Juli 2006

..hmm ich weis jetzt auch nich ob das unbedingt gut ist, einen Vorteil bei AMD bzgl der (jetzt eigenen) Chipsätze sehe ich schon, aber ob ATI jetzt weiter im Highend  Graka Sektor "mitmischt" bleibt abzuwarten, ich könnte mir vorstellen das man jetzt den Highend Markt nVidia überlässt was ich nicht gut finde. :(

..die hätten mal lieber ULI kaufen sollen, wäre [deutllich] günstiger gewesen bei ähnlich guten Chipsätzen aber die hat sich nVidia ja inzwichen schon unter den Nagel gerissen. :(

Hoffentlich bleibt bei ATI jetzt noch genügend Geld über bzgl Entwicklung neuer und schneller 3D Grafik Prozessoren.

Hätte mir das einer vor ein paar Wochen gesagt, hätte ich ihn als "Spinner" abgestempelt, ich kanns irgendwie noch immer nicht glauben. Der 1te April is schon vorbei oder habe ich mich im Datum verirrt?! ..wir haben doch Sommer und 35° im Schatten. :noidea:

cu
BUG

(Geändert von BUG um 18:22 am Juli 24, 2006)


-- Veröffentlicht durch N omega G am 18:06 am 24. Juli 2006

da wird jemand weinen... sk*net :lol:;)


bin echt gespannt was kommen wird. :thumb:


-- Veröffentlicht durch AssassinWarlord am 17:45 am 24. Juli 2006

na mal schaun...am ende wirds dan so wie Nvidia mit 3dfx ^^ AMD macht dan garnix mehr mit ATI *lol* und schwört auf einmal nu noch auf nVidia weil die im hintergrund AMD wesentlich mehr geld geboten haben ^^:lol:


-- Veröffentlicht durch BlackHawk am 13:01 am 24. Juli 2006

Computerbase


Hintergrund der Übernahme sei das Ziel, das gemeinsame Know-How beider Firmen dazu zu nutzen, neue Produktinnovationen und mehr integrierte Plattformlösungen zu schaffen, teilte AMD soeben in einer Pressemeldung mit. Ausführliche Details werden AMD und ATi in einer Presse- und Finanzanalysten-Telefonkonferenz im Laufe des Tages bekannt geben.


Heise


Die Übernahme soll als eine Kombination aus Aktiengeschäft und Barzahlung über die Bühne gehen: AMD zahlt für alle ATI-Aktien 4,2 Milliarden US-Dollar in bar sowie 57 Millionen AMD-Aktien. Jede ATI-Aktie ist laut AMD in dem Deal mit 20,47 US-Dollar bewertet (16,40 US-Dollar in bar, 0,2229 AMD-Aktien). ATIs Präsident und CEO Dave Orton wird in das Management-Team von AMD aufgenommen, er wird Executive Vice President und Leiter der ATI-Sparte von AMD.


der name ati wird dabei mit sicherheit nicht aussterben aber eventuell gibt es damit bald wieder "echte / originale" amd chipsätze :thumb:
am cpu und grafikkartensektor der beiden wird sich bestimmt nichts ändern, ich denke das man bei dieser symbiose eher das beste von beiden nutzen wird :)

mfg BlackHawk

(Geändert von BlackHawk um 13:34 am Juli 24, 2006)


OCinside.de PC Forum
© 2001 - 2024 www.ocinside.de