Ein Ausdruck des Beitrags mit 65 Antworten ergibt bei 3 Antworten pro Seite ca. 22 DIN A4 Seiten. Das entspricht bei 80 g/m² ca. 109.77 Gramm Papier.
-- Veröffentlicht durch Henro am 22:06 am 16. Mai 2006
weiß man denn nu schon wie groß die 2. NV karte sein muss um ordentlich physik berechnen zu können ?
-- Veröffentlicht durch skynet am 20:45 am 16. Mai 2006
oder man kauft sich ne 7300GT für ca. 70€ und nimmt die zum berechnen der physik.... NV karten könnens ja! :thumb:
-- Veröffentlicht durch kammerjaeger am 19:10 am 16. Mai 2006
Ich denke auch, daß sie bei der derzeit gezeigten Leistung max. bei 100-150,- liegen dürfte. Und selbst das ist eigentlich zu viel für einen "Ruckelverstärker"... :lol: Evtl. wäre die 256MB-Version besser oder aber der Chip und/oder Speicher brauchen deutlich höhere Taktraten. Dann könnte sie was taugen.
-- Veröffentlicht durch BlackHawk am 13:47 am 16. Mai 2006
naja, aber guck doch mal was du für 270€ bekommst - ich werfe mal ein: "7900gt". da müsste ageia mit der physx eher in die preisregionen von 150-200€ (optimal 120-180€) vorstossen um überhaupt ne chance zu haben - nebenbei würde ich diesen preis auch für angemessen(er) halten. mfg BlackHawk
-- Veröffentlicht durch kammerjaeger am 13:29 am 16. Mai 2006
Zitat von BlackHawk um 12:46 am Mai 16, 2006 ps: die karten sind mit 220-280€ gelistet (bfg / asus) - scheint so als wenn die grafikkartenproduzenten sich auch nicht wirklich sicher sind. aber bfg und asus sind ja mit die grössten - die können es sich leisten ;)
| Und sei es nur als Prestige-Objekt! ;) Btw.: Die Asus ist billiger, obwohl GR:AW dabei ist. Scheinbar hat man erkannt, daß man sie schnell an die ersten Hardware-Gierigen verkaufen sollte, bevor sie keiner mehr haben will. Anders kann ich mir diese aggressive Preisgestaltung kaum erklären...
-- Veröffentlicht durch BlackHawk am 12:46 am 16. Mai 2006
naja, warten wir es mal ab. das es so drastische auswirkungen auf den multiplayer haben wird / könnte bezweifle ich irgendwie - auch wenn es nicht von der hand zu weisen ist was alles (theretisch) möglich wäre. ich denke mal wir sollten einfach abwarten - irgendwas wird schon passieren - und sei es das ageia wieder vom markt verschwindet oder ein schattendasein führt :lol: ps: die karten sind mit 220-280€ gelistet (bfg / asus) - scheint so als wenn die grafikkartenproduzenten sich auch nicht wirklich sicher sind. aber bfg und asus sind ja mit die grössten - die können es sich leisten ;) mfg BlackHawk (Geändert von BlackHawk um 12:47 am Mai 16, 2006)
-- Veröffentlicht durch Crusader am 13:22 am 15. Mai 2006
ich habe mir die technologie videos angeschaut und mein erster eindruck war eher ernüchternd .. alles in allem wird nur effekthascherei auf niedrigstem niveau zusammenhangslos dargestellt .. wen möchte man damit beeindrucken wenn man eine schwebendes wesen unbekannter natur umherfliegen sieht das fröhlich mit kinetischer energie auf dem boden umherstehende kisten verwirbelt .. was möchte man mir damit nahelegen .. wo sind zusammenhängende bezüge zur unserer allgegenwärtigen realität .. was ich dort gesehn hab ist eine beleidigung für meine augen und bestenfalls dazu geeignet um meine lachmuskeln zum leben zu erwecken bisher handelt es sich nur um einen papiertiger der in keinster weise zum jetzigen zeitpunkt eine reale chance hat sich zu etablieren .. grund dafür sind nicht die 300 EUR (sofern das noch aktuell ist) sondern vielmehr die leistungseinbrüche aufgrund hoher partikeldichten die auf den bildschirm gezaubert werden .. wo bitte entlastet diese phys-X engine die cpu oder sonstige elemente des pc's? die antwort weis anscheinend nur ageia selbst zu beantworten .. einige testcenter haben jedoch das reale bild dieser karte zum vorschein gebracht und die ergebnisse sprechen nicht gerade von leistungsvorsprung durch technik zudem sollte wie schon öfters erwähnt dadurch nur eine höhere partikeldichte für nutzer dieser ageia karte erzielt werden die in keinsterweise einfluss auf das spielgeschehen haben sollte! der grund dafür ist ganz offensichtlich die tatsache das nicht jeder im besitz dieser karte sein wird und damit gerade in multiplayergames keine 2 klassen gesellschaft hervorgerufen werden darf es sei denn gewisse einschränkungen liegen vor die explizit auf diese gegebenen features abzielen und damit den rest der nutzer die nicht diese karte im besitz haben ausschliesen .. ich zweifle jedoch stark an das die karte in so einem hohen beliebtheitsgrad angesiedelt sein wird das nutzer ungern darauf verzichten wollen .. zumindest spricht sowohl der preis als auch das ernüchternde ergebnis vehement dagegen .. gerade weil eine synchronisation bei online games das A und O darstellen darf der physik-chip keine veränderung auf den bildschirm zaubern die nicht auch ohne diese karte dargestellt werden können ganz ehrlich .. das konzept ist mit sicherheit eine innovation auf dem markt die belebend wirken kann bisher aber nicht zu verrichten mag .. ich möchte doch hoffen das die entwicklung bereits in naher zukunft auf sinnvolle art und weise zu einer sichtbaren UND messbaren verbesserung kommt um nicht als totgeburt zu enden .. sonst würde es mich nicht wundern in absehbarer zeit diese karte als nette beilage auf zeitschriften wie pc-spielehefte wieder zu finden ;) mfg. -crusader- (Geändert von Crusader um 13:26 am Mai 15, 2006)
-- Veröffentlicht durch BlackHawk am 17:28 am 14. Mai 2006
bäg tuh t'opig? :noidea: ;) mfg BlackHawk
-- Veröffentlicht durch kammerjaeger am 16:55 am 14. Mai 2006
Zitat von BUG um 12:22 am Mai 14, 2006 ..ja das THG Review ist leider für den Arsch und total übertrieben, wenn man das liest könnte man denken Hans und Franz kaufen sich nen 805 und Takten den man ganz einfach auf 4000 MHz. Leider entspricht das nicht ganz der Realität. Schau mal hier im Intel Topic vorbei oder bei HWLUXX, da siehst du was ich meine. ;)
| Zumal Hans und Franz auch kaum in der Lage sein werden, die 200W Verlustleistung zu bändigen, die das Teil bei 4GHz verschlingt... ;)
-- Veröffentlicht durch BUG am 12:22 am 14. Mai 2006
..ja das THG Review ist leider für den Arsch und total übertrieben, wenn man das liest könnte man denken Hans und Franz kaufen sich nen 805 und Takten den man ganz einfach auf 4000 MHz. Leider entspricht das nicht ganz der Realität. Schau mal hier im Intel Topic vorbei oder bei HWLUXX, da siehst du was ich meine. ;) ..idR sind so 3600 bis 3800 MHz auf einem guten Board drinn, wenn man nen schlechten CPU erwischt hat und ggf auch noch ein schlechtes MoBo ist oft schon bei 3400 MHz schluß, die 4 GHz haben nur ganz wenige "gesehen" und über 4GHz ist wohl wirklich nur mit so einem HighEnd Board welches THG verwendet hat drinn + eine gut gehende CPU & HighEnd Wakü. Edit: ..und nein THG ist bis maximal 4100 MHz gekommen, 4200 und 4300 sind nicht stabil trotz 200,- Euro MoBo mit 8 Phasen Spannungsversorgung und HighEnd Wakü. Die "normalen" S775 Boards im 100,- Euro Bereich habe idR 4 Phasen Spannungsversorgung. Edit²: ..einige ganz billige (Asus P5P800, Asrock 775Dual-880 Pro) sogar nur 3 Phasen. :( cu BUG (Geändert von BUG um 15:27 am Mai 14, 2006)
-- Veröffentlicht durch Beschleunigen am 10:05 am 14. Mai 2006
lt. THG muss man beim D805 auf nix achten und angeblich gehen die alle über 4GHz.. THG kam bis 4.3GHz. (..) mfg tobi
-- Veröffentlicht durch BUG am 17:00 am 13. Mai 2006
Zitat von Beschleunigen um 9:00 am Mai 13, 2006 und damit kommt man dann auch auf 4+ GHz? haben die günstigen boards nicht auch immer irgendwelche nervigen unzulänglichkeiten im bios?
| ..das wird beim 805 imho sowieso schwierig. 4GHz ist schon ne Menge Holz für dein kleine 805, das packen sicherlich nicht alle und ne gute Wakü + gutes Board ist dabei auch extrem wichtig, mit Lukü glaub ich nich, dass du/ihr 4GHz stabil seht (da brauch man schon extrem Glück bei der CPU). Aber das Asus MoBo mit nForce Chipsatz sollte ~3800 und wenn du wirklich nen guten erwischt hast + Wakü 4GHz packen, drüber gehts wohl nur mit einem 200,- Euro Board (8 Phasen Spannungsversorgung) aber da seh ich denn Sinn nicht, ein HighEnd Board + LowCost CPU ist imho an der falschen Stelle gespart, dann lieber zum paar Euro teureren 920 in 0.65nm greifen mit C1 Stepping und aktivem SpeedStep! :) cu BUG
-- Veröffentlicht durch cuhlatee am 9:32 am 13. Mai 2006
Naja abgesehen davon das ich meine Wasserkühlung nicht zum heizen nehmen wollte, denke ich werden nach Einführung von AM2 die Sockel 939 Preise sinken und dann kann ich zuschlagen! Ich kann mich mit Intel aus Tradition einfach nicht anfreunden, hab ich doch schon zu 386 Zeiten auf AMD gesetzt!
-- Veröffentlicht durch kammerjaeger am 9:10 am 13. Mai 2006
Vielleicht nicht auf 4GHz, aber 3,6-3,8GHz sollten locker drin sein. Für kleines Geld sollte das reichen und den alten XP weit hinter sich lassen. ;)
-- Veröffentlicht durch Beschleunigen am 9:00 am 13. Mai 2006
und damit kommt man dann auch auf 4+ GHz? haben die günstigen boards nicht auch immer irgendwelche nervigen unzulänglichkeiten im bios? (..) mfg tobi
-- Veröffentlicht durch kammerjaeger am 8:53 am 13. Mai 2006
Zitat von cuhlatee um 4:35 am Mai 13, 2006 Mag ja sein aber ein Pentium bringt nicht nur ein neues Board sondern auch neuen Ram mit sich und da wird die Sache wieder teurer!
| Wieso? Muß doch kein DDR2-Board sein. Bei dem hast Du die Wahl zwischen DDR und DDR2 und kannst sogar später noch auf PCIe umsteigen. Und das für 45,-.... ;) Reine AGP/DDR-Alternative wäre z.B. das: 60,- Du siehst, daß es gar nicht teuer sein muß.
-- Veröffentlicht durch Beschleunigen am 8:31 am 13. Mai 2006
den 805er will sich mein kumpel holen, wenn er seinen A64 komplett loswird. die 79GT ist schon weg.. jetzt braucht er nur noch einen käufer für das board, den ram und die CPU -> dann kann ich mir den 805@4+GHz im nachbarhaus anschauen.. finde den nämlich sehr interessant - aber bitte nicht für dauerbetrieb, sonst bekommt man nen orden vom stromversorger (ich hab' jetzt schon 8000kw/h im jahr -> ohne P4). @er selbst ich hab' heute schon zeitweise 3-4GB RAM. die nutze ich nur nicht (dauerhaft), weil mich XP auf 3GB runterdrückt und weil mein A64 dann auf 333MHz clock @2T runterschaltet. OCen traue ich mir in dieser konfig nicht zu, weil ich mein RAID nicht gefährden will - für games ist das eher ne bremse - mit vista wird aus dieser spielerei hoffentlich angewandte realität, so dass man nicht immer, je nach anwendungszweck, RAM zustecken oder rausziehen muss. (..) mfg tobi
-- Veröffentlicht durch cuhlatee am 4:35 am 13. Mai 2006
Mag ja sein aber ein Pentium bringt nicht nur ein neues Board sondern auch neuen Ram mit sich und da wird die Sache wieder teurer!
-- Veröffentlicht durch kammerjaeger am 1:24 am 13. Mai 2006
So teuer sind die ja auch nicht mehr, wenn man sich den Pentium D805 anschaut. Der wird zwar erst mit OC (und heftigem Verbrauch) flott, aber ist eben die günstigste Einstiegsmöglichkeit in DC. ;)
-- Veröffentlicht durch cuhlatee am 1:18 am 13. Mai 2006
Weil ich als Student gerade genug Geld zum fressen hab, aber du kannst mir ja gerne finanziell aushelfen damit ich mein System anpassen kann! Mit der Wasserkühlung hab ich mein System ja schon gut 2Jahre über dem Zenit gehalten und das werde ich in Zukunft auch tun, nur leider hab ich keine Knete für ne Dualcore CPU!
-- Veröffentlicht durch kammerjaeger am 23:44 am 12. Mai 2006
Und warum nutzt Du dann noch eine XP-CPU, die beim Multitasking nicht gerade der Renner ist?
-- Veröffentlicht durch cuhlatee am 22:36 am 12. Mai 2006
Naja es geht ja nicht immer ums spielen, mich reizt es eher via Vmware zb. Linux usw. nebenbei am laufen zu haben ohne gross das System zu belasten und dabei optimalen Speed zu nutzen! Ständig davon zu labern ob nun irgendwelche Spielw davon profitieren oder nicht ist extrem kurzsichtig, denn immerhin ist der PC keine Konsole! Das Zauberwort heisst noch wie vor echtes Multitasking und nicht Spieleleistung! Das ist nur ein weiteres Nice to have, mehr nicht!
-- Veröffentlicht durch ErSelbst am 21:22 am 12. Mai 2006
Zitat von Beschleunigen um 15:53 am Mai 12, 2006 der rechner 2007 wird ja echt spassig.. quad-core CPU, 4 od. 8GB RAM, zwei oder vier GPUs, ein physikbeschleuniger.. ein neues OS..
| Vista wird am Anfang eh nix bringen außer, dass man es bruacht, um Halo2 am PC zu zoggn (wenns denn mal irgendwann erscheint), Quad- Core wird nicht viel bringen - in 6- 12 Monaten werden nciht plötzlich 1000 neue Softwaretitel erscheinen die alle perfekt von 2 oder mehr Kernen profitieren ... HT gibts bei Intel seit ahren, DC- CPUs gibts seit über nem jahr für bezahlbare Preise und trotzdem is die unterstützung (grade bei games) besch... bescheiden... und 4 oder 8GB RAM werden auch 2007 alles andere als Standard werden ... Vielleicht 1 GB Minimum und 2GB als "Standard" für gut ausgestettete Maschinen ... aber 4 bzw. 8GB? Das dürfte wohl eher 2008 oder so werden ;) (Ich rede nicht von den 1- 2% der Leute, die das Geld zum Heizen benutzen und sich bei Dell für 10k€ nen PC kaufen, weil der 4 GPUs hat ...);)
-- Veröffentlicht durch Beschleunigen am 15:53 am 12. Mai 2006
nein. wenn es die havokFX technik benutzt, wirkt es auf effekt-physik und nicht auf game-physik. aber dazu gibt's noch keine bestätigung.. vielleicht ist es auch etwas eigenes von NV.. mal abwarten.. juli ist ja bald. ein bisschen etwas von dem, was ich in video7 sehe dann in oblivion und ich bin schon begeistert. der rechner 2007 wird ja echt spassig.. quad-core CPU, 4 od. 8GB RAM, zwei oder vier GPUs, ein physikbeschleuniger.. ein neues OS.. ich muss mir echt mal ne tüte geduld kaufen :punk: schön dass ich im hochsommer eh nie vorm rechner hocke.. (..) mfg tobi (Geändert von Beschleunigen um 16:01 am Mai 12, 2006)
-- Veröffentlicht durch faulpelz am 15:35 am 12. Mai 2006
und das macht somit den ageia chip unwichtig^^
-- Veröffentlicht durch Beschleunigen am 15:28 am 12. Mai 2006
dass game-physik, besonders was explosionen und projektileinschlag angeht, überzogen wirken muss, sollte doch klar sein. das liegt am unterhaltungswert. effekt-physik hingegen ist ziemlich realistisch. etwa wellen, wolkenbewegung oder cubischer nebel. kein shooter-kiddi würde sich ein spiel kaufen, wenn's nicht ordendlich kracht und zerfetzt. und noch eine tolle nachricht für mich (und andere SLi user): "Laut vr-zone und techpowerup soll der Forceware 90 im July bei einem SLi Verbund, die zweite Karte für die Physikberechnungen nutzen." das wäre doch nach über einem jahr SLi mal wieder ein netter bonus.. (..) mfg tobi (Geändert von Beschleunigen um 15:31 am Mai 12, 2006)
-- Veröffentlicht durch faulpelz am 14:54 am 12. Mai 2006
zur realität dieser physik berechnungen: die ganzen berechnungen sind garnicht realitätsnah. wie oben schon gesagt fliegt so ne kiste nicht 5 m von einer schwulen 9mm kugel. die bombe hätte ne fette delle hinterlassen müssen und selbst ein stück eingedellt sein müssen. und das blech fällt da vom flugzeug auch en bischen zu schnell runter. alles in allem ist das was ich gesehn habe keine physik sondern sch****e. wer das bestreitet kann ja selber mal auf sone kiste schiessen ;)
-- Veröffentlicht durch BlackHawk am 13:43 am 12. Mai 2006
@beschleunigen: dein video-link geht nicht, habs aber mir mal selber zusammengesucht und dort noch nen paar weitere interessante videos gefunden (vor allem nr. 34): Ageia Artikel Seite 1 Ageia Artikel Seite 2 Direktlink Video 007 Direktlink Video 027 Direktlink Video 031 Direktlink Video 034 sind relativ interessant - aber auch nichts was einen umhaut :thumb: @cuhlatee:
Spätestens dann wenn Spiele mit echter Umweltsimulation auftauchen, d.h. wenn der Wind die Blätter eines Baumes bewegt und dabei zum Beispiel die Fallwinde von eine Hochhaus miteinberechnet und sich ein Baum der im Windschatten steht komplett anders verhält! Ich halte diese Simulation von Realismus für wesentlich interessanter als fliegende Granaten und berstende Mülleimer!
| DITO :) @kammerjaeger: habe mir dein video auch nochmal im hq angeguckt - es ist nicht schlecht, für nen "non-physx spiel" sogar richtig gut, aber umhaun tuts mich immer noch nicht :( mfg BlackHawk
-- Veröffentlicht durch kammerjaeger am 12:46 am 12. Mai 2006
Zitat von Beschleunigen um 11:48 am Mai 12, 2006 ich sehe in physikbeschleunigung massives potenzial - ihr habt es einfach nur zu eilig und bezieht euch zu sehr, auf irgendwelche zur zeit verfügbaren spielchen. wer das rennen macht (havok, ageia oder andere noch kommende derivate), wird die zeit zeigen - der weg ist jedenfalls beschritten.
| Das Potenzial sehen wir ja auch, nur eben nicht bei dieser Gurke! ;) Solange kein Nachfolger und/oder Konkurrent kommt und es besser macht (was zwangsläufig irgendwann der Fall sein wird...), wird die Physikbeschleunigung eher in der Versenkung bleiben. Denn die PhysX wird sich keiner antun, der sich die Leistung mal anschaut. Und eine 200%ige Leistungssteigerung (welche für flüssiges Spielen notwendig wäre) dürfte kein Treiber dieser Welt schaffen... ;) Also abwarten bis zur Next Generation. :thumb:
-- Veröffentlicht durch Beschleunigen am 11:48 am 12. Mai 2006
@hawk atm sieht's für mich so aus, als sei NVidia eher an havokFX via graka-shader interessiert, was ich als SLi user natürlich toll finde ;) bis vista ist die sache reif. ageia und havokFX. letzteres wird dann dank unified shader unter WGF2.0 sicher auch breitgefächert nutzbar sein.. early adaptors leiden generell immer unter anlaufproblemen. das war mit SLi in der ersten woche nach verfügbarkeit auch nicht anders. eigentlich brauchte SLi fast ein jahr, um zu reifen und dorthin zu kommen, wo es heute ist. ein vergleich der physik-leistungsdaten 1. eine DualCore CPU -> 30-100 Physikobjekte / 29GFLOP/s 2. eine Ageia PPU -> 32.000 Physikobjekte / 20GFLOP/s 3. HavokFX 7900GTX -> einige 1.000 Phy. Obj / 249GFLOP/s zu 1. für entwickler seit 3/05 verfügbar - keine spieleunterstützung zu 2. für entwickler seit 6/05 verfügbar - ca. 6 spiele bis mitte 2006 zu 3. für entwickler seit 4/06 verfügbar - spiele ab mitte 2007 (vista!) zu 3. leistung bei der boulder-demo von havok 7900GTX@SLi -> 64.5 fps (eine karte rendert bild, die andere physik) 7900GTXnoSLI -> 48,4 fps (eine karte rendert bild und berechnet physik) P4EE@3.46GHz-> 6.5 fps (für multithreading auf DC optimiert) ich sehe in physikbeschleunigung massives potenzial - ihr habt es einfach nur zu eilig und bezieht euch zu sehr, auf irgendwelche zur zeit verfügbaren spielchen. wer das rennen macht (havok, ageia oder andere noch kommende derivate), wird die zeit zeigen - der weg ist jedenfalls beschritten. aus dem c't artikel: ..besonders reizvoll ist die vorstellung, dass es bei multiplayer-spielen ausreicht, nur den server mit einem physikbeschleuniger zu bestücken.. (spieler PCs brauchen das berechnete nur noch darstellen) "..weder intel, noch AMD konnten bisher auf ihren dual-core CPUs physikdemos zeigen, die ähnlich spektakulär wirkten.. (bezogen auf ageia)" "..schon einmal ht eine rund 500 mark teure zusatzkarte eine neue Ära für PC-spiele ausgelöst.. ein 3D beschleuniger names voodoo graphics.." den ganzen text/test + bildchen gibt's in c't 10/2006 ab S.106-109 have phun - das wird schon noch :punk: (..) mfg tobi
-- Veröffentlicht durch cuhlatee am 11:47 am 12. Mai 2006
Finanziell ist es für Nvidia und Co immer drin, die zu kaufen! Und irgendeine Firme wird den Verein auf kurz über lang eh schlucken, da spart man sich doch die Lizenzgebühren! Mein Vorschlag nvidia kauft den Laden und bringt die Architektur in der Southbridge unter und fertig! Dann zahl ich gern 10€ mehr fü'rs Board und weiss da kommt nicht so'n sch**** raus! Ati sollte lieber die Finger davon lassen, die kriegen ja nicht mal nen gescheiten Chipsatz auf die Beine! Btw. von enttäuschender Performance kann man eigentlich nicht reden, den erstens ist die Unterstützung der Chips gleich Null, selbst die besagte Ballerdemo zeigt rein garnichts, jedenfalls nichts was nicht schon so passabel möglich wäre! Ich wette die PPU wurde nicht mal zu 20% ausgereizt, das Problem sind hier einfach Kinderkrankheiten wie fehlerhafte Implentierung und unausgereifte Treiber! Die Markteinführung war/ist zweifellos ein Witz, denn schon seit gut 2 Jahren wird über Psysx debattiert und dann bringen die so ein Debakel! Ich denke mal Epic wird mit Unreal 3 schon ein Titel bringen, der die Psysx Karte annehmbar nutzen wird! Rein von der Leistung der Karte wird es noch locker 2 Jahre dauern, bis diese wirklich ausgereizt wird! Spätestens dann wenn Spiele mit echter Umweltsimulation auftauchen, d.h. wenn der Wind die Blätter eines Baumes bewegt und dabei zum Beispiel die Fallwinde von eine Hochhaus miteinberechnet und sich ein Baum der im Windschatten steht komplett anders verhält! Ich halte diese Simulation von Realismus für wesentlich interessanter als fliegende Granaten und berstende Mülleimer! (Geändert von cuhlatee um 11:59 am Mai 12, 2006)
-- Veröffentlicht durch BlackHawk am 10:45 am 12. Mai 2006
:lol: ihr zwei mal wieder - aber ich hätte auch nichts anderes erwartet... ;) ich finde den ansatz der physx architektur ja wirklich gut, und wenn es denn mal gescheit funtioniert(en sollte) dann wird man dies mitunter sicher nicht mehr missen wollen. dennoch denke ich auch das die bisher gebotene leistung alles andere als ein guter einstieg und eine gelungene präsentation geworden ist. so gesehen habt ihr beide mit euren behauptungen auch recht, momentan mehr kammerjaeger, eben weil die oben beschriebene situation nicht so gut ausschaut, evtl. demnächst beschleunigen. aber egal wie es auch kommen mag, wäre ein mischmasch aus beiden doch das beste: saubere(re) und effiziente(re) programmierung und das am besten gepaart mit einer in die grafikkarte / auf dem mainboard integrierten physx lösung. die idee mit der pci steckkarte spricht zwar (noch) für die grösste kompatibilität und ist auch logisch da sie somit ihre technologie eigenständig auf den markt bringen können, über den nutzen bzw. einer solchen verbreitung wage ich aber mal zu zweifeln. was passiert denn nun wirklich in den fällen wo kein pci steckplatz mehr vorhanden ist bzw. was macht mein bei notebooks? da wäre es doch wirklich am einfachsten man würde das intergrieren als noch eien lösung zu schaffen die wieder mehr platz und energie braucht. so zumindest meine meinung ;) ps: habt ihr eigentlich ne idee wie teuer es werden würde ageia zu kaufen? evtl. wäre das finanziel für ati/nvidia ja noch nichtmal so das problem sie zu kaufen - was wiederum dafür stehen könnte das sie davon nicht sonderlich überzeugt sind (wilde spekulation)!?! :lol: so long... :wusch: mfg BlackHawk
-- Veröffentlicht durch kammerjaeger am 9:16 am 12. Mai 2006
Zitat von Beschleunigen um 7:52 am Mai 12, 2006 vielleicht hab' ich auch einfach schon eine demonstration gesehen, wo mit und ohne PPU gerechnet wurde und konnte dabei auch den taskmanager beobachten.. 4 ausgelastete cores vs. 3 komplett freie..
| Was bringen Demos, wenn die Realität andere Werte zeigt? Die minfps-Werte bleiben mit unterschiedlich starken CPUs auch unterschiedlich, aber eben mit PhysX deutlich unter den Werten ohne PhysX und auch deutlich unterhalb eines spielbaren Wertes. So rutschen die minfps z.B. auf einem Opteron 144 von 46fps auf 12fps, wenn die PhysX hinzu kommt, bei einem FX57 von 66fps auf 17fps (siehe AnandTech). Da wird kein Ton über die Performance gesagt, nur TechFacts und Links...
Zitat von Beschleunigen um 7:52 am Mai 12, 2006 was meint heise dazu? (die sind alle dumm u. setzen aufs falsche pferd, gell?)
| Natürlich hat die Industrie ein Interesse dran, da man auf der grundsätzlichen Idee eine verbesserte Version herausbringen kann und wahrscheinlich auch wird. Aber die Hersteller haben sich wahrscheinlich (wie so viele von uns auch...) deutlich mehr von der Karte schon beim Launch erhofft. Nun sieht es wohl so aus, daß nur mit finanzieller Unterstützung seitens der GraKa-Hersteller schnell ein Nachfolger kommen kann/muß, um das Eisen noch aus dem Feuer zu reißen, bevor es verglüht. Evtl. wird Ageia ja auch aufgekauft und die Technik bald in Nvidia- oder ATI-Chips zu finden sein... Egal, wie schön Du die Karte momentan redest, die Testseiten sind sich einig, daß sie z.Zt. eine nicht gerade sinnvolle Investition darstellt. Aber Du scheinst das ja mal wieder besser zu wissen. :lol:
-- Veröffentlicht durch Beschleunigen am 7:52 am 12. Mai 2006
Falls Ageia tatsächlich in den nächsten 2-3 Monaten einen Hasen aus dem Hut zaubert und die Performance durch Treiber um mindestens 200% steigert, dann kannst Du gerne Deine Lobpreisungen zum Besten geben. Bis dahin bist Du wohl der Einzige, der noch an ein Wunder glaubt.
| vielleicht hab' ich auch einfach schon eine demonstration gesehen, wo mit und ohne PPU gerechnet wurde und konnte dabei auch den taskmanager beobachten.. 4 ausgelastete cores vs. 3 komplett freie.. Unofficial AGEIA PhysX PPU Links & Info Page was meint heise dazu? (die sind alle dumm u. setzen aufs falsche pferd, gell?) VIDEOvideo (ziel speichern unter; leider schwer erreichbar) edit: die spielchen, von denen die ganze welt spricht, hab' ich noch gar net gesehen.. die interessieren mich faktisch nicht. bis ich hier mit meinem umbau durch bin, werden die schon ihre anlaufschwierigkeiten im griff haben.. und falls nicht, hab' ich 240€ gespart. (..) mfg tobi (Geändert von Beschleunigen um 8:11 am Mai 12, 2006)
-- Veröffentlicht durch cuhlatee am 2:21 am 12. Mai 2006
Ähm ich hab mir das Video mal reingezogen und ähm wo ist der Realismus! Man schiesst mit einer Handwaffe auf Kisten, die dann durch die Gegend fliegen und ballert Metallbleche aus nem Flugzeugrumpf??? Also wenn mich meine Erfahrungen in realistischer Phsyik nicht täuschen, dann wären ausser ein paar Löchern im Holz und Blech nicht viel zu sehen! Denn rein physikalisch realistisch ist ein stinknormales Geschoss viel zu schnell um so viel kinetische Energie an an einen Körper abzugeben, das er durch die Gegend fliegt! Man sollte wohl eher von Hollywoodphysikgesetzen ausgehen und nicht vom Realismus, denn realistische Einschusslöcher kann auch die CPU berechnen! (Geändert von cuhlatee um 2:35 am Mai 12, 2006)
-- Veröffentlicht durch kammerjaeger am 23:36 am 11. Mai 2006
Du kaufst wohl jeden Schei.., Hauptsache man kann damit prahlen, egal ob es Sinn macht oder nicht... :blubb: Wenn die PhysX entlasten würde, wäre ja alles im Lot. Aber genau das ist eben nicht der Fall, denn sonst wären die fps-Werte mit PhysX mindestens gleich bei bessere Qualität oder höher bei gleicher Qualität. Leider aber sind die Werte mit PhysX aber unspielbar niedrig, während sie ohne sie auf ordentlichem Niveau liegen: klick Bevor Du also die Karte in den Himmel lobst, solltest Du zunächst die Fakten akzeptieren, daß der Launch nunmal ein Mega-Flop ist! Falls Ageia tatsächlich in den nächsten 2-3 Monaten einen Hasen aus dem Hut zaubert und die Performance durch Treiber um mindestens 200% steigert, dann kannst Du gerne Deine Lobpreisungen zum Besten geben. Bis dahin bist Du wohl der Einzige, der noch an ein Wunder glaubt. Träum friedlich weiter... ;)
-- Veröffentlicht durch Beschleunigen am 22:19 am 11. Mai 2006
@kammerjäger dein sichtfeld ist viel zu beschränkt. tu' doch für dich selbst so, als kämen sie von ATI. da glaubst du auch an treiber und anlaufschwierigkeiten und bärige leistung "irgendwann später". :lol: sorry, aber du tust, als ginge es hier um grafik und daraus resultierende framerate. es geht um die leistungssteigerung des grundsystems und um die entlastung der CPU. erhöhen des anspruchs und gleichzeitige freigabe von CPU zeit, die wieder für anderes eingesetzt werden kann. da braucht man nunmal nicht auf die day-one titel hoffen. das muss sich für games erstmal etablieren --> also: kaufen! :punk: (..) mfg tobi (Geändert von Beschleunigen um 22:33 am Mai 11, 2006)
-- Veröffentlicht durch kammerjaeger am 14:33 am 11. Mai 2006
Zitat von Beschleunigen um 13:30 am Mai 11, 2006 das mit der integration auf anderen karten, würde bei grakas den geringsten sinn machen, da man physikkarten auch mit non-high-end-grakas koppeln kann.
| Nicht "kann", sondern muß! Denn welcher High-End-Gamer will Frameraten unter 20? Die PhysX ist in ihrer jetzigen Form einfach zu lahm, um mit aktueller Hardware Schritt zu halten. Daher macht die Kombination gerade mit High-End-Karten überhaupt keinen Sinn. Nur stellt sich für den User mit non-High-End-Karten die Frage, ob das Geld nicht besser in einer stärkeren Karte investiert ist, denn höhere Details in höheren Auflösungen (statt 800x600 mit min-Details) dürften mehr bringen als ein paar Effekte, die in niedrigen Settings/Auflösungen nichtmal voll zur Geltung kommen. ;)
Zitat von Beschleunigen um 13:30 am Mai 11, 2006 @kammerjäger vielleicht solltest du nicht oberflächlich bewerten, was du siehst, sondern eher versuchen, den sinn resp. die technik "dahinter" zu verstehen. dass sich das bild noch drastisch ändert, ist seit release der karten nicht mehr aufzuhalten. mal irgendwo gesehen, was mit einer PS3 möglich ist ?? der PC braucht diese physik-technik, wenn PC spieler demnächst auch PS3 ports spielen möchten. jepp -> konsolen bestimmen, was wir am PC spielen.
| Du hast (wie so oft) mal wieder nicht richtig gelesen oder überhaupt nicht kapiert, was ich zu dem Thema bisher geschrieben habe! Grundsätzlich kann eine Physik-Karte der richtige Schritt sein, um Upgrade-Zyklen zu verlängern, das ist auch meine Meinung. Aber eben nicht in diesem Fall! Wenn die PhysX schon jetzt bei Spielen, mit denen sie im Bundle verkauft wird (GR-AW), unspielbare Frameraten liefert, wie mag es dann erst in 1-2 Jahren sein? Dann gibt es DIA-Shows wie beim CPU-Test vom 3DMark06. :lol: Um die Umsetzung von PS3-Titeln mach ich mir keine Sorgen (zumal die ersten Spiele auch nur 720p liefern werden...). Die Programmierer werden die Engine anpassen an die dann aktuell verfügbare Hardware. Sei es, daß man Effekte rausnimmt oder bis dahin ausreichende PC-Hardware zur Verfügung hat. Die Entwicklung der Konsolen hat gezeigt, daß sie technologisch bei Erscheinen oft die Nase vorn haben, aber nach spätestens einem Jahr vom PC überrannt werden. Es ist sogar oft so, daß gerade gegen Ende eines Konsolenzyklus die Spiele auf dem PC deutlich besser aussehen und für die Konsolenportierung abgespeckt werden müssen... (Geändert von kammerjaeger um 14:36 am Mai 11, 2006)
-- Veröffentlicht durch Beschleunigen am 13:30 am 11. Mai 2006
das mit der integration auf anderen karten, würde bei grakas den geringsten sinn machen, da man physikkarten auch mit non-high-end-grakas koppeln kann. auch mit onboard-grafik, wenn's sein muss. eine physikberechnung muss nicht zwangsläufig mit gerenderter grafik enden, trotzdem kann ein physX beschleuniger, die CPU bei solchen rechnereien komplett heraushalten und sehr stark entlasten. einen quad-core rechner zu drei-vierteln. viele wären wohl auch nicht bereit, die höheren kaufpreise solcher GPU+PPU grakas zu zahlen - gerade wo die refresh-intervalle im graka-bereich immer kürzer werden und eine neue GPU schneller notwendig wird, als der wechsel einer PPU (die man dann ja mittauschen müsste). ergo: PCI realisierung hält den preis niedrig - spricht superviele user an (weil jeder PCI hat) und ist absolut flexibel einsetzbar. in meiner welt wird es so aussehen, dass havokFX auf den PCIe grakas genutzt wird (etwa im SLi, wo dann eine karte effekt-physik berechnet und die andere rendert) und alles andere auf der PPU einer ageia karte. @kammerjäger vielleicht solltest du nicht oberflächlich bewerten, was du siehst, sondern eher versuchen, den sinn resp. die technik "dahinter" zu verstehen. dass sich das bild noch drastisch ändert, ist seit release der karten nicht mehr aufzuhalten. mal irgendwo gesehen, was mit einer PS3 möglich ist ?? der PC braucht diese physik-technik, wenn PC spieler demnächst auch PS3 ports spielen möchten. jepp -> konsolen bestimmen, was wir am PC spielen. (..) mfg tobi (Geändert von Beschleunigen um 13:36 am Mai 11, 2006)
-- Veröffentlicht durch kammerjaeger am 13:15 am 11. Mai 2006
Zitat von BlackHawk um 11:15 am Mai 11, 2006 @kammerjaeger: soll einen das BiA:HH-Video von einer physx karte überzeugen? also umhauen tut mich das irgendwie nicht :noidea:
| Im Gegenteil! Wenn Du es in HQ siehst, wirst Du wissen warum (hab nur leider keinen passenden Download-Link für die HQ-Version)! Schau Dir mal an, wie div. Teile umherfliegen, als er die Handgranate in das Gebäude wirft. Dafür braucht man keine PhysX! BiA:HH zeigt, daß "normale" Karten dies auch können... Edit: Hier mal ein Link mit besserer Quali: klick (Geändert von kammerjaeger um 13:20 am Mai 11, 2006)
-- Veröffentlicht durch Paschka am 13:14 am 11. Mai 2006
...und falls es sich durchsetzt könnte man es im AMR/CNR stil machen...:lol:
-- Veröffentlicht durch BUG am 13:04 am 11. Mai 2006
..glaub nich das man das so schnell auf der Graka sieht, die HighEnd Lösungen sind imho viel zu komplexx und würden das meist so schon komplett überlandene PCB noch größer machen. Aber ich könnte mir vorstellen, dass man so einen Physik Chip mit einer PCIe SoundKarte bundeln könnte, da ist idR noch massig Platz vorhanden bzw sind die PCBs noch ausbaufähig. :) cu BUG
-- Veröffentlicht durch SirBlade am 12:59 am 11. Mai 2006
Danke Beschleunigen. Ich fänds schön wenn es später Grafikkarte mit sonem integrierten Chip gibt.
-- Veröffentlicht durch Beschleunigen am 11:48 am 11. Mai 2006
ich glaube, es geht nicht darum, euch zu überzeugen, sondern vielmehr darum, auf den grottigen PCs eine umgebung zu schaffen, die auch noch irgendwie spiele wiedergeben kann, die von der PS3 portiert werden. ressourcen verlagern, die CPU freibekommen und trotzdem gesteigerte physik-leistung zu haben. was spiele heute bieten, ist eher rudimentäre physik. physX beschleuniger gibts auch schon länger und diese technik ist eigentlich für simulation von physik etabliert. allerdings nicht im 300, sondern eher im 3000€ preissegment. der PCI bus, ist übrigens kein flaschenhals für die paar daten. vielmehr gibt PCI auch nutzern alter PCs die möglichkeit, physikleistung nachzurüsten, die mit einem CPU upgrade selbst in jahren nicht einzuholen wäre. PCIe punktet dort, wo havokFX für die effekt-physik zum tragen kommt - das hat aber mit ageia nichts zu tun. ein urteil in richtung "totgeburt" würde ich mir nicht erlauben. am anfang stehen immer treiber- und kompatiblitätsprobleme auf dem plan. das ist der EDV welt üblich. es mangelt auch an code. als damals 2004 die ersten HDR spielchen auftauchten, war das auch weit von dem weg, was HDR heute zu leisten imstande ist (vergl. HDRr in FarCry und in TES4:Oblivion).. edit: und mein erstes voodoo (glide) spiel, war POD. (..) mfg tobi (Geändert von Beschleunigen um 11:57 am Mai 11, 2006)
-- Veröffentlicht durch BlackHawk am 11:15 am 11. Mai 2006
auf wunsch von kammerjaeger wird mein comment "verlagert" :biglol:
Zitat von BlackHawk um 10:21 am Mai 11, 2006 ich halte diese technologie mehr oder weniger langfristig für überflüssig - dennoch aber als wichtigen einstieg in dieses thema! :) am wahrscheinlichsten ist es aber das die physx karten, ähnlich wie bei der voodoo 1/2, nach einem gewissen zeitraum vom markt verschwinden weil die technik langsam aber sicher in die normalen grafikkarten / mainboards integriert wird. und seien wir mal ehrlich, wer hat denn schon gerne noch eine zusätzliche karte in seinem rechner? muss ich / man(n) nicht unbedingt haben zumal nicht jedes board / barbone überhaupt noch einen pci steckplatz besitzen. da fände ich es wirklich super wenn man das ganze in die grafikkarte oder als "zusatzchip" (wenn es denn mal soweit entwickelt sein sollte) einfach auf das mainboard packt. ganz so rund ist dies also noch nicht wirklich - wenn auch interessant ;) so weit meine meinung - mal gucken was die nächsten jahre passiert :biglol: mfg BlackHawk (Geändert von BlackHawk um 10:22 am Mai 11, 2006)
| @kammerjaeger: soll einen das BiA:HH-Video von einer physx karte überzeugen? also umhauen tut mich das irgendwie nicht :noidea: mfg BlackHawk
-- Veröffentlicht durch kammerjaeger am 10:39 am 11. Mai 2006
Weil dort die gesamte Grafikkarten-Industrie dahinter stand und es ohne Probs in die Chips integriert werden konnte. ;) Hier ist eben das Problem, daß Ageia wohl finanzielle Unterstützung von Seiten der GraKa-Hersteller brauchen wird, wenn sie schnell einen Nachfolger bauen wollen, der beim Launch der Technik voraus ist, statt hinterher zu hinken. Btw: Hast Du damals NFS SE mal gespielt? Gehörte wie gesagt zu den Pionieren der Voodoo-Unterstützung und sah extrem gut aus, lief dabei auch absolut rund! Genau so etwas hätte ich mir von der PhysX gewünscht, aber scheinbar war der Hype um die Karte völlig übertrieben. Schaut Euch das BiA:HH-Video in HQ an, dann will keiner mehr eine 300,- teure PhysX, die die Frameraten auf unspielbare Werte einbrechen läßt. ;)
-- Veröffentlicht durch DJ am 9:06 am 11. Mai 2006
@kammerjaeger wie du sagtest mit patch , und ja sie liefen ruckelfrei :) Naja optisch ich weiss nicht so umgehauen haben mich die meisten spiele dann doch nich tomb raider mit patch schon. ;) Und ja die aktuelle karte ist nicht stark genug aber kuck die sachen die vor der voodoo rauskamen und 3d beschleunigen sollten waren auch nur ein witz. :) Abwarten ich zwar kaum dass es ne welle macht wie damals 3d beschleuniger aber zb beim t&l sagten damals auch fast alle sinnlos und trotzdem hat es sich hammermaessig durchgesetzt.
-- Veröffentlicht durch Hitman am 8:06 am 11. Mai 2006
Probleme wird es nur geben wenn Spiele nach und nach auf diese Karten aufbauen und dem normalen Kunden dadurch einen Nachteil verschaffen. Guckt man sich einige Spiele an mit AA und AF so ist fast alles vorhanden und man brauch sich eigentlich nur noch fragen wie es andere Unternehmen schaffen mit deutlich schlechtere Grafik dieselbe Speicherkapazität der Festplatte auszunutzen. Bin auch der Meinung dass es völliger Schwachsinn ist. Optional für das letzte I-Tüpfelchen wie die X-FI beim Audiomarkt... Ja genau so. Wer wirklich das Allerbeste haben will der braucht sowas. Für Spieler aber sollte das alles auch ohne so eine Karte gehen.
-- Veröffentlicht durch kammerjaeger am 1:54 am 11. Mai 2006
Zitat von DJ um 17:47 am Mai 10, 2006 @henro du hast recht aber sorry auch der effekt der voodoo 1 am anfang war ausser in tech demo in spielen nicht berauschend und es dauerte eine zeitlang bis es bseser wurde und patches erfolgten, was dann aber damals ziemlich schnell ging, ich glaub kaum dass heute der support so schnell geht.
| Sorry, aber da muß ich deutlich widersprechen! Die ersten, mir bekannten Spiele für die Voodoo1 (NFS SE und TombRaider mit Patch) liefen ab dem ersten Tag ruckelfrei und stellten optisch alles bisher Dagewesene in den Schatten! Was die PhysX jedoch bisher zeigt, bleibt meilenweit hinter den Erwartungen und hat nix mit Serienreife zu tun! Oder sie kommt technologisch um 2-3 Jahre zu spät. Vielleicht wäre sie Anno 2003/2004 der Kracher gewesen...
Zitat von ErSelbst um 20:12 am Mai 10, 2006 Bei den GPUs haste aber überall das Problem, dass die Daten von der GPU über PCIe wieder zur CPU müssen und der Bus zum Flaschenhals wird mit den "nur" 4GB/sec. .... :blubb:
| Ach so, aber der Flaschenhals über den PCI-Bus der PhysX ist da schneller? Wofür gibt es denn dann AGP und PCIe, wenn PCI so schnell ist? Oder dessen Anbindung an den AGP/PCIe? :noidea: Da nunmal auch heute immer noch ein Großteil an Daten von der CPU berechnet wird, welche dann im richtigen Moment an die GraKa geschickt werden müssen, kann hier weder der Flaschenhals liegen (denn u.a. speziell dafür wurde PCIe entwickelt...) noch ein grundsätzliches Synchronisierungsproblem vorliegen, welches nicht durch passende Treiber gelöst werden könnte. ;)
Zitat von Henro um 20:37 am Mai 10, 2006 Wenn ich es nun besser programmiere und ne schnelle cpu unterm arsch hab gehts noch besser wie bisher => mehr physikberechnungen => brauche keine PhysX Karte.
| Genau da liegt das Problem! Schaut man sich Spiele wie Oblivion oder Ghost Recon - Advanced Warfighter an, dann fragt man sich, ob die Programmierer lieber Eier schaukeln statt ihre Arbeit zu machen! Aber solange man dem Kunden immer neue Hardware verkaufen kann, scheinen einige Spieleschmieden sich einen Dreck um Leistungsoptimierungen zu kümmern, denn das kostet ja Geld! Ich persönlich würde jedoch eher dazu tendieren, für jedes Spiel 5,- mehr zu zahlen (wenn dafür sinnvoll programmiert wird), statt jedes halbe Jahr 200,- bis 500,- in den Rechner zu stecken! Daß man auch bei einer Sprengung umherfliegende Teile ohne PhysX realistisch darstellen kann, zeigt z.B. der Trailer von Brothers in Arms: Hell´s Highway. (Afaik ist in der aktuellen GameStar das Video in besserer Qualität) Warum also 300,- in eine Sackgasse investieren? Ich schließe mich Henro und Steffen545 eindeutig an. Die PhysX ist in ihrer aktuellen Form eine Totgeburt. Vielleicht taugt der Nachfolger mehr (wenn der Hersteller dann noch Geld für die Entwicklung hat... ;)). (Geändert von kammerjaeger um 8:39 am Mai 11, 2006)
-- Veröffentlicht durch Steffen545 am 1:04 am 11. Mai 2006
ich seh das wie henro... warum sollen den jetzt auf einmal ganz andere Physikengines kommen nur wegen ner karte?Das hat bis jetzt auch immer ohne geklappt und wird auch ohne klappen!Ich geb dem teil ein halbes Jahr! Dann hats jeder wieder vergessen weil der unterschied/vorteil einfach viel zu gering ist;)
-- Veröffentlicht durch Henro am 20:37 am 10. Mai 2006
na momentchen mal ... im moment redet ihr alle so als wenn wir keinerlei physikalische berechnung in unseren games haben. :crazy: Haben wir aber :ohno: ! Wenn ich es nun besser programmiere und ne schnelle cpu unterm arsch hab gehts noch besser wie bisher => mehr physikberechnungen => brauche keine PhysX Karte. ICH finde (was ihr findet sei euch überlassen) das es zwar sicher sinnvoll ist sich mit dem thema auseinander zu setzen, es aber in der aktuellen form unpassend auf den markt gekommen ist weil es so nur von kurzer dauer sein wird und keine bahnbrechende wende wir damals die 3D-Beschleunigung, Soundkarten die selbst rechnen und andere änlichkeiten waren und sind. Es wird darauf hinauslaufen das es in der ein oder anderen form auf die grakas zurückfällt ... entweder als huckepacklösung, zusätzlich integriert oder ganz vom der vpu übernommen. Man kann sich die Idee und die umsetzung noch so schönreden und dem mit dieses kleinen unternehmens respekt für ihr handeln und ihre überzeugung zollen ... aber es ist unausweichlich das sie SO nur ein kleines kurzes licht am markt sein werden und sich die großen schon die finger nach ihnen lecken.
-- Veröffentlicht durch ErSelbst am 20:12 am 10. Mai 2006
Zitat von Venom um 17:15 am Mai 10, 2006 aber das video ist doch geil :punk: bis auf die fette bombe am ende, die gegen das geländer fliegt und nicht einmal ne delle hinterlässt^^
| Stabiles geländer :thumb: @Henro:
Wenn ich schon ne DualCore CPU drin hab warum soll denn nicht ein kern komplett nur Phsik berechnen ???
| Weil es schwer ist, die zu syncronisieren ... aktuell wird die Pysik, wenn se vom 2. Kern berechner wird, einen Frame vor der dazugehörigen Grafik berechnet und zu hast von der benutzereingabe bis zum Fertigen Bild *denk* 3 Frames, die vergehen ... wenn du ein Game mit 30FPS zockst, haste 0,1 Sekunden zwischen Eingabe und dem Bild dazu ... das dürfte sich schon recht deutlich bemerkbar machen ;) Außderdem hat der 2. CPU- Kern nicht die Rechenleistung von ner extra dafür bgebauten Karte oder von den GPUs, wie es bei NVIDIAs Methode geht (da wird die Physik testweise mit den Pixelshadern berechnet ... ) Shader = 374 bzw. 249 GigaFLOPS (bei ner X1900XTX bzw. 7900GTX) P4 = 15 GigaFLOPS Bei den GPUs haste aber überall das Problem, dass die Daten von der GPU über PCIe wieder zur CPU müssen und der Bus zum Flaschenhals wird mit den "nur" 4GB/sec. .... :blubb:
-- Veröffentlicht durch faulpelz am 17:48 am 10. Mai 2006
@henro: eben! als ob sich die prozessorhersteller wieder auf singlecore umstellen weil man beim zocken vermeindlich keinen zweiten mehr braucht für die physik das macht ja dann nun die karte:lol: ich habe das gefühl das die auf die fresse fallen mit dem projekt zumal es bald auch schon quadcores gibt.da hat man genug cores für alles mögliche. und das wird dann wohl leichter zu proggen sein plus es sollte dann keine weiteren probleme mit noch mehr treibern geben die für die karte da wären
-- Veröffentlicht durch DJ am 17:47 am 10. Mai 2006
@henro du hast recht aber sorry auch der effekt der voodoo 1 am anfang war ausser in tech demo in spielen nicht berauschend und es dauerte eine zeitlang bis es bseser wurde und patches erfolgten, was dann aber damals ziemlich schnell ging, ich glaub kaum dass heute der support so schnell geht.
-- Veröffentlicht durch Henro am 17:19 am 10. Mai 2006
Zitat von BDKMPSS um 15:34 am Mai 10, 2006 Der (sehr oft gebrachte) Vergleich hinkt aber gewaltig. Vor der Voodoo gab es Quasi keine 3D Grafik. Die Physik-Karte ist nur eine Verbesserung, physik wird auch jetzt schon berechnet, nur eben minderqualitativ b.z.w. langsam. Während sich Windows zwar auch nur "immer bunt..." äh "immer besser" wird und somit eine Verbesserung ist, hat die Karte das "Problem" von Dell nicht in jeden noch so schrulligen Rechner geschraubt zu werden, auf den aber immer ein Win kommt.
| 3d grafik wurde damals auch schon berechnet ... nur "eben minderqualitativ b.z.w. langsam." Die Voodoo Karten habens auch nur verbessert. Ich finde den vergleich schon in ordnung ! Im gegensatz zur voodoo karte, die damals echt DER WAHNSINN war kommt die PhysX Karte leider nicht so recht in schwung. Zudem ist es nunmal heutzutage so das man es auch von anderen komponenten machen lassen kann. Wenn ich schon ne DualCore CPU drin hab warum soll denn nicht ein kern komplett nur Phsik berechnen ??? ;)
-- Veröffentlicht durch Venom am 17:15 am 10. Mai 2006
aber das video ist doch geil :punk: bis auf die fette bombe am ende, die gegen das geländer fliegt und nicht einmal ne delle hinterlässt^^
-- Veröffentlicht durch BDKMPSS am 15:34 am 10. Mai 2006
Der (sehr oft gebrachte) Vergleich hinkt aber gewaltig. Vor der Voodoo gab es Quasi keine 3D Grafik. Die Physik-Karte ist nur eine Verbesserung, physik wird auch jetzt schon berechnet, nur eben minderqualitativ b.z.w. langsam. Während sich Windows zwar auch nur "immer bunt..." äh "immer besser" wird und somit eine Verbesserung ist, hat die Karte das "Problem" von Dell nicht in jeden noch so schrulligen Rechner geschraubt zu werden, auf den aber immer ein Win kommt.
-- Veröffentlicht durch DJ am 14:44 am 10. Mai 2006
naja mal abwarten bei den 3d beschleunigern waren die erste ansaetze auch ziemlich mickrig und keiner glaubte an den erfolg. ;) Aber ich glaube ich springe noch nicht auf den zug der physik beschleuniger.
-- Veröffentlicht durch kammerjaeger am 9:05 am 10. Mai 2006
Eigentlich schade, denn die Idee ist prinzipiell nicht schlecht. Aber frühestens mit einer PhysX-2 wäre sie wohl auch gut umsetzbar, denn in der aktuellen Form (bzw. mit ihrer miesen Performance) dürfte das Teil ein Rohrkrepierer werden. Fraglich also, ob die Entwickler genügend Geld für eine Weiterentwicklung haben oder ob sie bald von einem Branchenriesen aufgekauft werden.... ;)
-- Veröffentlicht durch Crusader am 0:26 am 10. Mai 2006
nun ja wie schon im anderen thread betont darf keine 2 klassen gesellschaft bei den spielern entstehen .. dies impliziert das die engine von haus aus mit oder ohne partikeleffekte (ja effektevielfalt .. keine verbesserungen des realitätsgrades in multiplayer-games) mehr darstellen muss als es bisher der fall ist .. diese karte stellt nur das i-tüpfelchen der partikelvielfalt dar oder maximal in single-player games zugunsten des realitätsgrades differenziertere objektdeformierungen und authentischere bewegungsabläufe .. wer sich mittels dieser karte ein intesiveres gameplay erhofft wird in keinsterweise belohnt werden (ausgenommen maximierter effektdetails) .. wo soll dieses wunder auch her kommen wenn nicht vom spiel selbst .. solange die breite masse keine zur zeit gegebenen 300 EUR investieren möchte bleibt ein spektakel dieser größenordnung nur testcentern und freiwilligen betatestern vorbehalten und das zu recht denn mit solchen zur zeit ineffektiven tricks zu lasten der performance sollte keiner bestraft und des geldes beraubt werden .. letztlich erfährt der user durch eine neuinvestition einer modernen grafikkarte der ersparten 300 EUR mehr wunder für konventielle games und bereits für physX angekündigte titel durch leistungskompensierung als durch ein unausgereiftes konzept das noch tief in den kinderschuhen schlummert ;) mfg. -crusader- (Geändert von Crusader um 0:27 am Mai 10, 2006)
-- Veröffentlicht durch Chaosgabe am 18:48 am 9. Mai 2006
Zitat von Dodger um 18:29 am Mai 9, 2006 Als ich zum ersten Mal von dem Prozessor gehört habe, schwebten vor meinem inneren Auge Rennspiele vorbei, bei denen Unfälle richtig realistisch ablaufen. Immer wieder andere Verformungen, wenn dir einer in die Seite knallt. Ego-Shooter mit Querschlägern, Bomben, die eine Hauswand wegreissen, statt dass das ganze Gebäude 20% beschädigt wird... Aber bis dahin wirds wohl noch etwas dauern.
| Jow, das wünsche ich mir auch schon lange. Aber das wird wohl auch nochmal solange dauern bis es das wirklich gibt. Vielleicht in HL³? Das wäre immerhin Physikmäßig ein ähnlicher sprung wie zwischen 1 und 2.
-- Veröffentlicht durch Dodger am 18:29 am 9. Mai 2006
Ach verdammt. Wieder nicht genau hingeschaut. Naja, egal. Es geht ja auch darum, dass die Karten jetzt (fast :lol:) verfügbar sind. Bei Geizhals sind sie jedenfalls schon gelistet - sogar deutlich günstiger als bisher angegeben - wenn auch noch nicht verfügbar. Ich bin jedenfalls gespannt, was daraus wird. Als ich zum ersten Mal von dem Prozessor gehört habe, schwebten vor meinem inneren Auge Rennspiele vorbei, bei denen Unfälle richtig realistisch ablaufen. Immer wieder andere Verformungen, wenn dir einer in die Seite knallt. Ego-Shooter mit Querschlägern, Bomben, die eine Hauswand wegreissen, statt dass das ganze Gebäude 20% beschädigt wird... Aber bis dahin wirds wohl noch etwas dauern.
-- Veröffentlicht durch Crusader am 15:39 am 9. Mai 2006
was anderes hatte ich ehrlich gesagt auch nicht erwartet.. mfg. -crusader-
-- Veröffentlicht durch Hitman am 15:19 am 9. Mai 2006
Im Thread etwas weiter unten : Neue Karte für spielberechnungen? Ist genau dasselbe.
-- Veröffentlicht durch Dodger am 14:12 am 9. Mai 2006
Die ersten Erweiterungskarten mit dem Physikprozessor von Ageia sollen in den nächsten Tagen zu einem Preis von 299€ in den Läden auftauchen. Passend dazu hat 3DCenter schonmal ein recht ausführliches Review über eine der ersten Karten gebracht. Die Benchmarks sind doch eher ernüchternd. Wer schonmal mit einer älteren Grafikkarte Egoshooter gespielt hat, kann wohl nachvollziehen, was in den Tests ablief. Konstante spielbare Frameraten, solange nichts passiert, sobald jedoch die Fetzen fliegen, wird es fast unspielbar. Ein nichtsdestrotz (vor allem am Ende) sehenswertes Video verdeutlicht schonmal die Möglichkeiten des Ageia PhysX-Prozessors.
|