Prozessor & Grafik auf einem Chip = Supercomputer?
- OCinside.de PC Forum
-- News
--- Prozessor & Grafik auf einem Chip = Supercomputer?
|
Ein Ausdruck des Beitrags mit 22 Antworten ergibt bei 3 Antworten pro Seite ca. 8 DIN A4 Seiten. Das entspricht bei 80 g/m² ca. 39.92 Gramm Papier.
-- Veröffentlicht durch kammerjaeger am 1:53 am 17. Nov. 2006
Und deshalb wird irgendwann der Turnaround kommen, wo sich Spieleentwickler auf die neue Architektur einschießen können. Das wird zwar auch noch etwas dauern, so wie wir es z.B. bei DX9 gesehen haben. Aber irgendwann geht kein Weg mehr an der Neuorientierung vorbei, wenn man grafisch top sein will, auch wenn man damit einige Gamer zum Hardwarekauf zwingt. Sowas kann sich zwar nur ein erfolgreicher Titel erlauben (siehe z.B. Battlefield2 vs. Geforce4), aber einer macht immer den Anfang.
-- Veröffentlicht durch smoke81 am 1:36 am 17. Nov. 2006
Klar, das ist ja der Teufelskreis...
-- Veröffentlicht durch kammerjaeger am 19:03 am 16. Nov. 2006
Der ist nur deshalb nicht der Flaschenhals, weil entsprechend programmiert wird! Schließlich soll das Spiel ja sogar auf AGP-Systemen laufen... ;) Wenn nun aber diese Beschränkung wegfällt, kann ganz anders programmiert werden. Außerdem können CPU und GPU flexibler eingesetzt werden, ähnlich wie frei programmierbare Shader aktueller Karten. Dafür ist der Bus momentan einfach zu lahm, deswegen nutzt man ihn nicht.
-- Veröffentlicht durch DJ am 17:56 am 16. Nov. 2006
@nummer47 ich kucke ueber den teller rand aber die paar opengl shooter machen die gans nicht fett sorry dass sind mac user mit rosa roter brille sind die schlimmsten soviel zum tellerrand kucken. :)
-- Veröffentlicht durch nummer47 am 17:17 am 16. Nov. 2006
1.) Macs nutzen jetzt Intel Prozessoren, und sind dadurch im Schnitt um den Faktor 1,7 schneller geworden. 2.) Ich mache alles auf meinem Mac was ihr auch so macht. Email, Foren, Video, iTunes, Schule, ICQ... aber auch zocken (ja es gibt Mac Spiele; Quake, Call of Duty 1+2 etc..!) Alles was nur unter XP läuft is eigentlich auch kein DIng, denn mit Bootcamp kann ich WIndows XP booten und dann jedes Spiel spielen dank X1600Pro und Core Dou 3.) Stimmt, aber in einigen Bereichen sind Macs Windows PC's vielfach überlegen (Netzwerkintegration, SIcherheit, Anwenderfreundlichkeit, Design...) 4.) Stimmt, aber früher wars schlimmer 5.) Also ich nutze meine Logitech MX610 und n Cordless Desktop LX300 ohne Einschränkungen an meinem Mac. Es gibt auch einen Rechtsklick ^^ 6.) Na dann versuch mal Photoshop oder irgendein CAD Programm auf nem P1 laufen zu lassen... leute, guckt auch über den Tellerrand.
-- Veröffentlicht durch DJ am 14:57 am 16. Nov. 2006 @kammerjaeger
Jepp genau so ist es :) auch wenn ich mich mit sowas nie anfreunden konnte. ;)
-- Veröffentlicht durch smoke81 am 14:23 am 16. Nov. 2006
Den Datenbus sehe ich gar nicht als Flaschenhals. Sicherlich stecken auch da einige % Leistung und Optimierungsmöglichkeiten drin, aber man sehe sich z.B. mal den "Unterschied" zwischen PCIe 8x und 16x an... Diese Schnittstelle eilt den Anforderungen etwas voraus (Bei dem Thema wäre vielleicht mal USB3.x etc. fällig... oder mal abwarten, inwieweit sich eSATA durchsetzen kann...). Als wirklich sehr großen Vorteil sehe ich die bedingungslose Ausnutzung der GPU-Leistung für andere Zwecke. Mittlerweile haben sich die GPUs zu fast universalen superparallelen Rechenmonstern entwickelt. Ob man diese dann für Multimedia, Physik oder wissenschaftliche Berechnungen einsetzt ist eigentlich egal und wird schon JETZT versucht umzusetzen. Wenn es ZUKÜNFTIG entsprechende parallelisierbare Aufgaben gibt und diese über die Software gut kodiert werden, DANN könnten sich durchaus Anwendungen auftun, die erheblich von der kürzeren Anbindung profitieren werden/würden. Noch ist das Datenaufkommen zwischen CPU und GPU relativ gering und kann sehr gut mit den heutigen Standards bewältigt werden. Ich argumentiere also absolut nicht mit einer verbesserten Spielegrafik, sondern anderen Anwendungen, die daraus erheblichen Nutzen ziehen könnten. Vor ein paar Monaten habe ich mal einen sehr interessanten Artikel gelesen (weiß nur nicht mehr wo...), der sich mit der Frage beschäftigt, was wäre, wenn CPUs so leistungsfähig werden würden, dass sie ohne Probleme realitätsnahe Grafik in Echtzeit berechnen können... Unter anderem bei Computerbase war vor ein paar Tagen auch ein Bericht über ein raytraced Quake 4, dass mit geringer Auflösung und mit einem neuen C2D Quadcore schon recht ordentliche Bildwiederholraten erzielt hat... Meine Meinung und Gedanken dazu: - "Reality-Grafik" wird man nie erreichen können, da dafür unendliche Ressourcen gebraucht werden. Beschränkt man die Grafik allerdings z.B. auf bestimmte Zoomstufen, dann könnte durchaus eine Grenze erreicht werden, bei der man von Reality-Grafik sprechen kann (der Mensch bzw. das menschliche Auge als limitierender Faktor). Damit bräuchte man auch "nur" eine endliche Rechenpower, die man eines Tages erreichen wird. Für andere "Anwendungen" wie KI etc. kann man jedoch nie genug Rechenleistung haben. Eine Grenze für die (benötigte) Rechenpower einer KI ist also nicht vorhanden und läßt sich immer ausnützen. Die Möglichkeiten, aber auch Gefahren einer KI, die keiner mehr versteht und jedem Menschen überlegen ist, kann sich jeder selber ausmalen... ;) - Die Zukunft steckt mit Sicherheit in CPUs mit einer hohen Anzahl an parallelen und gleichzeitig hochspezialisierten Einheiten, denn die Rechenleistung einer "Universal-CPU" läßt sich nicht in dem Maße steigern wie mit diesen einfachen Spezialprozessoren und ist aber auch nicht notwendig... Diese zukünftigen Prozessoren werden dann CGPUs und noch viel mehr sein. - Geht man von der Annahme aus, dass man etwa die 1000-fache Grafikleistung (1000x G80) von heute brauchen würde, damit man eine Spiele-Grafik erzeugen kann, die nicht mehr von einem Film zu unterscheiden ist und die Entwicklung in dem Tempo wie bisher verläuft, dann kann man bereits in 15-20 Jahren damit rechnen. Dieses Szenario macht mir auf jeden Fall etwas Angst... Weltwirtschaftskrise usw.... Eine riesige Branche würde vor dem Aus stehen mit allen Konsequenzen... Übertakten bräuchte man schon lange nicht mehr (oh Gott)... und und und... ABER den Teufel werden die führenden Technologieunternehmen tun. Fortschritt bekommen wir nur häppchenweise und solange es so bleibt, dauert es auch noch sehr sehr lange, bis wir (= Normalverbraucher) keine Anwendungen mehr finden und haben, die nicht noch etwas mehr Rechenpower benötigen könnten... :lol: Jetzt bin ich etwas abgeschweift vom Thema... :lol:
-- Veröffentlicht durch kammerjaeger am 13:30 am 16. Nov. 2006
Sorry, aber in einigen Bereichen (z.B. Grafiker oder Musik) ist der MAC nunmal sehr stark. Und wer ihn dort nutzt, hat definitiv eine durchschnittlich längere Nutzungsdauer, als der Standard-Windows-User bei seinem PC! Natürlich hat der MAC von den Verkaufszahlen nicht das Niveau des PC, aber darum geht es doch auch gar nicht. Ich will auch nicht sagen, daß der MAC das bessere Konzept hat o.ä., sondern es geht nur um die Änderung der Produktzyklen und die Auswahlmöglichkeiten im PC-Segment. Daß der PC gegenüber dem MAC natürlich die bessere Spieleplattform darstellt, steht dabei außer Frage!
Und genau das ist eben eine Frage der Entwicklungsarbeit. Wenn man eine passende Architektur findet, dann kann man damit einen Sprung in der Spielegrafik nach vorn machen, weil bei dieser integrierten Lösung der Flaschenhals über den Bus entfällt und die Datenwege verkürzt werden. So kann es besonders im Spielebereich eine mächtige Evolution geben. Aber dies werden wir in 2007 und wohl selbst in 2008 noch nicht erleben... ;)
-- Veröffentlicht durch smoke81 am 12:08 am 16. Nov. 2006
Sinn hat sowas durchaus und zwar in leistungsstarken (CPU-Power) Firmenrechnern und Workstations. Zwar treiben die Gamer den Fortschritt voran, aber man darf dieses zahlungskräftige Klientel mit riesigen Abnahme-Stückzahlen nicht ausschließen. EDIT: Hab es genau anders herum gelesen :lol: Aber auch dieser Markt könnte gebraucht werden. Viele Spiele werden ja für eine Konsolenumgebung entwickelt und daher ist nunmal die CPU-Power begrenzt. Die höhere Grafikpower könnte man jedoch relativ leicht ausnutzen und dann auf dem PC oder einer erweiterten Konsole bessere Grafik bieten. Eine höhere CPU-Leistung würde allerdings nicht viel bringen. Die erhöhte Rechenpower bringt Möglichkeiten mit sich, von denen z.B. ein Ingenieur vor 10 oder 20 Jahren nur träumen konnte... Die kurzen Produktzyklen haben natürlich auch Vorteile. So kann man sich das "alte" High-End-Modell zu einem günstigen Preis sichern und hat mehr als ausreichend Power, da die Software, der Hardware-Entwicklung in der Regel hinterher hinkt (mal abgesehen von schlecht programmierten Spielen und Anwendungen...). Jedenfalls hat man so einen raschen Preisverfall, was ich eher als Vorteil sehe (wenn man nicht immer das teuerste und neueste haben muss) als z.B. längere Produktzyklen. Apropos: Den meisten im Forum würde doch sehr langweilig werden, wenn sie nicht mehrmals im Jahr den Rechner komplett umbauen würden und dies auch noch z.T. rechtfertigen können... :lol: Ein überdenkenswerter Punkt wäre auch, wie es dann wohl mit den Aufrüstungen aussehen würde. Da immer mehr Funktionen in die CPU und immer weniger in den Chipsatz integriert werden, könnte so ein Mainboard eine längere Lebensdauer haben, zumindest solange die Speichersockel und die verbauten Spannungsregler kompatibel sind. Ich denke sowieso, dass (zumindest anfangs) die "CGPUs" nur recht schwache Grafikeinheiten verpasst bekommen (für Office, HTPC-Einsatz etc.), aber der Gamer-Markt noch sehr lange auf dedizierte Karten zurückgreifen wird. Aber bis es soweit ist, rauscht sicherlich noch einiges Wasser den Bach runter. Man glaubte zwar nicht daran, dass heutzutage ein Grafikchip mit rund 700 Mio. Transistoren in 90nm-Technik bei höheren Taktraten technisch möglich ist, aber dann wurden alle vom Gegenteil überzeugt... Die Komplexität einer "CGPU" wird noch einiges mehr an Entwicklungsaufwand verlangen... Ein wesentlichen Vorteil haben/hätten jedoch CGPUs: Zwar würden die Treiber meiner Meinung nach auch komplexer werden (im Vergleich zu separaten Treibern), jedoch kann man dann endlich ungebremst die gewaltige Rechenpower der GPUs in Multimedia-Anwendungen etc. ausnutzen und hätte so einen gewaltigen Zuwachs in der Performance bei parallelisierbaren Aufgaben :thumb: (Geändert von smoke81 um 12:11 am Nov. 16, 2006)
-- Veröffentlicht durch DJ am 11:28 am 16. Nov. 2006
Naja meine sicht zu dieser aussage. :) 1) MAC's gibt's keine mehr sie nutzen intel prozessoren was ein riesenrueckschritt bis jetzt ist. 2) LOL LOL LOL LOL mac hat ne nutzungsdauer von 0.0 es gibt sehr wenige bereiche wo man ihn wirklich nutzen konnte dtp fuer grafiker usw, ansonsten haben selten leute einen gehabt ausser paar leute die halt anders sein mussten. 3) Hat sich nie durchgesetzt. 4) Sind zu teuer ob das noch immer so ist kein plan. 5) Die maus die immer an solchen machwerken angeschlossen ist eine frechheit zum arbeiten. 6) Das schlimmste man kann das teil nicht zum zocken benutzen es gibt fast keine spiele was soll ich mit nem computer mit dem ich nicht mal zocken kann , fuer nutzsoftware wuerde eigentlich die pc's vor 10 jahren in den meisten faellen auch reichen. Da wundern mich laengere produktionszyklen nicht. Wie gesagt heutige monster maschienen kann man eigentlich nur mit Spielen rechtfertigen sogar intel macht werbung immer in die richtung, also mac ist und bleibt was fuer insel loesungen und spinner die halt anders sein wollen mehr nicht und es wird solange bleiben wie es keine spiele dafuer gibt. Ich haette auch gerne gehabt das mac sich durchsetzt tja aber mac gibt's nimmer was nen intel prozzi hat ist fuer mich ein PC. ;)
-- Veröffentlicht durch kammerjaeger am 2:19 am 16. Nov. 2006
Es geht doch gar nicht primär um die Namensgebung (die ist nur das Tüpfelchen auf dem i), sondern um die Vielfalt der Kombinationsmöglichkeiten, bei denen der normale Kunde nicht durchblicken kann!
-- Veröffentlicht durch Venom am 0:04 am 16. Nov. 2006 Allet schön und gut, aber ich versteh trotzdem nicht warum Du glaubst daß die Bezeichnungen einfacher werden nur weil Grafik und CPU in einem Chip stecken.. für die Bezeichnung ist Management und Marketing zuständig, und die haben mal absolut kein Interesse dadran das durchschaubar zu machen ;)
-- Veröffentlicht durch kammerjaeger am 17:34 am 12. Nov. 2006
Jein. Denn es ist schon schwer genug, einem Noob zu erklären, warum ein A64 oder C2D trotz niedrigerem Takt schneller sein kann als ein Pentium oder warum ein 3500+ nur 2,2GHz und nicht 3,5GHz hat. Wenn dann auch noch kryptische Bezeichnungen den Grafikkartenmarkt verwirren und z.B. die "gleiche" Karte mal mit 64bit und mal mit 128bit Speicherinterface verkauft wird und der Käufer nicht versteht, warum eine Karte mit 256MB nicht zwingend langsamer sein muß als eine Karte mit 512MB, dann hätte ich oft in der Beratungszeit schon wieder anderweitig Geld verdienen können... Insofern bietet eine Vereinfachung immer noch genügend Raum für kompetente und individuelle Beratung. So kann man sich dann verstärkt um andere "Probleme" kümmern wie z.B. das optimale Gehäuse oder die ideale Abstimmung leiser Komponenten etc. ;) Zur perfekten Lösung: Natürlich ist man immer auf der Suche nach der eierlegenden Wollmilchsau. Aber da nunmal jeder User andere Anforderungen hat, ist dieses Ziel kaum erreichbar. Jedenfalls sind schon einige Hersteller dazu übergegangen, dem Board auch DVI und HDMI-Funktionalität zu spendieren: klick Man erkennt also die zunehmende Bedeutung von HTPCs und wird dieses Feld in Zukunft weiter ausbauen, da bin ich mir sicher! :thumb:
-- Veröffentlicht durch smoke81 am 16:01 am 12. Nov. 2006
Hoffentlich gibt es perfekte Lösungen :lol: Im Ernst: Momentan sehe ich nicht, wo noch eine Lücke sein soll. (Aber vielleicht fehlt mir auch der Blick dazu). Perfekte Lösungen kann es kaum geben, da jeder andere Ansprüche und Wünsche hat und immer wieder muss man dann z.B. feststellen, dass dem (fast) perfekten, günstigem µATX-Board für den HTPC-Einsatz mit reichlich OC-Funktionen, entsprechende Schnittstellen fehlen, z.B. ein DVI oder TV-Ausgang der Onboard-Grafik oder digitale Soundausgänge... Aber das liegt z.T. auch an der Unverreinbarkeit von Low-Cost, OC-Funktionalität und reichhaltiger Ausstattung... :lol: Mit entsprechendem finanziellem Aufwand kann man aber auch dieses Problem sauber lösen und alle Geschmäcker zufrieden stellen. Und sei mal ehrlich: Die momentane Komplexität des Hardware-Marktes erfordert zwar viel Zeit, sich als Freak oder Profi einigermaßen auf dem aktuellen Stand zu halten, jedoch kann dies z.B. einem Einzelhändler mit exzellenten Beratungsqualitäten doch nur Recht sein oder? :) (Geändert von smoke81 um 16:02 am Nov. 12, 2006)
-- Veröffentlicht durch kammerjaeger am 9:07 am 9. Nov. 2006
Abwarten....
-- Veröffentlicht durch dergeert am 8:16 am 9. Nov. 2006
Ich denke mal, es geht eher darum, ein Konkurrenzprodukt zur Cell-Architektur zu schaffen (Multicore-CPU > 4 Kerne mit leistungsstarken Integer-Kernen + leistungsfähigen Fließkomma-Kernen aka "Grafikchips"). Die tatsächliche Grafikausgabe wird weiterhin oft über (aktuelle) Grafikkarten stattfinden, obwohl die CPU bei entsprechendem Design vielleicht auch gleich als Onboard-Lösung genutzt werden könnte.
-- Veröffentlicht durch tOWNshIP am 20:26 am 8. Nov. 2006
.. das steht einfach falsch in dem Artikel, GPUs haben nur in Fliesskommaberechnungen die Nase vorn .. wäre das für einen Desktop PC ausreichend, dann hätten wir schon lange nen Cell-Chip o.ä. in unseren Kisten (8VektorKerne plus ManagementKern (PPC6)) .. (Geändert von tOWNshIP um 20:27 am Nov. 8, 2006)
-- Veröffentlicht durch Henro am 15:10 am 8. Nov. 2006
Intel hat Nvidia NICHT gekauft. in naher und mittlerer zukunft wird die graka in der cpu warscheinlich nur die onboard lösungen ersetzen. Ati und Nvidia haben Lösungen zur berechnung von Physik per Graka bzw. den Shader-Einheiten derer Vorgestellt.
-- Veröffentlicht durch DarkFacility am 14:50 am 8. Nov. 2006
ah, jetzt versteh ich auch, warum amd ati und intel nvidia gekauft hat :ohno:
-- Veröffentlicht durch Steffen545 am 13:59 am 8. Nov. 2006
na dann bin ich mal gespannt...
-- Veröffentlicht durch kammerjaeger am 9:53 am 8. Nov. 2006
Was den Takt angeht, hast Du Recht. Aber GPUs sind viel komplexer aufgebaut...
-- Veröffentlicht durch cheech2711 am 9:45 am 8. Nov. 2006
guckt Ihr auf diesen Artikel
|
OCinside.de PC Forum
© 2001 - 2024 www.ocinside.de