Prozessor & Grafik auf einem Chip = Supercomputer?

- OCinside.de PC Forum
https://www.ocinside.de

-- News
https://www.forum-inside.de/forums.cgi?forum=8

--- Prozessor & Grafik auf einem Chip = Supercomputer?
https://www.forum-inside.de/topic.cgi?forum=8&topic=1575

Ein Ausdruck des Beitrags mit 22 Antworten ergibt bei 3 Antworten pro Seite ca. 8 DIN A4 Seiten. Das entspricht bei 80 g/m² ca. 39.92 Gramm Papier.


-- Veröffentlicht durch kammerjaeger am 1:53 am 17. Nov. 2006

Und deshalb wird irgendwann der Turnaround kommen, wo sich Spieleentwickler auf die neue Architektur einschießen können. Das wird zwar auch noch etwas dauern, so wie wir es z.B. bei DX9 gesehen haben. Aber irgendwann geht kein Weg mehr an der Neuorientierung vorbei, wenn man grafisch top sein will, auch wenn man damit einige Gamer zum Hardwarekauf zwingt. Sowas kann sich zwar nur ein erfolgreicher Titel erlauben (siehe z.B. Battlefield2 vs. Geforce4), aber einer macht immer den Anfang.
In diesem Falle wäre ein erforderlicher Hardwarekauf auch nicht ganz so tragisch, wenn sich denn meine Prognose bewahrheitet. Denn dann wäre man aufgrund der längeren Produktzyklen nicht mehr in der Not, alle 12 Monate fast die gesamte Hardware tauschen zu müssen, wenn man einen halbwegs leistungsfähigen Spiele-PC haben will. So machen Upgrades dann auch wieder Spaß.... ;)



-- Veröffentlicht durch smoke81 am 1:36 am 17. Nov. 2006


Zitat von kammerjaeger um 19:03 am Nov. 16, 2006


Der ist nur deshalb nicht der Flaschenhals, weil entsprechend programmiert wird! Schließlich soll das Spiel ja sogar auf AGP-Systemen laufen... ;)




Klar, das ist ja der Teufelskreis...


-- Veröffentlicht durch kammerjaeger am 19:03 am 16. Nov. 2006


Zitat von smoke81 um 14:23 am Nov. 16, 2006

Den Datenbus sehe ich gar nicht als Flaschenhals. Sicherlich stecken auch da einige % Leistung und Optimierungsmöglichkeiten drin, aber man sehe sich z.B. mal den "Unterschied" zwischen PCIe 8x und 16x an...
Diese Schnittstelle eilt den Anforderungen etwas voraus (Bei dem Thema wäre vielleicht mal USB3.x etc. fällig... oder mal abwarten, inwieweit sich eSATA durchsetzen kann...).



Der ist nur deshalb nicht der Flaschenhals, weil entsprechend programmiert wird! Schließlich soll das Spiel ja sogar auf AGP-Systemen laufen... ;)

Wenn nun aber diese Beschränkung wegfällt, kann ganz anders programmiert werden. Außerdem können CPU und GPU flexibler eingesetzt werden, ähnlich wie frei programmierbare Shader aktueller Karten. Dafür ist der Bus momentan einfach zu lahm, deswegen nutzt man ihn nicht.


-- Veröffentlicht durch DJ am 17:56 am 16. Nov. 2006

@nummer47 ich kucke ueber den teller rand aber die paar opengl shooter machen die gans nicht fett sorry dass sind mac user mit rosa roter brille sind die schlimmsten soviel zum tellerrand kucken. :)

Aber stimmt seit dem die mac's intel haben kann man windows xp drauf machen aber sorry dann sind es keine mac's mehr hehe. :)

3) anwenderfreundlichkeit und design streite ich ab hehe. :)

4) frueher gab's auch noch mac's jetzt sinds pc mit nem alternativen betriebsystem (aka linux usw.)

5) die maeuse sind auch nicht vill besser aber toll endlich gibts rechtsklick :)

6) jo geht die ganze alten sachen (frueher hiess das corel draw wenn natuerlich aktuellen murks nennst der 3 milliarden vom allen braucht ist es klar dass es nicht laeuft) und du hast fast die einzigen anwendungen gennant die neben spielen auch leistung brauchen.


Sorry aber so sehe ich es der naechste mac den ich in die finger bekomme kann es ja wieder versuchen mich zu ueberzeugen aber bis jetzt waren sie immer entaeuschend aus meiner sicht. ;)

Aber ich geb's nicht auf auch wenns ja jetzt keine mac's mehr gibt. :lol:


-- Veröffentlicht durch nummer47 am 17:17 am 16. Nov. 2006


Zitat von DJ um 11:28 am Nov. 16, 2006

Jetzt, wo ich das alles schreibe, fällt mir auf, daß wir so etwas ähnliches schon haben: Den Mac!
Auch dort ist die Software besser programmiert, die Produktzyklen länger und somit auch die Nutzungsdauer des Durchschnittscomputers.




Naja meine sicht zu dieser aussage. :)

1) MAC's gibt's keine mehr sie nutzen intel prozessoren was ein riesenrueckschritt bis jetzt ist.

2) LOL LOL LOL LOL mac hat ne nutzungsdauer von 0.0 es gibt sehr wenige bereiche wo man ihn wirklich nutzen konnte dtp fuer grafiker usw, ansonsten haben selten leute einen gehabt ausser paar leute die halt anders sein mussten.

3) Hat sich nie durchgesetzt.

4) Sind zu teuer ob das noch immer so ist kein plan.

5) Die maus die immer an solchen machwerken angeschlossen ist eine frechheit zum arbeiten.

6) Das schlimmste man kann das teil nicht zum zocken benutzen es gibt fast keine spiele was soll ich mit nem computer mit dem ich nicht mal zocken kann , fuer nutzsoftware wuerde eigentlich die pc's vor 10 jahren in den meisten faellen auch reichen. Da wundern mich laengere produktionszyklen nicht.


Wie gesagt heutige monster maschienen kann man eigentlich nur mit Spielen rechtfertigen sogar intel macht werbung immer in die richtung, also mac ist und bleibt was fuer insel loesungen und spinner die halt anders sein wollen mehr nicht und es wird solange bleiben wie es keine spiele dafuer gibt.


Ich haette auch gerne gehabt das mac sich durchsetzt tja aber mac gibt's nimmer was nen intel prozzi hat ist fuer mich ein PC. ;)





1.) Macs nutzen jetzt Intel Prozessoren, und sind dadurch im Schnitt um den Faktor 1,7 schneller geworden.
2.) Ich mache alles auf meinem Mac was ihr auch so macht. Email, Foren, Video, iTunes, Schule, ICQ... aber auch zocken (ja es gibt Mac Spiele; Quake, Call of Duty 1+2 etc..!)
Alles was nur unter XP läuft is eigentlich auch kein DIng, denn mit Bootcamp kann ich WIndows XP booten und dann jedes Spiel spielen dank X1600Pro und Core Dou
3.) Stimmt, aber in einigen Bereichen sind Macs Windows PC's vielfach überlegen (Netzwerkintegration, SIcherheit, Anwenderfreundlichkeit, Design...)
4.) Stimmt, aber früher wars schlimmer
5.) Also ich nutze meine Logitech MX610 und n Cordless Desktop LX300 ohne Einschränkungen an meinem Mac. Es gibt auch einen Rechtsklick ^^
6.) Na dann versuch mal Photoshop oder irgendein CAD Programm auf nem P1 laufen zu lassen...



leute, guckt auch über den Tellerrand.


-- Veröffentlicht durch DJ am 14:57 am 16. Nov. 2006

@kammerjaeger


Sorry, aber in einigen Bereichen (z.B. Grafiker oder Musik) ist der MAC nunmal sehr stark. Und wer ihn dort nutzt, hat definitiv eine durchschnittlich längere Nutzungsdauer, als der Standard-Windows-User bei seinem PC!


Jepp genau so ist es :) auch wenn ich mich mit sowas nie anfreunden konnte.  ;)


-- Veröffentlicht durch smoke81 am 14:23 am 16. Nov. 2006


Zitat von kammerjaeger um 13:30 am Nov. 16, 2006

Und genau das ist eben eine Frage der Entwicklungsarbeit. Wenn man eine passende Architektur findet, dann kann man damit einen Sprung in der Spielegrafik nach vorn machen, weil bei dieser integrierten Lösung der Flaschenhals über den Bus entfällt und die Datenwege verkürzt werden. So kann es besonders im Spielebereich eine mächtige Evolution geben.

Aber dies werden wir in 2007 und wohl selbst in 2008 noch nicht erleben...  ;)



Den Datenbus sehe ich gar nicht als Flaschenhals. Sicherlich stecken auch da einige % Leistung und Optimierungsmöglichkeiten drin, aber man sehe sich z.B. mal den "Unterschied" zwischen PCIe 8x und 16x an...
Diese Schnittstelle eilt den Anforderungen etwas voraus (Bei dem Thema wäre vielleicht mal USB3.x etc. fällig... oder mal abwarten, inwieweit sich eSATA durchsetzen kann...).

Als wirklich sehr großen Vorteil sehe ich die bedingungslose Ausnutzung der GPU-Leistung für andere Zwecke. Mittlerweile haben sich die GPUs zu fast universalen superparallelen Rechenmonstern entwickelt. Ob man diese dann für Multimedia, Physik oder wissenschaftliche Berechnungen einsetzt ist eigentlich egal und wird schon JETZT versucht umzusetzen.

Wenn es ZUKÜNFTIG entsprechende parallelisierbare Aufgaben gibt und diese über die Software gut kodiert werden, DANN könnten sich durchaus Anwendungen auftun, die erheblich von der kürzeren Anbindung profitieren werden/würden. Noch ist das Datenaufkommen zwischen CPU und GPU relativ gering und kann sehr gut mit den heutigen Standards bewältigt werden.

Ich argumentiere also absolut nicht mit einer verbesserten Spielegrafik, sondern anderen Anwendungen, die daraus erheblichen Nutzen ziehen könnten.

Vor ein paar Monaten habe ich mal einen sehr interessanten Artikel gelesen (weiß nur nicht mehr wo...), der sich mit der Frage beschäftigt, was wäre, wenn CPUs so leistungsfähig werden würden, dass sie ohne Probleme realitätsnahe Grafik in Echtzeit berechnen können...
Unter anderem bei Computerbase war vor ein paar Tagen auch ein Bericht über ein raytraced Quake 4, dass mit geringer Auflösung und mit einem neuen C2D Quadcore schon recht ordentliche Bildwiederholraten erzielt hat...

Meine Meinung und Gedanken dazu:
- "Reality-Grafik" wird man nie erreichen können, da dafür unendliche Ressourcen gebraucht werden. Beschränkt man die Grafik allerdings z.B. auf bestimmte Zoomstufen, dann könnte durchaus eine Grenze erreicht werden, bei der man von Reality-Grafik sprechen kann (der Mensch bzw. das menschliche Auge als limitierender Faktor). Damit bräuchte man auch "nur" eine endliche Rechenpower, die man eines Tages erreichen wird. Für andere "Anwendungen" wie KI etc. kann man jedoch nie genug Rechenleistung haben. Eine Grenze für die (benötigte) Rechenpower einer KI ist also nicht vorhanden und läßt sich immer ausnützen. Die Möglichkeiten, aber auch Gefahren einer KI, die keiner mehr versteht und jedem Menschen überlegen ist, kann sich jeder selber ausmalen... ;)

- Die Zukunft steckt mit Sicherheit in CPUs mit einer hohen Anzahl an parallelen und gleichzeitig hochspezialisierten Einheiten, denn die Rechenleistung einer "Universal-CPU" läßt sich nicht in dem Maße steigern wie mit diesen einfachen Spezialprozessoren und ist aber auch nicht notwendig... Diese zukünftigen Prozessoren werden dann CGPUs und noch viel mehr sein.

- Geht man von der Annahme aus, dass man etwa die 1000-fache Grafikleistung (1000x G80) von heute brauchen würde, damit man eine Spiele-Grafik erzeugen kann, die nicht mehr von einem Film zu unterscheiden ist und die Entwicklung in dem Tempo wie bisher verläuft, dann kann man bereits in 15-20 Jahren damit rechnen.

Dieses Szenario macht mir auf jeden Fall etwas Angst... Weltwirtschaftskrise usw.... Eine riesige Branche würde vor dem Aus stehen mit allen Konsequenzen... Übertakten bräuchte man schon lange nicht mehr (oh Gott)... und und und...

ABER den Teufel werden die führenden Technologieunternehmen tun. Fortschritt bekommen wir nur häppchenweise und solange es so bleibt, dauert es auch noch sehr sehr lange, bis wir (= Normalverbraucher) keine Anwendungen mehr finden und haben, die nicht noch etwas mehr Rechenpower benötigen könnten... :lol:

Jetzt bin ich etwas abgeschweift vom Thema... :lol:


-- Veröffentlicht durch kammerjaeger am 13:30 am 16. Nov. 2006


Zitat von DJ um 11:28 am Nov. 16, 2006

2) LOL LOL LOL LOL mac hat ne nutzungsdauer von 0.0 es gibt sehr wenige bereiche wo man ihn wirklich nutzen konnte dtp fuer grafiker usw, ansonsten haben selten leute einen gehabt ausser paar leute die halt anders sein mussten.

3) Hat sich nie durchgesetzt.



Sorry, aber in einigen Bereichen (z.B. Grafiker oder Musik) ist der MAC nunmal sehr stark. Und wer ihn dort nutzt, hat definitiv eine durchschnittlich längere Nutzungsdauer, als der Standard-Windows-User bei seinem PC!

Natürlich hat der MAC von den Verkaufszahlen nicht das Niveau des PC, aber darum geht es doch auch gar nicht. Ich will auch nicht sagen, daß der MAC das bessere Konzept hat o.ä., sondern es geht nur um die Änderung der Produktzyklen und die Auswahlmöglichkeiten im PC-Segment. Daß der PC gegenüber dem MAC natürlich die bessere Spieleplattform darstellt, steht dabei außer Frage!





Zitat von smoke81 um 12:08 am Nov. 16, 2006

Ich denke sowieso, dass (zumindest anfangs) die "CGPUs" nur recht schwache Grafikeinheiten verpasst bekommen (für Office, HTPC-Einsatz etc.), aber der Gamer-Markt noch sehr lange auf dedizierte Karten zurückgreifen wird.



Und genau das ist eben eine Frage der Entwicklungsarbeit. Wenn man eine passende Architektur findet, dann kann man damit einen Sprung in der Spielegrafik nach vorn machen, weil bei dieser integrierten Lösung der Flaschenhals über den Bus entfällt und die Datenwege verkürzt werden. So kann es besonders im Spielebereich eine mächtige Evolution geben.

Aber dies werden wir in 2007 und wohl selbst in 2008 noch nicht erleben...  ;)


-- Veröffentlicht durch smoke81 am 12:08 am 16. Nov. 2006


Denn welchen Sinn macht z.B. eine High-End-GPU mit einer Low-Budget-CPU?


Sinn hat sowas durchaus und zwar in leistungsstarken (CPU-Power) Firmenrechnern und Workstations.
Zwar treiben die Gamer den Fortschritt voran, aber man darf dieses zahlungskräftige Klientel mit riesigen Abnahme-Stückzahlen nicht ausschließen.
EDIT: Hab es genau anders herum gelesen :lol:
Aber auch dieser Markt könnte gebraucht werden. Viele Spiele werden ja für eine Konsolenumgebung entwickelt und daher ist nunmal die CPU-Power begrenzt. Die höhere Grafikpower könnte man jedoch relativ leicht ausnutzen und dann auf dem PC oder einer erweiterten Konsole bessere Grafik bieten. Eine höhere CPU-Leistung würde allerdings nicht viel bringen.

Die erhöhte Rechenpower bringt Möglichkeiten mit sich, von denen z.B. ein Ingenieur vor 10 oder 20 Jahren nur träumen konnte...

Die kurzen Produktzyklen haben natürlich auch Vorteile. So kann man sich das "alte" High-End-Modell zu einem günstigen Preis sichern und hat mehr als ausreichend Power, da die Software, der Hardware-Entwicklung in der Regel hinterher hinkt (mal abgesehen von schlecht programmierten Spielen und Anwendungen...).
Jedenfalls hat man so einen raschen Preisverfall, was ich eher als Vorteil sehe (wenn man nicht immer das teuerste und neueste haben muss) als z.B. längere Produktzyklen.

Apropos:
Den meisten im Forum würde doch sehr langweilig werden, wenn sie nicht mehrmals im Jahr den Rechner komplett umbauen würden und dies auch noch z.T. rechtfertigen können... :lol:

Ein überdenkenswerter Punkt wäre auch, wie es dann wohl mit den Aufrüstungen aussehen würde. Da immer mehr Funktionen in die CPU und immer weniger in den Chipsatz integriert werden, könnte so ein Mainboard eine längere Lebensdauer haben, zumindest solange die Speichersockel und die verbauten Spannungsregler kompatibel sind.

Ich denke sowieso, dass (zumindest anfangs) die "CGPUs" nur recht schwache Grafikeinheiten verpasst bekommen (für Office, HTPC-Einsatz etc.), aber der Gamer-Markt noch sehr lange auf dedizierte Karten zurückgreifen wird.

Aber bis es soweit ist, rauscht sicherlich noch einiges Wasser den Bach runter. Man glaubte zwar nicht daran, dass heutzutage ein Grafikchip mit rund 700 Mio. Transistoren in 90nm-Technik bei höheren Taktraten technisch möglich ist, aber dann wurden alle vom Gegenteil überzeugt...
Die Komplexität einer "CGPU" wird noch einiges mehr an Entwicklungsaufwand verlangen...

Ein wesentlichen Vorteil haben/hätten jedoch CGPUs: Zwar würden die Treiber meiner Meinung nach auch komplexer werden (im Vergleich zu separaten Treibern), jedoch kann man dann endlich ungebremst die gewaltige Rechenpower der GPUs in Multimedia-Anwendungen etc. ausnutzen und hätte so einen gewaltigen Zuwachs in der Performance bei parallelisierbaren Aufgaben :thumb:

(Geändert von smoke81 um 12:11 am Nov. 16, 2006)


-- Veröffentlicht durch DJ am 11:28 am 16. Nov. 2006


Jetzt, wo ich das alles schreibe, fällt mir auf, daß wir so etwas ähnliches schon haben: Den Mac!
Auch dort ist die Software besser programmiert, die Produktzyklen länger und somit auch die Nutzungsdauer des Durchschnittscomputers.




Naja meine sicht zu dieser aussage. :)

1) MAC's gibt's keine mehr sie nutzen intel prozessoren was ein riesenrueckschritt bis jetzt ist.

2) LOL LOL LOL LOL mac hat ne nutzungsdauer von 0.0 es gibt sehr wenige bereiche wo man ihn wirklich nutzen konnte dtp fuer grafiker usw, ansonsten haben selten leute einen gehabt ausser paar leute die halt anders sein mussten.

3) Hat sich nie durchgesetzt.

4) Sind zu teuer ob das noch immer so ist kein plan.

5) Die maus die immer an solchen machwerken angeschlossen ist eine frechheit zum arbeiten.

6) Das schlimmste man kann das teil nicht zum zocken benutzen es gibt fast keine spiele was soll ich mit nem computer mit dem ich nicht mal zocken kann , fuer nutzsoftware wuerde eigentlich die pc's vor 10 jahren in den meisten faellen auch reichen. Da wundern mich laengere produktionszyklen nicht.


Wie gesagt heutige monster maschienen kann man eigentlich nur mit Spielen rechtfertigen sogar intel macht werbung immer in die richtung, also mac ist und bleibt was fuer insel loesungen und spinner die halt anders sein wollen mehr nicht und es wird solange bleiben wie es keine spiele dafuer gibt.


Ich haette auch gerne gehabt das mac sich durchsetzt tja aber mac gibt's nimmer was nen intel prozzi hat ist fuer mich ein PC. ;)


-- Veröffentlicht durch kammerjaeger am 2:19 am 16. Nov. 2006

Es geht doch gar nicht primär um die Namensgebung (die ist nur das Tüpfelchen auf dem i), sondern um die Vielfalt der Kombinationsmöglichkeiten, bei denen der normale Kunde nicht durchblicken kann!

AMD hat alleine für Sockel AM2 >30 versch. CPUs im Programm (inkl. EE-Modelle und Opteron).
ATI hat selbst von der X1xxx-Reihe für PCIe schon 15 versch. GPUs, die es in mehreren Speicherausstattungen gibt. So hat man selbst ohne die alten Generationen (X8xx etc.) und von abweichenden Taktraten und OEM-Sondermodellen abgesehen schon ca. 25 Wahlmöglichkeiten. Von div. Herstellern und den entsprechend anders verbauten Kühlern (z.B. spezielle Passiv-Varianten etc.) will ich erst gar nicht reden...

So ergeben sich mal locker 700-800 mögliche Kombinationen nur alleine bei ATI/AMD auf Sockel AM2 mit PCIe.

Du wirst mir doch wohl Recht geben, daß ATI/AMD in Zukunft keine 750 unterschiedlichen "CGPU"s (Wortschöpfung von mir, Mischung aus CPU und GPU ;)) bauen wird. Denn welchen Sinn macht z.B. eine High-End-GPU mit einer Low-Budget-CPU?

Stattdessen wird man so kombinieren, wie es Sinn macht:
- eine stromsparende Variante ohne große Videoleistung für den typischen Office-PC
- eine Variante mit erweiterten Multimedia-Eigenschaften für den HTPC oder Video-Freak
- eine Version für den Gamer

Die wird es dann wohl in jeweils mehreren Leistungsstufen geben, aber insgesamt nicht mehr als es jetzt CPUs gibt!
Das senkt auch die Produktionskosten.

Weiterer Vorteil solch integrierter Lösungen ist der Notebook-Bereich, da man Entwicklungskosten einspart, weil man so nur ein Teil baut und dies besser an den Chipsatz anpassen kann.



Das einzige Problem, was dabei auf AMD/ATI zukommen könnte, ist folgendes:
Durch die Komplexität der CGPU könnte es zu längeren Produktzyklen kommen. Dies schafft u.U. Raum für die Konkurrenz....

Wenn aber das Konzept aufgeht, hat es für den User nur Vorteile:
- der PC kann zielgerichteter, schneller und trotzdem billiger werden
- die Software-Programmierer haben simplere Plattformen, an denen sie sich orientieren müssen (z.B. Spiele oder Video-Codecs könnten schneller/effektiver programmiert werden)
- durch die längeren Produktzyklen schießen sich die Spiele-Entwickler darauf ein und man wird nicht jedes halbe Jahr in Versuchung kommen, neue Hardware kaufen zu müssen
- durch die Vereinheitlichung können Treiber besser optimiert werden, der PC dadurch schneller und stabiler werden.
- neue CGPU-Generationen werden mehr sein als nur ein Facelift, sondern immer eine neue Evolutionsstufe

Jetzt, wo ich das alles schreibe, fällt mir auf, daß wir so etwas ähnliches schon haben: Den Mac!
Auch dort ist die Software besser programmiert, die Produktzyklen länger und somit auch die Nutzungsdauer des Durchschnittscomputers. ;)


Ich hoffe, daß die Sache nun etwas verständlicher ist... ;)

(Geändert von kammerjaeger um 2:22 am Nov. 16, 2006)


-- Veröffentlicht durch Venom am 0:04 am 16. Nov. 2006

Allet schön und gut, aber ich versteh trotzdem nicht warum Du glaubst daß die Bezeichnungen einfacher werden nur weil Grafik und CPU in einem Chip stecken.. für die Bezeichnung ist Management und Marketing zuständig, und die haben mal absolut kein Interesse dadran das durchschaubar zu machen ;)


-- Veröffentlicht durch kammerjaeger am 17:34 am 12. Nov. 2006


Zitat von smoke81 um 16:01 am Nov. 12, 2006

Und sei mal ehrlich:
Die momentane Komplexität des Hardware-Marktes erfordert zwar viel Zeit, sich als Freak oder Profi einigermaßen auf dem aktuellen Stand zu halten, jedoch kann dies z.B. einem Einzelhändler mit exzellenten Beratungsqualitäten doch nur Recht sein oder? :)



Jein. Denn es ist schon schwer genug, einem Noob zu erklären, warum ein A64 oder C2D trotz niedrigerem Takt schneller sein kann als ein Pentium oder warum ein 3500+ nur 2,2GHz und nicht 3,5GHz hat. Wenn dann auch noch kryptische Bezeichnungen den Grafikkartenmarkt verwirren und z.B. die "gleiche" Karte mal mit 64bit und mal mit 128bit Speicherinterface verkauft wird und der Käufer nicht versteht, warum eine Karte mit 256MB nicht zwingend langsamer sein muß als eine Karte mit 512MB, dann hätte ich oft in der Beratungszeit schon wieder anderweitig Geld verdienen können...

Insofern bietet eine Vereinfachung immer noch genügend Raum für kompetente und individuelle Beratung. So kann man sich dann verstärkt um andere "Probleme" kümmern wie z.B. das optimale Gehäuse oder die ideale Abstimmung leiser Komponenten etc.   ;)


Zur perfekten Lösung:
Natürlich ist man immer auf der Suche nach der eierlegenden Wollmilchsau. Aber da nunmal jeder User andere Anforderungen hat, ist dieses Ziel kaum erreichbar.
Jedenfalls sind schon einige Hersteller dazu übergegangen, dem Board auch DVI und HDMI-Funktionalität zu spendieren: klick
Man erkennt also die zunehmende Bedeutung von HTPCs und wird dieses Feld in Zukunft weiter ausbauen, da bin ich mir sicher! :thumb:


-- Veröffentlicht durch smoke81 am 16:01 am 12. Nov. 2006


Zitat von kammerjaeger um 9:07 am Nov. 9, 2006

Jedenfalls wird eine integrierte Lösung den Markt vereinfachen, weil es dann nicht mehr je 50 verschiedene CPUs und GPUs geben wird, was hoffentlich auch die Produktionskosten senkt und vor für Noobs undurchschaubaren Produktbezeichnungen schützt.

Abgesehen davon wird es perfekte Lösungen für die (immer stärker kommenden) HTPCs geben. Hier ist die Erfahrung, die ATI mit Chips für Set-Top-Boxen etc. gesammelt hat (wo sie mit 80% Marktanteil den Markt beherrschen), von unschätzbarem Wert.  :thumb:



Hoffentlich gibt es perfekte Lösungen :lol:

Im Ernst: Momentan sehe ich nicht, wo noch eine Lücke sein soll. (Aber vielleicht fehlt mir auch der Blick dazu). Perfekte Lösungen kann es kaum geben, da jeder andere Ansprüche und Wünsche hat und immer wieder muss man dann z.B. feststellen, dass dem (fast) perfekten, günstigem µATX-Board für den HTPC-Einsatz mit reichlich OC-Funktionen, entsprechende Schnittstellen fehlen, z.B. ein DVI oder TV-Ausgang der Onboard-Grafik oder digitale Soundausgänge... Aber das liegt z.T. auch an der Unverreinbarkeit von Low-Cost, OC-Funktionalität und reichhaltiger Ausstattung... :lol:

Mit entsprechendem finanziellem Aufwand kann man aber auch dieses Problem sauber lösen und alle Geschmäcker zufrieden stellen.

Und sei mal ehrlich:
Die momentane Komplexität des Hardware-Marktes erfordert zwar viel Zeit, sich als Freak oder Profi einigermaßen auf dem aktuellen Stand zu halten, jedoch kann dies z.B. einem Einzelhändler mit exzellenten Beratungsqualitäten doch nur Recht sein oder? :)

(Geändert von smoke81 um 16:02 am Nov. 12, 2006)


-- Veröffentlicht durch kammerjaeger am 9:07 am 9. Nov. 2006

Abwarten....
Ich kann mir schon eine integrierte Lösung vorstellen, wenn sie richtig umgesetzt wird. Könnte dann ähnlich aussehen wie die frei programmierbaren Shader aktueller Grafikkarten. Liegt dann also nur an den Programmierern, die vorhandenen Möglichkeiten effektiv zu nutzen, je nachdem ob man mehr Fließkommaleistung braucht oder nicht.

Jedenfalls wird eine integrierte Lösung den Markt vereinfachen, weil es dann nicht mehr je 50 verschiedene CPUs und GPUs geben wird, was hoffentlich auch die Produktionskosten senkt und vor für Noobs undurchschaubaren Produktbezeichnungen schützt.
Abgesehen davon wird es perfekte Lösungen für die (immer stärker kommenden) HTPCs geben. Hier ist die Erfahrung, die ATI mit Chips für Set-Top-Boxen etc. gesammelt hat (wo sie mit 80% Marktanteil den Markt beherrschen), von unschätzbarem Wert.  :thumb:


-- Veröffentlicht durch dergeert am 8:16 am 9. Nov. 2006


Zitat von DarkFacility um 14:50 am Nov. 8, 2006

aber dann wird es ja teurer, wenn man mal was aufrüsten will, nicht mehr cpu oder graka tauschen, sondern gleich beides :blubb:




Ich denke mal, es geht eher darum, ein Konkurrenzprodukt zur Cell-Architektur zu schaffen (Multicore-CPU > 4 Kerne mit leistungsstarken Integer-Kernen + leistungsfähigen Fließkomma-Kernen aka "Grafikchips").

Die tatsächliche Grafikausgabe wird weiterhin oft über (aktuelle) Grafikkarten stattfinden, obwohl die CPU bei entsprechendem Design vielleicht auch gleich als Onboard-Lösung genutzt werden könnte.


-- Veröffentlicht durch tOWNshIP am 20:26 am 8. Nov. 2006


Zitat von cheech2711 um 9:45 am Nov. 8, 2006
da steht das aktuelle GPU´s schneller sind als die aktuellen CPUs



.. das steht einfach falsch in dem Artikel, GPUs haben nur in Fliesskommaberechnungen die Nase vorn .. wäre das für einen Desktop PC ausreichend, dann hätten wir schon lange nen Cell-Chip o.ä. in unseren Kisten (8VektorKerne plus ManagementKern (PPC6)) ..

(Geändert von tOWNshIP um 20:27 am Nov. 8, 2006)


-- Veröffentlicht durch Henro am 15:10 am 8. Nov. 2006


Zitat von DarkFacility um 14:50 am Nov. 8, 2006
ah, jetzt versteh ich auch, warum amd ati und intel nvidia gekauft hat :ohno:

aber dann wird es ja teurer, wenn man mal was aufrüsten will, nicht mehr cpu oder graka tauschen, sondern gleich beides :blubb:

gibt es nicht auch ne ati graka die man mit zur berechnung von irgendwas einsetzen konnte? :noidea:




Intel hat Nvidia NICHT gekauft.

in naher und mittlerer zukunft wird die graka in der cpu warscheinlich nur die onboard lösungen ersetzen.

Ati und Nvidia haben Lösungen zur berechnung von Physik per Graka bzw. den Shader-Einheiten derer Vorgestellt.


-- Veröffentlicht durch DarkFacility am 14:50 am 8. Nov. 2006

ah, jetzt versteh ich auch, warum amd ati und intel nvidia gekauft hat :ohno:

aber dann wird es ja teurer, wenn man mal was aufrüsten will, nicht mehr cpu oder graka tauschen, sondern gleich beides :blubb:

gibt es nicht auch ne ati graka die man mit zur berechnung von irgendwas einsetzen konnte? :noidea:


-- Veröffentlicht durch Steffen545 am 13:59 am 8. Nov. 2006

na dann bin ich mal gespannt...
wir wohl noch einige zeit dauern...
Was denk ihr? 5jahre mindestens ode?:noidea:
Ich finde es interressant wie es sich alles entwickelt. Mal sehn vor was wir in10jahren sitzen:shocked:


-- Veröffentlicht durch kammerjaeger am 9:53 am 8. Nov. 2006

Was den Takt angeht, hast Du Recht. Aber GPUs sind viel komplexer aufgebaut...

Vorteil einer solchen Architektur ist natürlich auch, daß Bandbreitenlimitierungen minimiert werden, weil der Datenaustausch auf einem Chip stattfindet (nicht über Board/Chipsatz/Steckplatz). Erst die Datenausgabe an den Monitor ist der Engpass, aber dort spielt es dann keine Rolle mehr, weil die Datenmenge vergleichsweise gering ist.

Insofern ist es genau der Weg in die richtige Richtung und erklärt den wohl wichtigsten und bisher nicht erkannten Hintergrund der Firmenübernahme!


-- Veröffentlicht durch cheech2711 am 9:45 am 8. Nov. 2006

guckt Ihr auf diesen Artikel

was ich allerdings nicht verstehe, da steht das aktuelle GPU´s schneller sind als die aktuellen CPU´s:noidea: ist das nicht anders herum??


OCinside.de PC Forum
© 2001 - 2024 www.ocinside.de