Ein Ausdruck des Beitrags mit 14 Antworten ergibt bei 3 Antworten pro Seite ca. 5 DIN A4 Seiten. Das entspricht bei 80 g/m² ca. 24.95 Gramm Papier.
-- Veröffentlicht durch BDKMPSS am 13:46 am 3. Sep. 2008
Ich sagte dazu immer "meistens"/oft und bei sehr vielen TVs kann man das auch nicht abschalten und dann hat man genau die Probleme, die ich Beschrieben habe. Wenn man die "Optimierungen" ausmachen kann, dann ist das schon möglich, einen TV als Monitor halbwegs gebauchsfähig zu machen (und man weit genug weg sitzt), aber sonst eben nicht. Nur weil es einige TVs gibt, bei denen das nicht der Fall ist, heißt das nicht, das ich unrecht habe. Und was was ihr über das Stromsparen verzapft habt, war einfach so ..., das ich was schreiben musste, das andere kam dann einfach irgendwie dazu. :thumb: Und Konsolen sind auch auf ein wenig Verzögerung hin ausgelegt, da man z.B mit dem Lag rechnet. Selbst extreme 10 Frames sind aber nun auch nicht so viel Zeit und wenn die Steuerung des Spieles zb eher Indirekt arbeitet (und das ist bei Konsolen eigentlich immer der Fall) geht das auch. Aber einigen fällt das schon bei Overdrive Schaltungen auf, die bei PC Monitoren so 1-2 frame "laggen" und TVs sind nun mal sehr oft langsamer und daher ist die Wahrscheinlichkeit eben höher das zu merken. (Geändert von BDKMPSS um 13:51 am Sep. 3, 2008)
-- Veröffentlicht durch naKruul am 1:40 am 3. Sep. 2008
was du nicht sagst! das ein SD-Bild auf einem HD/Full-HD-gerät sch****e aussieht sollte mittlerweile so ziemlich JEDEM aufgefallen sein. von irgendeiner seit muss die neue technik aber gepusht werden und in dem falle sind es halt die geräte-hersteller. da hd-dvd ja nun aus dem rennen ist und nach der ifa auch so ziemlich jeder hersteller was im sektor bluray auf lager hat kann es also nicht mehr allzulange dauer bis die preise massiv fallen zumindest was player usw angeht. die preise für TV's haben sich denke ich mal eingependelt. gute 32" hd ready's bekommt man ja schon für 500€, fürn 37-40" dann 800-1000. und dann kaufen die leute und vielleicht gibts ja dann im kabelnetz auch mal ein paar mehr HD-sender. Pro7-sat1 hat den sendebetrieb ja damals nur eingestellt weil angeblich zu wenig leute "passende endgeräte" haben. btt: er meinte aber, das ein TV immer hochskaliert, egal welches format er als eingangssignal bekommt. das ist aber, zumindest auf meinen sony bezogen quatsch. bei pixelgenauer darstellung und 720p bekomm ich den 1366x720 auschnitt mit schwarzem rahmen drum herum. wenn ich möchte, dann kann ich ihn das hochskalieren lassen.
-- Veröffentlicht durch kammerjaeger am 1:02 am 3. Sep. 2008
Zitat von naKruul um 0:19 am Sep. 3, 2008 jau, muss eindeutig bdkmpss aussage wiederlegen. bei 1080p ansteuerung macht mein sony 40v3000 pixelgenaue darstellung unabhängig davon ob nur 24P/50p/60p...
| Bei digitalen Quellen mag das ja auch ganz gut aussehen, aber was er wohl meint, ist die Tatsache, dass die meisten Quellen nunmal nicht digital in 1080p sind! Welcher TV-Sender sendet schon in 1080p? Welche Video-Quelle bietet solches Material? Von ein paar noch eher experimentellen Programmen wie Premiere HD und HD/BlueRay-Playern mal abgesehen, sieht es da trübe aus. Und selbst einige HD/BlueRay-Filme etc. sind oft nur künstlich aufgearbeitete Quellen, die nicht von der ersten Kamera an auf FullHD ausgelegt waren...
-- Veröffentlicht durch naKruul am 0:19 am 3. Sep. 2008
jau, muss eindeutig bdkmpss aussage wiederlegen. bei 1080p ansteuerung macht mein sony 40v3000 pixelgenaue darstellung unabhängig davon ob nur 24P/50p/60p... kann das nicht ganz nachvollziehen. zocken funktioniert nebenbei auch ziemlich gut. sowohl mit PS3 als auch mit Xbox 360. wieso auch nicht, dafür sind die geräte gemacht. warum soll da was schlieren oder laggen. die bildverbesserer lassen sich im übrigen auch ausschalten, was ich beim PC-eingang gemacht habe.
-- Veröffentlicht durch spraadhans am 23:34 am 2. Sep. 2008
sorry BDKMPSS, aber die hälfte von dem was du schreibst lässt sich m.E. mit dem Toshiba und anderen modernen FullHD TVs widerlegen.
-- Veröffentlicht durch NoBody am 23:12 am 2. Sep. 2008
Also mein Kolelge der nen 37" als Monitor nutzt merkt keinen Unterschied. vielleicht stimmt ja alles so wie BDKMPSS geschrieben aber ich denke es ist auch so minimal das man es mit dem menschlichen auge nicht merkt... Ich habe auch schon einige drauf gespielt und muss sagen das es richtig geil ist... jedoch was zu sagen ist, ist dass man eine richtig gute GraKa braucht um zu zocken... Nicht jedes Spiel kann die Full HD Auflösung darstellen. Spiele wie StarCraft oder sowas geht einfach nicht. Ich weis nicht mehr welches Game es war, auf jeden fall ging es nur auf 1024*768. Das konnte man einfach nicht genießen. Aber COD4 z.B ist einfach nur geil dadrauf... wir zocken aber auch emu games wie Mortal Combat 4 drauf. vergrößerte klötzchen grafik. Wenn wir das game zocken sitzen wir in etwa 1,5m davon entfernt. Selbst nach ner stunde haben wir kein augenkrebs;) also ich kann einen LCD TV als Monitor befürworten...
-- Veröffentlicht durch BDKMPSS am 22:38 am 2. Sep. 2008
:lol: Ich möchte mal ein wenig gegen reichlich gefährliches Halbwissen ankämpfen.... 1. Ein LCD verbraucht immer ähnlich viel, egal wie viel "Bildfläche" genutzt wird. Es ist technisch total schw***sinnig zu behaupten, das das auch nur ein einziges Watt spart, einen Teil des Bildschirmes schwarz/dunkel zu schalten. (Wenn der Monitor keine LED-Hintergrundbeleuchtung hat, aber das kommt gerade erst raus.) Was in einem LCD Stom verbraucht, ist hauptsächlich die Hintergrundbeleuchtung und die Spannungserzeugung für diese. Und diese ist immer an! Davor ist dann die LCD-"Schicht", die das Hintergrundlicht für jeden Pixel einzeln entweder durch lässt (weiß/farben) oder eben nicht ("schwarz"). Man spart überhaupt nichts, da sich die Hintergrundbeleuchtung eben nicht partiell abschalten lässt. Sparen kann man nur, wenn man die Helligkeit runter stellt. Mehr ist nicht zu machen. Zwar kostet auch das "schalten" der Pixel Strom, aber der ist extrem gering macht nicht mehr als vielleicht 2-3% des Gesamtverbrauches aus. Auch ist es je nach Paneltyp unterschiedlich, ob es Strom kostet den Pixel zu sperren oder ihn offen zu halten. Nur eines verbraucht Strom, daher kann der Verbrauch sogar (sehr geringfügig) höher werden, wenn man große Teile "schwärzt". 2. Warum sich ein TV normaler weise nicht eignet: a) Overscaling. Jeder der eine TV Karte hat, kennt das. Das TV Bild ist eigentlich größer, als es auf TVs dargestellt wird. Es wird per Overscaling über die Auflösung des Gerätes "aufgeblasen" und die Ränder dann wieder abgeschnitten. Das kann man bei vielen TVs nicht abschalten, obwohl es eigentlich nur sinnvoll für analoge TVs ist/war und digitale das nicht benötigen. Dadurch und andere Schaltungen im TV ist es meistens nicht möglich eine pixelgenaue Darstellung anzuzeigen. Es findet eigentlich immer ein wie auch immer geartetes Scaling statt, dadurch wird das Bild verwaschen. b) Die Auflösung pro cm² ist einfach zu gering. Ein Monitor bringt eine viel größere pixeldichte und ein TV ist meistens nicht so darauf optimiert und dann muss man schon weit weg sitzen damit das nicht stört, was aber dazu führt, das man die Schrift wieder größer machen muss... c) Viele TVs unterstützen die PC Auflösungen nicht. Besonders die Frequenz wird meist nicht vom TV vertragen.... 100Hz Technik heißt nur, das der TV mit 100Hz das Bild aktualisiert, meistens unterstützen sie aber nur 50Hz Quellen (und PCs kennen meist nur 60Hz) und berechnen halbwegs passende Zwischenbilder, was bei einem PC natürlich für die Qualität total tödlich ist und das Bild weiter verwässert. c_2) Auch wird immer _jede_ Quell-Auflösung auf den kompletten Schirm gebracht. Aller höchstens wird noch ein wenig Schwarz gelassen, wenn man die Seitenverhältnisse beibehalten möchte. Aber einen Rand vom TV (und nicht aus der Quelle) der um das gesamte Bild geht ist einfach nicht möglich bzw wird nicht angeboten. d) _Lag_ TVs laggen einfach viel mehr, da die Zeit zwischen Ausgabe der Quelle und der Anzeige auf dem Schirm länger dauert, als bei einem Monitor. Damit ist nicht die Schaltzeit gemeint. Wenn du die Maus bewegst, wird sie also vielleicht flüssig und ohne Schlieren dargestellt, aber zwischen deiner Bewegung der Maus und der Reaktion auf dem TV vergehen schon mal gut 2-10 Frames. Das kommt durch das schon benannte Overscan, die Zwischenbildberechnung, die Berechnungen für den "Dynamischen Kontrast" usw usf. Das fällt bei Videos einfach nicht so auf, da man das Quellmaterial nicht direkt und in Echtzeit beeinflussen kann. Alles in allem keine gute Idee. Das Panel ist das gleiche aber die Elektronik ist für einen PC nicht zu gebrauchen. (Geändert von BDKMPSS um 22:53 am Sep. 2, 2008)
-- Veröffentlicht durch spraadhans am 10:00 am 2. Sep. 2008
hol jetzt wohl den toshiba aus der saturn-werbung für 0,0% finanzierung
-- Veröffentlicht durch Hitman am 19:48 am 1. Sep. 2008
PS: Auch wenns nicht zum Thema gehört: Stromsparen bedeutet nicht auf alles verzichten, sondern den Hauptgrund auf die Pelle zu rücken. Ich bin auch ein Stromsparfan, aber wenn ich meine Anlage aufdrehe, dann dreh ich se auf. Wenn ich den Toaster anmache, mach ich ihn an. Wenn ich den Wasserkocher brauche benutz ich den. Und wenn ich mit meinem Durchlauferhitzer duschen will, dann dusche ich. Es macht nur keinen Sinn, sich High-End Grafikkarten zu kaufen und die dann im 2D Betrieb runterregeln und hoffen, dass sich da 10-20W raus ergeben. Was für ein Unsinn.
-- Veröffentlicht durch NoBody am 19:42 am 1. Sep. 2008
Der Tohsiba TV ist auf jeden Fall super... Habe den mit Pixel+ und in 40" für 999.- gesehen... Hammer Dinger.... Also meine Favorieten sind sowieso Samsung und Toshiba^^
-- Veröffentlicht durch spraadhans am 9:26 am 15. Aug. 2008
Wie Du siehst, mache ich mir ja auch gerade bei so einem Gerät Gedanken über den Stromverbrauch. Die Alternative wäre für mich eben gerade ein 28" von Viewsonic gewesen, VX2835wm, der gerade mal 65w im Betrieb verbraucht. Allerdings muss man beim Toshiba eben das S-IPS Panel bedenken, dass Bildqualitätsmäßig einfach um Längen besser als die billigen und sparameren TN-Panels ist. Dazu kommt die Blickwinkelinstabilität, die bei einem 28", der als Monitor genutzt wird, schon eine große Rolle spielt. Vom TV schauen will ich gar nicht erst anfangen. Letztlich soll ein großer Anwendungsbereich aber TV sein und dafür ist 16:10 m.E. nicht zukunftssicher, selbst bei PC Monitoren wird der Trend wohl dahin gehen. Noch dazu ist das Gerät gemessen an der Größe und am verbauten Panel verhältnismäßig günstig und der angegebene Stromverbrauch eher das Maximum, das im Betrieb a) sicher nicht erreicht wird und b) durch Einstellungen sicher nochmal verringert werden kann. Allerdings bin ich ehrlich gesagt überrascht, wie günstig die 24 Zöller geworden sind, hatte mich bisher nur am sehr gut getesteten w2408 von HP orientiert, der i.Ü. auch mit >100w Normverbrauch angegeben ist, in Tests aber erheblich weniger verbraucht hat. Zu Deinem persönlichen Kommentar: Stromsparen ist überall dort gut, wo unnötig Energie verschwendet wird, dies geschieht in meinem Haushalt eigentlich kaum, da alles optimiert ist. Allerdings schau ich eben gerne Filme und spiele gerne großformatig Games und da der Toshiba eine Anschaffung für die nächsten Jahre werden würde, soll es halt für den gebotenen Einsatz das bestmöglichste Gerät mit dem dafür gerade noch erträgliche Nachteilen sein, daher ja auch meine Frage weiter oben.
-- Veröffentlicht durch kammerjaeger am 8:43 am 15. Aug. 2008
:lol: Ich amüsiere mich gerade köstlich! Gerade der größte Verfechter "stromsparender" Hardware und den "Vorteilen" von HybridPower tut genau das, was ich an anderer Stelle angesprochen habe, als es um Verbrauchsdifferenzen zwischen Grafikkarten und Stromsparmechanismen ging:
Zitat von kammerjaeger um 0:01 am Aug. 8, 2008 Auch wenn man natürlich die Energie nicht zum Fenster rauswerfen sollte, so muss man sich doch fragen, über was wir hier reden! Es geht hier um Verbrauchsdifferenzen von 5-20W, also durchschnittlich 12,5W, was bei einer täglichen Nutzungsdauer von 5 Stunden einem Jahresverbrauch von knapp 23kWh entspricht. Bei dem Durchschnittsverbrauch eines 3-Personen-Haushaltes von 4000kWh wären das also nichtmal 0,6%. Auf der anderen Seite werden dann 42"-LCDs gekauft, Trockner laufen den halben Tag und die Wärmeplatte der Kaffemaschine heizt stundenlang unnötig. Insofern klingt die Aussage von aemkei90 zwar provokativ, aber so realitätsfremd ist sie nicht. Sparen kann man an ganz anderer Stelle viel mehr. ;)
| Und jetzt willst Du Dir ernsthaft für den PC einen 37"LCD holen (ich nehme mal an, daß Du den 37XV501P meinst), der schlappe 183W zieht, während im Vergleich dazu selbst ein 24"-TFT nur 55W zieht (z.B. Samsung T240 oder BenQ G2400)? Selbst wenn Du den dann nur mit 1440x900 betreibst und die restlichen Pixel ausgeblendet werden sollten, liegst Du noch knapp über 100W! Und ich kann mir auch nicht vorstellen, dass Du ernsthaft eine kleinere Fläche nutzen willst, wenn Du eine große zur Verfügung hast. Selbst wenn es technisch möglich ist, so sieht es nicht nur schei... aus, sondern wird auch aus psychologischer Sicht kaum zutreffen... ;) Wie wäre es mit dem Mittelweg, einem 28"? Ein HannsG HG281DJ zieht "nur" 100W, hat Componenten-Eingang und 1920x1200 als Auflösung und kostet nur 400,-. Der zieht also selbst bei voller Auflösung nur so viel wie der 37" bei reduzierter Auflösung, sieht dann aber besser aus. (Geändert von kammerjaeger um 8:46 am Aug. 15, 2008)
-- Veröffentlicht durch Zenmouron am 14:22 am 14. Aug. 2008
Beherrschen die Fernseher mittlerweile eigentlich auch geringere Auflösungen nativ unter Ausblendung der übrigen Pixel, so dass nur ein Teil der Bildfläche genutzt wird?
| Also bei ATI Karten kann ich das direkt im Treibermenü einstellen. Ok mein TFT unterstützt sowas auch von haus aus aber ob das auch bei LCD TVs klappt weiss ich leider nicht und kann das im moment auch nicht testen. Könnte ich frühestens nächste Woche mal auf ein Plasma testen ob das Funktioniert.
-- Veröffentlicht durch spraadhans am 8:21 am 14. Aug. 2008
Überlege mir ggf. ein 37" FullHD LCD-TV als Monitor zu besorgen. Wäre ein Toshiba mit 24p und 100HZ, 3x HDMI für knapp 700,-, der immerhin ein S-IPS Panel verbaut hat und somit im Vergleich zu vergleichbaren Monitoren erheblich günstiger ist. Der PC wird zu einem relativ großen Anteil zum TV / DVD schauen genutzt, so dass für mich aus Zukunftsgründen kein 1900x1200 Monitor in Frage kommt, außerdem belastet diese native Maximalauflösung die Graka ein kleines Stück weniger;) Beherrschen die Fernseher mittlerweile eigentlich auch geringere Auflösungen nativ unter Ausblendung der übrigen Pixel, so dass nur ein Teil der Bildfläche genutzt wird? Wenn ja, dürfte sich doch damit der Stromverbrauch nicht nur unerheblich verringern, was wiederum der Nutzung als PC-Monitor zu Gute käme? Die meisten Spiele dürften ja mittlerweile auch 16:9 Auflösungen unterstützen? (Geändert von spraadhans um 8:23 am Aug. 14, 2008) (Geändert von spraadhans um 8:44 am Aug. 14, 2008)
|