Zitat von Yodenko;37651:
Kenn ich, aber ich dachte dass das nur mit Unix/linux oder irgendwas in der Art betrieben werden kann. Und das kann nunmal nicht jeder.
@oNdsen: Klar hat die Grafikkarte etwas mit dem Streamen bzw. anzeigen von HD Filmen zu tun. Ausserdem gibt es bei den AMD Treibern Tools, welche die Grafikkarte aktiv encoden/decoden lassen. Meine läuft im Leerlauf auf 250Mhz. Wenn ich nen HD Film anschaue taktet sie mit 500Mhz, also hilft sie doch den Film anzuzeigen?!
Ja das stimmt, die GPU benötigt selbstverständlich Leistung um das Bild anzuzeigen - denn diese lässt ja schliesslich die gerenderten Daten via Kabel zum Monitor fliessen.
-> so ca. 10MB GPU Speicher werden Dir für die Auflösung von 1920x1080 reichen (wenn nicht sogar ~2200x1400). :sm-alter-man:
Spreche hier aber selbstverständlich nur vom kompletten Füllen aller Pixel - die Berechnungen sind da noch nicht vollbracht (Rendering).
Doch wer rendert denn nun im Normalfall? :dazed004:
Oha, doch nicht die GPU!
Ausser du lässt wie bei deinem Beispiel die GPU rendern. Bei nVidia zB die Tesla Funktion/Schnittstelle.
Jetzt muss aber deine MPEG Encoder Software noch wissen, dass Sie das Ganze mit der GPU rendern lassen soll.
Nun, was denkst Du wieviele MPEG Encoder gibts welche dies unterstützen?
Bedenke noch: In der Regel sind solche "Stromsparmodis" so ausgelegt das bei 0 Bedarf das Gerät aufs minimum getaktet wird, bei normalem Bedarf auf Stufe 1, mittlerem Stufe 2 usw.
Das heisst, wenn Du Dich im "Leerlauf" befindest taktet die GPU auf deine zB 250MHz. Bei minimalem Bedarf wird Sie allerdings bereits höher gehen, da ja etwas Bedarf da ist. Wieviel die GPU nun effektiv benötigt steht natürlich im Raum.
Nur als kleines Beispiel: Wenn Du nen P4 mit 2GHz im Rechner hast und dazu ne GTX690 reinschiebst, glaube mir, ne BluRay wird ruckeln