Töppi hat geschrieben:Ich bleibe dabei und ich habe glaube ich deutlich gemacht, worum es geht.
Die 50 Halbbilder unseres Fernsehsystems sind interessant und als Basis zu nehmen, denn die gibt es physikalisch.
Und dabei hat jedes Halbbild bei 1080i50 eben eine vertikale Pixelzahl von 1080/2, wobei jedes Halbbild bei 720p50 immer mit der kompletten Pixelzahl existiert. Daher der geringere native Unterschied von 11%
Die Endgeräte interpolieren nun mit den bekannten Folgen die fehlenden Zeilen oder nehmen die vom folgenden Halbbild, was die bekannten Folgen hat.
Leider muss ich Dir hier auch wiedersprechen. Maliboy und Otherland haben recht, es kommt auf das Quellmaterial an. Und die Deinterlacer sind heutzutage weitaus komplexer, als Du es hier darstellst. Mit ihren adaptiven Deinterlacemethoden können halbwegs hochwertige TVs durchaus erkennen, ob sie es mit Videomaterial (also mit Halbbildern von verschiedenen Zeitpunkten), Filmaterial (mit Halbbildern vom gleichen Zeitpunkt) oder gar einem 3:2 Pulldown (Halbbilder, die von NTSC her konvertiert wurden) zu tun haben und passen ihre Umrechnung entsprechend an.
Nehmen wir mal zwei Beispiele:
Beispiel 1. Das Senden eines Spielfilms.
Der Film ist mit 24 Bildern pro Sekunde gedreht worden. Im Fernsehen wird der Film auf 25 Bilder pro Sekunde beschleunigt (sog. PAL Speedup). Abgetastet wird das Bild für die Master dabei optimalerweise mit 1920x1080 Pixeln. Das heißt der Sender hat im Prinzip eine 1080p25-Quelle. Die kann er so aber nicht senden und splittet die Bilder in Halbbilder auf. Dabei werden aber nicht jeweils die gleichen 540 Zeilen für zwei Halbbilder gesendet, sondern das eine Halbbild sendet die geraden und das andere die ungeraden Zeilen. Nach zwei Halbbildern, also 1/25s hat der Fernseher wieder die Information des vollen 1920x1080-Bildes. Und ein guter Deinterlacer erkennt das und setzt dies wirklich zu einem Full-HD-Bild zusammen. Das heißt der Fernseher erkennt wieder das 1080p25-Signal und geht von diesem als Basis aus. Seine Bildverarbeitung läuft also tatsächlich ähnlich wie bei einem 1080p24-Bild ab, das er von einem BluRay-Player bekommt. Der Zuschauer sieht also wirklich ein 1080p25-Bild, volle Auflösung, 25 Bilder pro Sekunde. [Das wird dann evtl. durch einen 2:2-Pulldown auf 50Hz, oder einen 4:4-Pulldown auf 100Hz angehoben (auf Plasma-Technik oder bei Blinking/Scanning Backlight auf LCDs) oder durch entsprechende hinzugerechnete Zwischenbilder auf 100 oder gar 200 Bilder/s hochgerechnet, aber das tut hier eigentlich nichts zur Sache].
Resultat: der Zuschauer sieht ein volles 1080-Zeilenbild.
Was muss nun ARD/ZDF mit dem 1080p25-Bild der Quelle machen, um es zu senden? Nun, das Bild muss auf 1280x720 runtergerechnet werden. Das wird dann in 1/50s gesendet. Tja, aber da ja bei 720p 50 Bilder pro Sekunde gesendet werden müssen, muss irgendwo noch ein zweites Bild her. Denn erst nach 1/25s kommt im Film ein neues Bild. Das heißt dieses verkleinerte Bild wird *nochmal* gesendet (also völlig redundant). Es wird also regelrecht ein 2:2-Pulldown gesendet, der Empfänger bekommt also ebenfalls nur 25 verschiedene Bilder pro Sekunde. Aber eben nur mit Auflösung 1280x720 anstatt mit 1920x1080 wie bei 1080i Übertragung. Mit dem Nachteil, dass heutige FullHD-Fernseher dieses Format dann nochmal auf ihr Panel hochskalieren müssen.
Fazit: Bei Filmübertragung ist 720p definitiv schlechter, und dabei wird noch nicht mal nennenswert Datenrate eingespart, weil die Bilder bei 720p unnötigerweise doppelt gesendet werden müssen.
Beispiel 2: Sportübertragung
Hier kann man von einer Videoübertragung ausgehen, d.h. es können theoretisch 50 verschiedene Bilder zur Verfügung stehen. *Wenn* denn in p50 produziert wird. Wie aber hier schon mehrfach angesprochen wurde, sind viele internationale Sportevents aber auf 1080i fixiert, d.h. ARD und ZDF stehen dann eben wieder nur 2x 1920x540 zur Verfügung. Die werden jeweils auf 1280x720 umgerechnet, was ein gräusliches Bild ergibt, da die x-Auflösung verkleinert, aber die y-Auflösung erhöht werden muss. Es ist also nicht mehr Information enthalten als beim ursprünglichen 1920x540er-Signal, denn beim x verliert man was und beim y muss was hinzuerfunden werden. Das Ergebnis beim Zuschauer ist wieder nicht optimal, effektiv schlechter als mit 1080i. Wieder.
Teilfazit 1: wieder ist 1080i besser als 720p.
Bleibt der optimale Fall: die Produktion geschieht tatsächlich mit 720p50. Dann könnte ARD/ZDF optimal 1:1 übertragen, der TV am Ende müsste aber denoch auf FullHD hochskalieren. Hingegen ein Sender, der mit 1080i sendet, der müsste nun aus jedem 720p50-Bild ein Halbbild mit 1920x540 errechnen. Hier hat er nun also ein vergleichbares Problem wie eben ARD/ZDF: die x-Auflösung muss hochgerechnet werden, die y-Auflösung runter.
Als Ergebnis kommen zwei nicht ganz optimale 1080i-Halbbilder beim Empfänger an. Jetzt kommt der Deinrterlacer. Und der kann eben heutzutage aus diesen beiden Halbbildern tatsächlich noch etwas mehr rausholen, als "nur" zweimal 1920x540, denn jeweils zwei Halbbilder können verrechnet werden. Das Ergebnis ist also irgendwas in der Mitte von 1920x540p50 und 1920x1080p25, je nach Bildinhalt und Bildbewegung.
Teilfazit 2: hier könnte es theoretisch sein, dass 720p etwas besser ist. Da aber der Deinerlacer das 1080i-Signal tatsächlich auf mehr als 1920x540 hochrechnen kann und umgekehrt bei 720p auch eine Skalierung auf 1920x1080 gemacht werden muss, ist der Vorteil von 720p, wenn überhaupt vorhanden, nur ganz marginal.
Und dabei haben wir noch überhaupt nicht diskutiert, ob die 50 Bilder pro Sekunde überhaupt sinnvoll für eine flüssigere Bildwiedergabe sind. Meiner Meinung nach müsste man nämlich nur die Belichtungszeit wieder etwas hochschrauben um ebenfalls dem Ruckeln zu begegnen. Die Belichtungszeit wurde nämlich in den letzten Jahren gezielt immer kürzer gewählt, um scharfe Standbilder und Zeitlupen zu erhalten. Da aber dann überhaupt nichts mehr von der Bewegungsbahn im Bild übrig bleibt (es fehlt der MotionBlur), leistet das dem Ruckeln Vorschub. Dem Auge fehlt einfach Information über die Bewegungsspur. Über dieses Thema könnte man allein schon wieder recht lange diskutieren.
Endergebnis:
Nur wenn die Produktion in 720p50 erfolgt, dann könnte die 720p50-Übertragung theoretisch einen kleinen Vorteil haben. In der Praxis wird sich der aber in der Zwischenzeit nicht wirklich stark auswirken. Liegt hingegen eine 1080p25-Produktion (Spielfilm) oder eine 1080i-Produktion (internationaler Sport) vor, hat eine 720p50-Übertragung echte gravierende Nachteile gegenüber einer 1080i-Übertragung.
Darum haben aus meiner Sicht die ÖR tatsächlich die falsche Entscheidung getroffen. 1080i wäre im Schnitt die bessere Wahl.
Mal abgesehen davon, es spräche doch auch nichts dagegen, je nach Sendung das passende Format zu wählen. Also für in 720p50 produzierten Sport 720p50, und sonst eben 1080i. Ein Wechsel des Bildformats wäre ja jederzeit möglich. Warum wird das eigentlich nicht gemacht?
So, ich hoffe damit habe ich das Thema nochmal erschöpfend erklärt.
Viele Grüße,
Hagge