Spätestens seit dem Siegeszug der DVD ist der Begriff "Heimkino" in aller Munde, oder zumindest auf jedem Werbeprospekt des nächstgelegenen Elektronik-Marktes mindestens einmal erwähnt.
Doch was verbirgt sich dahinter eigentlich? Macht ein DVD-Player mit einem großen Fernseher schon ein Heimkinosystem aus? Oder steckt da mehr dahinter?
Vielleicht schaut man sich dazu erst einmal an, was das Kino in den letzten, na sagen wir mal, vierzig Jahren an Entwicklung durchgemacht hat.
Im Endeffekt ist es eine Kombination aus großem, breiten Bild und mehrkanaligem Ton, das das heutige Kino auszeichnet.
Etwa in den 60er Jahren wurde damit begonnen, die Leinwand im Kino nicht nur so hoch wie den Vorführraum (minus etwa 1,5 bis 2m), sondern auch genauso breit zu machen. Ursprünglich war der 35mm Film für das Kino mit Bildern im Format 24x18mm² versehen, die mit einer Folge von 24 Bildern/s am Betrachter vorbeirauschten. Dadurch ergab sich bei den Stummfilmen ein Seitenverhältnis von etwa 4:3 (Breite:Höhe, etwa 1,33:1), was das Bild etwas breiter als hoch macht, so wie man es heute noch beim üblichen Fernsehen hat. Als dann der Tonfilm kam, wurde von der Bildbreite noch etwas abgezwackt, weil man ja Platz für die Tonspur brauchte (mono!), so daß man effektiv etwa 22mm Breite zu 18mm Höhe hatte, teilweise wurde auch der Bereich entlang der Perforierung, der vorher unbenutzt war für die Tonspur verwendet, aber man war immer noch sehr nahe am quadratischen Bild.
Da das Negativformat sich über mehr als 50 Jahre gehalten hatte, glaubte man, daß mit der Einführung von Ton- und Farbfilm in den 60er Jahren das Entwicklungspotenzial des Kinos ausgeschöpft sei. Denn etwas neues in etwas bestehendes zu integrieren - wie bunten Film oder einen Tonabnehmer in vorhandene Projektoren - ist ungleich einfacher, als etwas bestehendes komplett zu ersetzen. Und das hätte bevorgestanden, wenn man ein komplett neues Bildformat haben wollte.
Filmemacher und Techniker waren einer Meinung: Mehr Wirkung bekommt der Film, wenn er beim Betrachter einen größeren Bildwinkel einnimmt. Es macht eben einen Unterschied, bei einem Western die Hauptfiguren vor einem 4:3-Ausschnitt einer Landschaft entlangreiten zu sehen oder ein Panorama vor sich zu sehen, durch das die Figuren praktisch hindurchreiten.
Da man aber unmöglich auf den Markt kommen konnte, wenn man zuerst in jedem der Weltweit einige 10.000 Kinos einen neuen Projektor aufstellen müßte, besann man sich eines anderen Weges: Man "quetschte" das breite Bild auf ein Negativformat, das der Projektor schon kannte, die anamorphe Aufnahme und Projektion war geboren: Bei der Aufnahme wurde das breite Bild künstlich verkleinert, bei der Wiedergabe wieder auseinandergezogen. Das ging mit einem Seitenverhältnis von 16:9 (etwa 1,85:1) bis hin zum heute als Cinemascope bekannten Seitenverhältnis von 2,35:1. Durch Verbesserungen bei den Filmemulsionen und der Optik war das "Aufblasen" des Films zum damaligen Zeitpunkt etwa mit einer Bildqualität machbar, die in den 40er Jahren das Kino zu einem Massenmedium gemacht hatten.
Die ersten großen Erfolge feierte die Technik bei den vielen amerikanischen Western in den 60er und 70er Jahren, und ein, zwei erfolgreiche Produktionen reichten damals wie heute, eine neue Technik mit Investitionskosten von einigen 1.000 bis 10.000 Euro in jedes Kino einziehen zu lassen.
Bereits Ende der 20er Jahre neigte sich der Stummfilm seinem Ende zu. Ab 1928 wurden fast nur noch Tonfilme gedreht, und etliche Stummfilmhelden mit gutem Aussehen und schauspielerischem Talent waren plötzlich ob ihrer piepsigen Stimmen Helden von gestern, nur wenige schafften den Sprung in die Welt des Tonfilms.
Ab etwa den 60er Jahren war es dann mit der einzigen Tonspur vorbei, man hatte den Stereoton erfunden, eine Lautsprecherbox rechts und links neben der Leinwand ermöglichte es, nicht nur optisch den Weg der Helden über die nun breitere Leinwand zu verfolgen, sondern auch mit dem Ohr. Wieder schien die Entwicklung am Ende, denn noch mehr Tonspuren konnte man ohne Änderungen am Filmformat nicht einbauen.
Der große Rums kam dann in den 70er und 80er Jahren: Die Dolby Studios hatten nach mehreren mehr oder weniger erfolglosen Versuchen eine praktikable und sehr effiziente Kanalmischung von insgesamt 4 Kanälen in das Stereosignal des Films geschafft: Zusätzlich zu den beiden Kanälen rechts und links gab es einen Kanal in der Mitte (der den Vorteil hatte, daß man dort die Sprache der Akteure auch direkt aus der Leinwand heraus vernahm, selbst wenn man am Rand relativ weit vorne saß und eine der beiden Stereoboxen näher dran hatte als die andere) und einen Kanal für Hinten. Doch wie funktionierte das?
Der Trick bei dem Dolby Pro Logic genannten Verfahren ist, daß der Mensch zwar zwei Ohren hat, mit denen er die Richtung der Schallquelle feststellen kann, man aber mit zwei getrennten Audiokanälen nicht nur die dafür nötige Information über die Lautstärke der beiden Kanäle transportieren kann, sondern man kann die beiden Kanäle auch noch in der Phasenlage gegeneinander verschieben. Diese Phasenverschiebung ist für das menschliche Ohr nicht wahrzunehmen und spielt keine Rolle bei der Beurteilung, aus welcher Richtung der Schall kommt (diese Unterscheidung findet anhand von Lautstärke-, Laufzeit- und Frequenzunterschieden beim Hören von Geräuschen aus verschiedenen Richtungen statt). Bei Dolby Pro Logic wird aber in der Phasenlagen beider Stereokanäle zueinander das Verhältnis zwischen der Tonausgabe aus den Frontlautsprechern und der Tonausgabe aus dem rückwärtigen Lautsprechern geregelt. Die Kanaltrennung zwischen den beiden rückwärtigen Lautsprechern wurde erst in der Version II implementiert, weil diese sich nicht so ganz einfach mit elektronischen Bauelementen realisieren läßt, hier gab dann die numerische Tonverarbeitung die effiziente Möglichkeit. Der Center-Kanal ist nur eine Mittelung aus beiden Stereokanälen und dient wie gesagt dem besseren Sprachverständnis und der Lokalisierung der Sprechenden.
Filme wie "Apocalypse Now" oder "Star Wars" brachten der neuen Technik dann den endgültigen Durchbruch: Der Unterschied mit und ohne Rundum-Schall war beeindruckend.
Interessant ist vielleicht noch, daß das menschliche Ohr eigentlich nur Frequenzen von etwa 100 Hz bis hinauf auf etwa 12 kHz lokalisieren kann. Tiefere und höhere Töne haben keine definierbaren Ort, hier können wir nur über das Annähern oder das Entfernen von der Schallquelle über die Lautstärkeänderung etwas zur Position der Schallquelle in Erfahrung bringen. Bei Pro Logic wird das dazu ausgenutzt, die Bandbreite von Center und Surround und damit die Kosten für die Lautsprecher zu limitieren.
Anfang der 90er Jahre hielt dann der digitale Ton Einzug in den Film: Über ein Barcode-ähnliches System konnte man auf dem Film plötzlich ohne Verlust an Platz zusätzlich zu den zwei Stereospuren bis zu 6 digitale Kanäle unterbringen. Das System wurde bei den Dolby-Leuten unter "Dolby Digital 5.1" vermarktet und machte sich zunutze, daß die tiefen Töne nicht geortet werden können: Der Soundeffekt-Kanal existiert nur 1x. Die anderen fünf Kanäle sind die bekannten vorne und hinten rechts und links sowie der Center-Kanal. Dadurch war es jetzt natürlich möglich, bis zu fünf statt vorher vier diskrete Kanäle anzusteuern, und das ohne die noch bei Pro Logic vorhandenen Einschränkungen bezüglich der Korrelation der Kanäle.
Auch von der Konkurrenz kamen neue Anstöße: Mit DTS machte sich ein anderer Digitalton auf, das Kino zu erobern. Hier wurde auf konventionelle Technik mittels CDs zurückgegriffen, um die Töne parallel zum Film abzuspielen, nur durch Codes auf dem Filmstreifen mit diesem während des Abspielens synchronisiert. Vorteil hier: Man war nicht strikt an die 5.1-Kanalaufteilung gebunden, so gibt es DTS mittlerweile mit bis zu 7.1 Kanälen.
Bis Ende der 70er Jahre gab es für zuhause nur den Fernseher, der dann aber auch schon Stereoton hatte und in Farbe war. Dann begann eine kleine Revolution: 3 Systeme machten sich auf, den Verbraucher mit der Möglichkeit zu versehen, auf Magnetbandkassetten gespeicherte Filme ansehen zu können. Es waren die Systeme Video 2000, Betamax und VHS. Möglich war dies, nachdem die sogenannte Schrägspuraufzeichnung erfunden wurde, die nicht nur linear ein Signal auf ein Magnetband speicherte, sondern durch schräg liegende Spuren das gesamte Magnetband für die Videoaufzeichnung ausnutzte.
Letzten Endes machte das System VHS das Rennen, nicht ganz unschuldig war daran die Firma Macrovision. Dieses Unternehmen hatte Anfang der 80er Jahre eine Schwäche im Konzept von VHS entdeckt, die es ermöglichte, ein Störsignal auf das Magnetband zu speichern, das zwar nicht auf dem Fernsehbildschirm sichtbar wurde, aber wirkungsvoll verhinderte, daß man das Band mit einem anderen VHS-Recorder kopieren konnte: Der Macrovision-Schutz für Kaufvideos war erfunden. Darin sahen die großen Hollywoodfirmen die Möglichkeit, daß sich jeder die Filme kaufen mußte, den er sehen wollte, er konnte ihn sich nicht vom Nachbarn, Freunden oder Kollegen kopieren. Da es für VHS eine ganze Menge mehr an Kaufvideos gab als für konkurrierende Firmen, machte VHS gegenüber dem technisch eigentlich überlegeneren Video 2000 das Rennen.
Interessant war nun, daß die meisten Kinofilme zu dieser Zeit bei ihrem Erscheinen auf VHS exakt die gleiche Soundabmischung auf dem Film enthielten, die auch im Kino verwendet wurde. Was damals kaum einer wußte: Filme, die im Kino im Surroundton von Dolby Pro Logic zu hören waren, konnte man grundsätzlich auch zuhause mit Rundumklang genießen - die passende Anlage vorausgesetzt.
So gab es nur wenige Menschen, die schon in den 80er Jahren einen Dolby Pro Logic-Decoder und die entsprechenden Boxen ihr eigen nennen konnten. Damals waren die Decoder oft nur separat erhältlich, es waren ca. 150 bis 400 DM teure Elemente für Komponenten-Stereoanlagen, zudem brauchte man mindestens eine zweite Stereoendstufe für die beiden Kanäle Center und Surround, eventuell noch einen aktiven Subwoofer, wenn man wirklich kinomäßigen Sound genießen wollte. Rundumklang war etwas wirklich elitäres.
Das änderte sich erst in den 90er Jahren: Die ersten Kompakt-Anlagen mit integriertem ProLogic-Decoder tauchten in dem Moment auf, als sich verschiedene Hersteller zusammensetzen, um eine digitale Video-Disk zu kreieren, die an den Markterfolg der digitalen Audio-Disk (CD) anknüpfen sollte. Diese "Digital Video Disk" kennen wir heute als DVD, und integraler Bestandteil der DVD-Spezifikation war fast von Anfang an das Tonformat Dolby Digital 5.1, das 5 diskrete Audiokanäle und einen Subwooferkanal vorsah. Das Konkurrenzformat DTS kam auch nur wenige Jahre später dazu, so daß mit DD 5.1 und DTS 5.1 zwei im Endresultat sehr ähnliche Formate zur Verfügung stehen. Gleichzeitig erschienen auf dem Techniksegment die entsprechenden Endstufen: Man hatte oft den Radioempfänger mit integriert, zusätzlich waren die Decoder Teil der Endstufe, diese hatte nun mindestens 5 Verstärkerkanäle und einen Ausgang für einen aktiven Subwoofer.
So richtig "für jedermann" war das aber immer noch nicht: Nach wie vor kostete ein solcher Verstärker um die 600 bis über 2000 DM (300 bis 1000 Euro), und statt 2 braucht man für Rundumklang eben 5 bis 6 Boxen. Das ganze wurde erst dadurch für die große Masse erschwinglich, daß sich ab etwa dem Jahr 2000 eine ganze Anzahl von Herstellern aufmachte, die "Komponenten" DVD-Player und AV-Receiver in ein Gehäuse zu packen und die passenden Boxen gleich mitzuliefern. Dadurch, daß die in Europa übliche Scartverbindung von DVD-Player und Fernseher auch einen Signalfluß in die umgekehrte Richtung enthält war es leicht, mit einem integrierten Decoder nach Dolby Pro Logic II (das das ältere Pro Logic abgelöst hatte) einen Rundumkang auch für analog empfangenes Fernsehen zu ermöglichen. Einzige Bedingung: Der Lautsprecher des Fernsehers mußte aus bleiben.
Schon Ende der 1990er Jahre zeichnete sich ab, daß die DVD durch Ihre Einschränkung auf das "klassische" niedrig aufgelöste Standard-TV mit PAL und NTSC irgendwann qualitätsmäßig die Luft ausgehen würde. Aber die optische Speichertechnik mußte auf etwas warten, was es noch zu erfinden galt: Die blaue Laserdiode. Alle optischen Speichermedien verwenden Laserdioden für das Auslesen der Daten, und mit der Entwicklung blauer Laserdioden kurz vor der Jahrtausendwende war auch klar, daß es über kurz oder lang eine höher aufgelöste Scheibe als die DVD geben würde.
Aber die Speicherkapazität war nicht nur von der Wellenlänge abhängig (blaue Farbe -> kürzere Wellenlänge -> kleinere Bits), sondern auch von der Kompression. Hier tat sich zu dieser Zeit auch einiges, und etwa drei Jahre später war es dann so weit, daß die BluRay Disc in der Urfassung definiert war, zunächst noch mit MPEG2 (dem Aufzeichnungsverfahren der DVD), ab 2003 auch mit H.264, einem effizienteren Codec, der aber mehr Rechenleistung verbriet. Störend war nur am Anfang das Wettrennen zwischen der HD-DVD (dem "offiziellen" DVD-Nachfolger) und BluRay. Leider hatte die HD DVD einen etwas geringeren Wert für die Speicherkapazität, bei der BluRay Disc wurden noch ein paar Kopierschutzverfahren mehr eingebaut und im Sommer 2008 wendete sich dann das Blatt zugunsten von BluRay, als Toshiba als letzter alleinige Hersteller von HD DVD die Segeln strich und fortan keine neuen HD DVD player mehr anbot. Damit ist jetzt auch ein Standard für HDTV-Scheiben definiert, der Auflösungen bis 1920x1080 Pixeln erlaubt und Datenraten bis 25 MBit/s. Seit 2009 gibt es sogar einen Standard für 3D in BluRay.
Woran es zuhause aber immer noch mangelte, das war ein entsprechend großes Bild für das "Kino zuhause". Hier war das größte Problem, daß es im Kino in den 60er Jahren eine Abwendung vom fast quadratischen Seitenverhältnis von 4:3 oder 1,33:1 hin zu breiterem Format bis hin zu 2,35:1 gab. Das Fernsehen ist jedoch fast bis heute beim "klassischen" Bildformat von 4:3 geblieben. Es gibt aber seit Mitte der 80er Jahre auch das "Breitbildfernsehen" von 16:9 (1,85:1). Ursächlich dafür war die sogenannte HDTV-Norm.
Während wir hier in Europa mit dem PAL-Standard und seinen 576 Bildzeilen mit einer Bildwiederholrate von 25 Hz noch relativ gut bedient sind und uns allenfalls über ein flimmerndes Bild beklagen können, sieht es in Amerika deutlich schlechter aus: Nicht nur ist die Auflösung mit 480 Bildzeilen um fast 20% geringer, nein, das Problem liegt viel tiefer: Die amerikanische Fernsehnorm namens NTSC hat auch ein sehr fundamentales Problem bei der Farbwiedergabe: Anders als bei PAL wird bei NTSC im Farbsignal der Träger nicht mit übertragen. Dadurch fehlt im Endeffekt eine feste Referenz für die Farbe "Weiß". Das Resultat: Bei analog übertragenem NTSC hat man fast nie die passende Farbe, Farbstiche sind eigentlich eher die Regel als die Ausnahme.
Abhilfe sollte hier Ende der 80er Jahre die Norm HDTV schaffen: Einmal sollte mit der niedrigen Auflösung aufgeräumt werden, zum anderen aber auch mit dem Problem der Falschfarben bei NTSC. Der Durchbruch gelang nie so richtig, aber ein Teil der Spezifikation von HDTV sah vor, daß außer dem klassischen Seitenverhältnis von 4:3 auch ein Seitenverhältnis von 16:9 vorzusehen ist. Teilelemente von HDTV sind darüber hinaus auch NTSC- und PAL-kompatible Standards mit einem Seitenverhältnis von 16:9, diese wurden dann als erste umgesetzt und bildeten auch eine Basis für anamorph kodierte DVDs, so wie wir sie heute kennen. Sichtbar werden diese Modi, wenn man den DVD-Player auf den Modus 16:9 schaltet und der darstellende Fernseher diesen Modus auch kann (entweder, weil es tatsächlich ein 16:9-Gerät ist oder weil es ein 4:3-Gerät mit einer automatischen vertikalen Komprimierung ist). Dann werden nämlich bei PAL alle 576 Bildzeilen für die Darstellung des Fernsehsignals genutzt und nicht nur rund 450, wie das bei einer Darstellung von 16:9-Material bei einem Seitenverhältnis von 4:3 der Fall wäre. Nachdem HDTV in aller Munde ist werden diese anamorphen, aber noch zu PAL bzw. NTSC kompatiblen Modi heute "SDTV" genannt, was für "Standard Definition TV" steht.
Ob sich HDTV mit seinen hochauflösenden Modi hier in Europa irgendwann noch einmal durchsetzen wird, ist mittlerweile wohl eher eine Frage der Zeit: Es gibt aber immer noch ein Großteil der Geräte, der zwar relativ neue ist, aber mit HDTV nichts anfangen kann. Dazu kommt, daß ein Großteil der Fernseher, die HDTV können so gut PAL interpolieren kann, daß einem ungeübten Betrachter nicht sofort auffällt, daß er PAL auf dem FullHD-TV schaut - und wenn ihn dann der Film erst einmal gepackt hat, dann wird er es auch nicht merken, wenn nicht, schaltet er eh' weiter.
Zwar gab es seit Anfang 2004 mit Euro 1080 einen kommerziellen Sender, der mit dem Modus 1080i sendete, aber der eigentliche Standard startete erst 2005/2006 mit dem Angebot von Premiere für das "Premiere HD" genannte Programm - hier aber mit einer neuen Kodierung (DVB-S2) und Komprimierung (H.264), was die alten Receiver für Euro1080 nicht verstanden.
Seit Anfang 2010 senden die öffentlich-rechtlichen ARD und ZDF jetzt auch ein Programm in HD aus, aber es wird nicht in 1080i, sondern in 720p übertragen - problemtisch bei Sportereignissen, diese werden in der Regel in 1080i aufgezeichnet, von ARD oder ZDF in 720p konvertiert (herunterskaliert und mit Deinterlacing auf Vollbilder umgerechnet), bevor sie dann der Empfänger möglicherweise wieder auf 1080i zum Bildschirm hochskaliert und der dann final 1080p für die Ausgabe errechnet.
Die privaten Fernsehsender wollen dagegen kein zusätzliches Geld mehr in die Übertragung von HDTV per Satellit stecken und haben sich der Verbreitungsplattform "HD+" von Astra angeschlossen. Diese ist aber wieder vom Zuschauer finanziert, so daß man jetzt hier sogar für die Werbung bezahlen muß - dank neuer Schlüsseltechnik darf man über sie jetzt auch nicht mehr hinwegspulen.
Oft wird Heimkino heutzutage so definiert, daß man sagt: "Sound wie im Kino, das Bild hat das Format 16:9".
Das ist aber etwas einfach gedacht. Zwar ist es so, daß es oft deutlich preiswerter ist, eine Anlage mit Mehrkanalsound zu installieren als ein entprechendes "kinomäßiges" Bildformat. Aber: zum Kino gehört nicht nur der "gute Ton", sondern auch, daß man das Bild eben nicht nur klein und weit weg hat, sondern groß und entsprechend näher (anders ausgedrückt: Bei der üblichen Dimensionierung des Fernsehers sieht man diesen von seiner Sitzposition so, daß die Diagonale des Fernsehers im Sehfeld etwa einen Bildwinkel von 10 bis 15° einnimmt - im Kino hat man aber oft einen Bildwinkel von weit über 30°, meist irgendwo in der Größenordnung von 50° für das Bild).
Aber man kann sich da auf zwei Arten helfen: Entweder geht man her und beschränkt sich auf einen der noch bezahlbaren Röhrenfernseher mit einer Diagonale von ca. 80cm und geht entsprechend nah ran (max. etwa 2m), oder man geht wirklich "in die Vollen" und legt sich einen Videoprojektor mit einer entsprechenden Leinwand zu, die dann richtige Kinoatmosphäre versprüht.
Es gibt mittlerweile neben dem klassischen Röhrenfernseher zwei weitere Arten von Bildschirmen, die deutlich flacher sind: Dies sind Plasma- und Flüssigkristalldisplays.
Der gute alte Röhrenfernseher hat im Laufe der Zeit auch eine beachtliche Weiterentwicklung erfahren: Neben dem Seitenverhältnis (seit Mitte der 90er Jahre gibt es neben dem klassischen Format 4:3 auch das Breitbildformat 16:9) gibt es Geräte, die das ankommende Signal nicht mehr 1:1 ausgeben, sondern zwischenspeichern und gleich mit doppelter Bildwiderholrate ausgeben, sogenannte "100Hz"-Geräte. Diese sind eindeutig zu bevorzugen, denn wenn man nahe am Fernseher sitzt bzw. der Fernseher sehr groß ist und einen großen Bildwinkel einnimmt tritt das Bildflimmern des Zeilensprungverfahrens sonst zu sehr in den Vordergrund.
Ein großer Nachteil des Röhrenfernsehers bleibt die riesige Dimension: Bauartbedingt muß man etwa die halbe bis 80% der Bilddiagonale an Gerätetiefe haben, so daß diese Geräte bei 82cm Bilddiagonale oft bis zu einem halben Meter tief sind. Hinzu kommt das Gewicht, mein alter Grundig (82cm Diagonale, 16:9) bringt etwa 40kg auf die Waage.
Der große Vorteil eines Röhrenfernsehers ist seine Bildqualität: Der Betrachtungswinkel ist sehr groß, die Geräte lassen sich auch in heller Umgebung problemlos betreiben und es gibt kein störendes Lüftergeräusch. Der Energieverbrauch entspricht bei den großen Geräten etwa der Leistung, die eine 100W-Birne benötigt. Auch die Lebensdauer eines Röhrenfernsehers liegt bei mehr als 10 Jahren tägliches Fernsehen, die Aufwärmzeit beträgt wenige Sekunden. Und der Preis ist sehr attraktiv: Selbst die großen Modelle gibt es für unter 500 Euro, wenn man auf Extras wie mehrfache Tuner verzichtet. Wenn man also den nötigen Platz hat spricht eigentlich alles für einen Röhrenfernseher. Leider gibt es in diesem Segment kaum Geräte, die mit der neueren Fernsehnorm HDTV umgehen könnten.
Bei einem Plasmabildschirm ist ein Plasma (ein ionisiertes Gas) zwischen zwei Elektroden gesperrt und die durch das Plasma laufenden Elektroden bringen dieses zum Leuchten. Vorteil ist, daß man eine dünne Platte hat, die man sich notfalls sogar an die Wand hängen kann. Nur ca. 10cm dick sind aktuelle Plasmadisplays. Die Diagonalen gehen bis über 100cm, das 16:9-Format ist üblich.
Aufpassen muß man bei der Auflösung: Nicht die Bildgröße alleine ist ausschlaggebend, sondern auch mit welcher Auflösung das Bild aufgebaut wird. Heute sollte man immer ein Full HD Display mit 1920 x 1080 Bildpunkten bevorzugen.
Nachteilig ist Plasma beim Preis: Ein Plasmadisplay mit mehr als 80cm Diagonale kostet oft schon weit über 1000 Euro, und die ganz großen Modelle können oft mit zwischen 3000 und 8.000 Euro zu Buche schlagen. Aufpassen muß man auch beim Panel, hier liegt eine Lebensdauerbegrenzung vor. Wenn häufig 4:3-Bildformat ohne vollflächigen Zoom geschaut wird, dann kann es passieren, daß der 4:3-Bereich schneller ausbrennt als der Rest und die Bildhelligkeit am Übergang von 4:3-Bereich zum Rand von 16:9 sprunghaft ansteigt. Allerdings hat diese Lebensdauer bei modernen Displays auch schon merklich zugenommen, die Hersteller rechnen hier mittlerweile in 10.000en von Stunden statt wie früher mit einigen 1.000.
Ein Plasma-Display hat etwa die doppelte Leistung eines LCD-Gerätes, ist aber noch günstiger als ein alter Röhrenfernseher gleicher Baugröße. Ein großer Vorteil ist das bessere Bild des Plasmagerätes gegenüber LCD: Schwarz wird dort auch wirklich als Schwarz dargestellt.
Nach den Plasma-Displays haben mittlerweile auch LC-Displays einen Lauf hin zu größerer Bilddiagonale hingelegt, hinzu kommt ein regelrechter Preissturz bei mittleren Diagonalen. Teuer werden LCDs ab etwa einer Diagonale von 120cm. Nachteilig bei LCDs ist der geringe Schwarzwert, das heißt, LCD-Fernseher werden nie wirklich "schwarz", sondern nur "dunkelgrau". Erst die neue sogenannte "LED"-Technik bietet hier Fortschritte, indem die Hintergrundbeleuchtung eines dunklen Bereiches insgesamt heruntergefahren wird. Dadurch können Bildkontraste von 1000:1 und mehr im gleichen Bild erreicht werden. LED-Fernseher sind aber teurer als "klassische" LCD-Fernseher.
Die Projektionsfernseher waren vor fünf Jahren der große Renner: Aber heute sind sie fast komplett durch die Kostenreduktion bei der Produktion von LCD-Bildschirmen vom Markt verschwunden. Viele ältere Projektionsfernseher hatten auch keine Eingänge für verschlüsseltes HDTV, was dieser Gerätegattung noch einmal zusätzlich das Leben schwer gemacht hat. Die Marktnische der Großbild-Fenseher ist heute meist durch großformatige LCD oder Plasma-TVs abgedeckt.
Seit etwa 1995 ist die Ägide der Video-Beamer angebrochen. Erste Geräte mit SVGA-Auflösung sind zunächst als reine Computer-Projektoren für Präsentationen gestartet, ab etwa dem Jahr 2000 gab es dann auch vermehrt Geräte, die primär auf den Heimanwender abzielten und dafür mit einem Seitenverhältnis von 16:9 und PAL- oder NTSC-Videoeingängen daherkamen. Die Lebensdauer der Lampen ist von anfangs nur einigen 100 Stunden nach und nach in die Region von jetzt bis zu 5000 Stunden geklettert, so daß der Lampenverschleiß auch nicht mehr die große Kostenfalle ist, den er früher einmal dargestellt hatte.
Zu unterschieden sind zwei Klassen von Projektoren: Die preiswerteren LCD-Typen und die teuren DLP-Typen.
Die LCD-Projektoren haben, wie der Name schon sagt, kleine LCD-Panels im Lichtweg. Vorteilhaft sind:
Die Nachteile eines LCD-Projektors sind aber auch gegeben durch
Ein recht guter Kompromiß im Bereich der LCD-Projektoren war der PT-AE 500 von Panasonic, da er durch verschiedene Techniken sehr gut um die Nachteile von LCDs herumkommt und mit 850 Ansi-Lumen auch hell genug ist für ein Wohnzimmer, ohne daß man die Rolladen zum Film schauen herunterlassen muß. Das Kontrastverhältnis liegt bei über 1000:1, wenn man alle Register zieht, und selbst in einer Betriebsart, die für Filme sehr gute Farbtreue liefert liegt man noch bei ca. 600:1.
Seit etwa fünf Jahren gibt es neben Projektoren mit LCD-Panels auch solche mit einem DLP-Chip zu kaufen. Dieser Chip ist so ziemlich die einzige Massenware, die sich aus dem Bereich der Mikromotorik (der Ende der 80er bis Mitte der 90er Jahre als großes Forschungsgebiet galt und mit immensen Summen in den USA und Europa öffentlich gefördert wurde) bis heute ergeben hat.
Dahinter steckt ein IC auf Halbleiterbasis, bei dem durch geschicktes Ätzen von Strukturen mikroskopisch kleine Spiegel entstanden sind, die sich durch das Anlegen einer Spannung verkippen. Der Hersteller dieser Chips ist die Firma Texas Instruments, und die entsprechenden Chips gibt es mit Auflösungen von 640x480 (VGA) über 850x480 (NTSC) bis hin zu mehr als 1920x1080 (HDTV).
Da diese Chips aber sehr teuer sind (die Herstellung ist schwierig, und dazu ist noch TI inhaber mehrerer Patente auf die Technologie, so daß es praktisch ein Monopol gibt), sind die entsprechenden Projektoren nicht gerade billig. Geräte mit einer Auflösung von 1280x720 Pixeln kosten zur Zeit (2010) etwa ab 500 Euro, die für "Full HD" mit 1920 x 1080 etwa ab 900 Euro.
Vorteile der DLP-Technik sind
Nachteile der DLP-Technik
Welcher der beiden Typen interessant ist, muß jeder für sich entscheiden. Es gibt eine neue Technik auf dem Markt, die auf Flüssigkristallen basiert aber von der grundsätzlichen Funktion einiges mit DLP gemeinsamt hat, das sind auf LCOS basierende Beamer. LCOS ist die Abkürzung für "liquid crystal on silicon" und bezeichnet Chips, die die Ansteuerelektronik für ein LCD-Panel und die entsprechenden Kontaktflächen enthalten, auf deren Oberfläche direkt die Kristallflüssigkeit liegt. Solche Chips werden seit etwa zwei Jahren schon in Projektionsfernsehern eingesetzt und kommen jetzt (November 2004) auch bei den Beamern zum Einsatz. Der Größte Vorteil dürfte darin liegen, daß die Lichtleistung nicht mehr so begrenzt ist wie bei reinen LCD-Beamern.
Wichtig ist, daß der verwendete Beamer für die Videodarstellung geeignet ist. Aus heutiger Sicht setzt das voraus, daß der Beamer ein Bild mit dem Seitenverhältnis von 16:9 erzeugt, außerdem sollte seine Auflösung mindestens 540 Zeilen umfassen, bei quadratischen Pixeln sind das 960 Spalten (diese Auflösung heißt bei HDTV 560p/i und stimmt in der i-Version mit dem europäischen PAL überein). Noch besser ist es, wenn der Beamer sich bereits für die Wiedergabe von HDTV eignet (es gibt etliche Modelle mit nativer Auflösung bis 720p). Ob man bei HDTV 1280x720 oder 1920x1080 als Auflösung wählt, hängt eigentlich hauptsächlich vom Geldbeutel ab.
Nicht minder wichtig ist aber auch, daß der Beamer die Farben in einer sinnvollen, nicht extrem auf Kontrast ausgerichteten Weise wiedergibt. Hier wird von den Herstellern oft das Blaue vom Himmel herunter versprochen, und das Kontrastwunder mit einem Kontrastverhältnis von 2000:1 hat nach erfolgter Farbkalibrierung ein Bild mit nur 300:1. Hier sollte es möglich sein, daß man bei einer festen Farbtemperatur, die zwischen 6500 und 9000K liegen darf ein Kontrastverhältnis von nicht weniger als 400 bekommt. Zum Vergleich: Die meisten Röhrenmonitore erreichen relativ spielend Kontrastverhältnisse von 1000:1.
Ein zu großes Kontrastverhältnis bringt aber auch nichts, da die meisten Leinwände eben auch Streulicht reflektieren. Ist der Projektor nun zu hell oder sind zuviel helle Elemente im Raum, dann reduziert das entstehende Streulicht das Kontrastverhältnis leicht auf Werte von nur noch 300:1.
Einen sinnvollen Kompromiss hat man dann gefunden, wenn man bei Filmen im Format 2,35:1 den dunklen Rand des Bildes gerade noch so gegenüber dem unbeleuchteten Teil der Leinwand abgrenzen kann. Ist der dunkle Rand dagegen zu hell und statt schwarz nur dunkelgrau, dann ist der Kontrast des Projektors zu gering.
Beim Beamer gibt es wie bei einem Monitor oder einem Display eines Notebooks verschiedene Dinge, auf die man beim Abgleich achten muß. Dazu gehört einmal die Farbtemperatur: Die sollte im Bereich von 6500K liegen. Bis etwa 9000K ist auch ok, solange kein fremdes Licht im Raum ist, denn das menschliche Auge kann sich an die Farbtemperatur etwa im Bereich von 4500 bis 9000K relativ gut anpassen und nimmt den jeweils hellsten Farbton als "Weiß" war, sofern kein fremdes Licht mit einer anderen Farbtemperatur das Farbempfinden zu sehr stört. Daher muß man nicht unbedingt den Modus des Projektors verwenden, dessen Farbtemperatur exakt bei 6500K liegt. Es ist auch möglich, über Farbfilter (wie sie für die Fotografie verwendet werden) vor der Optik des Projektors die Farbtemperatur noch zu verändern, das kostet dann im Gegensatz zur Nutzung des Modus mit der passenden Farbtemperatur kein Kontrastverhältnis, allerdings reduziert sich damit etwas die Helligkeit des Projektors.
Wichtig ist auch, daß der Verlauf der Gammakurve etwa auf der sRGB-Norm (Gamma=2.2) liegt. Weicht der Verlauf zu sehr ab, dann hat man das Problem, daß es zu starke Abweichungen von hellen und dunklen Farbtönen untereinander gibt. Die meisten Projektoren bieten mehrere Modi für die Bildwidergabe an: Sinnvoll ist es hier, einen der Modi zu verwenden, bei dem der Kontrast nicht noch künstlich erhöht wird.
Für die Lautstärke gilt, daß man möglichst unter 30dBA bleiben sollte. Jedes dBA ist spürbar, aber leider kenne ich keinen Beamer, der weniger als ~25dBA an Lautstärke produziert. Wichtig ist, daß man subjektiv vom Film und dessen Geräuschkulisse etwas hat und sich nicht am Geräusch des Beamers bei der Vorführung stört; wenn letzteres der Fall ist, dann ist der Beamer einfach zu laut. Eine feste Regel kann man aber hier nicht aufstellen.
Stand: 24.08.2011