Pixeldichte

31. März 2017 | Von | Kategorie: Abschlussprüfung 2017, Bildschirmauflösung

DIE AUFLÖSUNG IST (LANGE) NICHT ALLES

Man könnte meinen, die Auflösung ist der wichtigste Faktor. Das stimmt aber nur teilweise. Die Auflösung ist isoliert betrachtet für die „Schärfe“ eines Bildes ebenso ohne Bedeutung wie die Angabe eines Quadratmeterpreises für die Kosten ein Mietwohnung. Die Auflösung erlangt genauso wie der Quadratmeterpreis nur dann Bedeutung, wenn man sie in Bezug zur Displaygröße oder eben der Gesamtfläche der Wohnung sieht.

Der erste Fehler ist also, allein von der Auflösung auf die Schärfe eines Displays zu schließen. Mein Fernseher besitzt beispielsweise eine Auflösung von 1920 x 1080 Pixeln. Er kann also 1920 kleine Punkte in der Horizontalen und 1080 Punkte in der Vertikalen anzeigen. Das macht insgesamt 2.073.600 kleine Bildpunkte, die ähnlich wie Mosaiksteine in einer Fassade insgesamt das Bild ergeben. Das klingt doch erstmal gar nicht schlecht, oder? Über 2 Millionen kleine Bildpunkte sollten doch ein „scharfes“ Bild ergeben, richtig? Nein, nicht zwangsläufig.

Mein iPhone 5 beispielsweise zeigt „nur“ 1136 x 640 Pixel an, muss seine Bilder also mit weitaus weniger Bildbausteinen darstellen. Trotzdem ist das iPhone 5 Display „schärfer“ als mein Fernseher, der deutlich mehr Bildpunkte anzeigen kann. Das liegt schlicht und ergreifend an der Größe der Displays, auf denen diese Bildpunkte dargestellt werden. Damit sind wir ohne große Umwege auch direkt bei dem zweiten wichtigen Faktor: dem Display.

AUF DIE GRÖSSE (DES DISPLAYS) KOMMT ES AN

Der Unterschied zwischen meinem Fernseher und meinem iPhone ist ganz klar die Größe des Displays. Der TV hat in meinem Fall exakt die 10-fache Größe des iPhones, nämlich 40 Zoll, während das iPhone nur 4 Zoll misst. Zwar kann der Fernseher mehr Pixel darstellen, muss diese aber auch auf viel mehr Fläche verteilen. Das iPhone bietet zwar weniger Pixel, muss diese dafür aber auch nur auf einer viel kleineren Fläche verteilen. Der Knackpunkt ist deshalb nicht die Auflösung allein, sondern die Auflösung im Verhältnis zur Fläche, oder anders: Die Pixel per Inch oder kurz PPI (alternativ wird auch von Dots per Inch, kurz DPI geredet). Der PPI Wert meines Fernsehers liegt bei lächerlichen 55 PPI während das iPhone bei 326 PPI liegt. Wer die Pixeldichte seiner Geräte ausrechnen möchte, dem kann ich http://pixeldensitycalculator.com empfehlen.

Vergleichen kann man das mit einem Stück karierten Papier, auf dem nur die Karos mit Farbe ausgefüllt werden dürfen, um ein Bild darzustellen. Abhängig davon, wie groß die Karos sind und welche Fläche ich benutzen darf, habe ich am Ende beispielsweise ein Gesicht auf dem Feinheiten zu erkennen sind oder nur grobe Flächen, die mit viel Phantasie ein Gesicht erkennen lassen. Darf ich auf einem Papierblatt von der Größe eines Fußballfeldes zum Beispiel ein Raster von 20×10 Karos ausmalen, kommt da für jemanden, der auf dem Feld steht, wenig bei raus. Auf einem DIN A4 Blatt hingegen kann man damit durchaus etwas erreichen.

Warum also ist dann mein Fernseher trotz seiner „nur“ 55 PPI brauchbar scharf? Das liegt an dem Abstand zum Display. Während ich das iPhone vielleicht maximal einen Meter von meinem Gesicht entfernt halte, sitze ich vom Fernseher ca. 4 Meter entfernt. Im Beispiel mit dem Papierbogen wird ein Passagier in einem über das Fußballfeld hinwegfliegenden Flugzeug ein brauchbares Bild erkennen können. Genauso wirkt der Fernseher durchaus scharf, weil ich mir die 55 PPI von viel weiter weg ansehe, während das Smartphone mit derselben Pixeldichte wohl eher die Bildqualität des ersten Nintendo Gameboys erreichen würde.

Die Bedeutung der „Pixeldichte“ wird besonders deutlich, wenn man sich Geräte anschaut, die die gleiche Auflösung auf verschieden großen Displays benutzen. Ein gutes Beispiel sind hier das aktuelle iPad Air und das iPad mini mit Retina-Display. Beide zeigen 2048 x 1536 Pixel an. Das Ipad Air tut dies allerdings auf 10 Zoll und das iPad mini auf 7,9 Zoll. Im Ergebnis ist das Display vom iPad mini Retina also deutlich feiner, wenn man es aus demselben Abstand betrachtet, da es die gleiche Auflösung auf kleinerem Raum bietet. Die zur Verfügung stehenden Bildbausteine sind schlicht viel kleiner und schwerer zu erkennen.

Das bringt uns zu einem anderen interessanten Aspekt. Wann empfindet das menschliche Auge eigentlich etwas als „scharf“? Der leider viel zu früh verstorbene Apple-Mitgründer Steve Jobs hat das einmal extrem anschaulich während der Vorstellung des iPhone 4 auf der WWDC 2010 Keynote erklärt (die Keynotes sind allesamt auf iTunes und Youtube verfügbar). Scharf sei ein Bild dann, wenn das Auge die einzelnen Pixel nicht mehr erkennen kann, also nicht wahrnimmt, dass das Bild aus kleinen Bausteinen besteht. Je weiter ich weg bin, um so grober darf das Bild sein und je näher ich am Display bin, desto feiner muss das Bild sein. Das iPhone 4 war nun laut Steve Jobs auch das erste Gerät, dass die magische Schwelle für Smartphones überschritt. Im Verhältnis zum durchschnittlichen Sichtabstand eines Smartphones zum Auge soll ab einer Schwelle von 300 PPI für das menschliche Auge kein einzelner Bildpunkt mehr erkennbar sein. Apple nennt das Ganze dann marketingtechnisch „Retina-Display“.

Schärfe ist also immer abhängig vom Abstand zum Bild. Das ist so einleuchtend wie altbekannt. Nicht umsonst ist es ja fast schon im allgemeinen Sprachgebrauch üblich, von „pixeligen“ Bilder zu sprechen. Aber auch die Pixel per Inch sind noch nicht die endgültige Antwort auf die Frage, wann ein Bild scharf ist.

 

Quelle: https://www.deathmetalmods.de/was-macht-ein-display-scharf/

Schlagworte:

Keine Kommentare möglich.