Bei den Kameras der Handys spielt das Zoomen eine wesentliche Rolle.
Auf Grund der begrenzten Platzverhältnisse in Handys ist es schwierig, optischen Zoom unterzubringen.
Deshalb versuchen die Handyhersteller viel, um das Zoomen zu verbessern,
sowohl optisch, indem bspw. Periskoptechnik
verwendet wird, als auch digital.
Zunächst aber was ist optisches Zoom. Hierzu mein Verständnis dazu.
Unter optischem Zoom verstehe ich die Vergrößerung durch die Optik, also die Zusammenhänge Brennweite, Sensorgröße und Auflösung, schlechthin als Zoom bezeichnet, aber auch die Vergrößerung durch die Anzeige.
Zusammengefaßt:
Das optische Zoom endet damit, daß jedes Pixel des Sensors durch die Optik 1 zu 1 angesteuert wird (100%-Anzeige).
Eine meiner Kompaktkameras, die Canon SX 740, hat eine Auflösung
von 5184 mal 3456 Pixel und ein optisches Zoom von 40,
kleinbildäquivalente Brennweite 720 mm.
Das entspricht etwa einer Auflösung von 18 Megapixel.
Nun sind 18 Megapixel als Auflösung sehr viel, vgl. meinen Beitrag zu Smartphone Samsung Galaxy S23 ultra.
Wenn ich ein Bild dazu aufnehme und dieses Bild auf meinem 4k-Bildschirm 1:1 darstelle, wird nur ein Teil des Bildes dargestellt. Der Teil errechnet sich durch das Verhältnis Auflösung des Bildschirmes durch Auflösung des Bildes unter Berücksichtigung der unterschiedlichen Formate 16:9 bzw. 3:2, also
(3840*2160)/(5184*3456)*(16/9)/(3/2)=0,55
Dieser Bildausschnitt stellt eine zusätzliche Vergrößerung dar, die ich noch unter optischer Vergrößerung, sprich optisches Zoom, sehe. Mein Beitrag zur 100%-Ansicht kann hier hilfreich sein.
Vergrößerungen gehen mit dem Quadrat der Auflösung einher,
d. h. wenn ich die oben genannten 18 Megapixel 1:1 auf einem
full HD Bildschirm 1920 mal 1080, also etwa 2 Megapixel, darstelle,
ergibt sich ein Bildausschnitt mit einer opptischen Vergrößerung
von etwa 3, d. h. die Kamera Canon SX740 hat bei 1:1-Darstellung auf
einem full HD Bildschirm eine optische Vergrößerung von etwa 120.
Deshalb versucht man bei den Handykameras das optische Zoom dadurch zu vergrößern, in dem man die Auflösung der Sensoren erhöht.
Mein Handy, ein Oppo Reno 2 Z, hat eine Hauptkamera, Weitwinkel, feste Brennweite, mit 48 Megapixel Auflösung. Wenn ich Bilder in diesem Modus aufnehme und auf meinem 4k-Bildschirm 1:1 darstelle, habe ich eine optische Vergrößerung von etwa 2,4 fach, obwohl das Handy keine Telekamera hat.
Das Samsung Galaxy S23 ultra hat eine Telekamera mit 10 fach optischem Zoom, Brennweite kleinbildäquivalent 230 mm, der Sensor hat eine Auflösung von 10 Megapixel, also nur etwas höher als der 4k Bildschirm mit seinen etwa 8 Megapixel, d. h. bei diesem Handy ist mit 10 fach optischem Zoom und Betrachtung 1:1 auf einem 4k Bildschirm mit reichlich 10 facher Verstärkung etwa Schluß. Bei Betrachtung auf einem full HD Bildschirm erhöht sich die optische Verstärkung auf reichlich 20 fach.
10 fach optisches Zoom ist momentan bei Handys das höchste
mir bekannte Zoom.
Aber unter Berücksichtigung des vorher Beschriebenen kommen die neuesten Handys trotzdem zu höheren optischen Vergrößerungen.
Das Samsung Galaxy S25 ultra hat zwar bei der 2. Zoomkamera nur noch eine kleinbildäquivalente Brennweite von 115 mm, also 5 fach Zoom, aber der Sensor hat eine Auflösung von 50 Megapixel. Vorausgesetzt die Pixel werden 1:1 verwendet, d. h. es wird kein Pixelbinning angewendet, ergibt sich auf Grund der hohen Auflösung des Sensors eine zusätzliche optische Vergrößerung von reichlich 2 fach, d. h. bezogen auf die Darstellung auf einem 4k Bildschirm beträgt der optische Zoom insgesamt reichlich 10.
Wenn man das Ganze auf einem Full HD Bildschirm mit 1920 mal 1080 Pixel, also etwa 2 Megapixel, 1:1 betrachtet, erhöht sich die optische Vergrößerung nochmals um etwa 2, so daß man bei dem Samsung Galaxy S25 ultra für die 2. Telekamera von einer optischen Vergrößerung von etwa 20 sprechen kann.
Nun gibt es mittlerweile Telekameras von Handys die mit 200 Megapixel arbeiten. Dadurch wird die optische Vergrößerung/Zoom gegenüber einemSensor mit 50 Megapixel nochmals um den Faktor 2 erhöht.
Diese Zusammenhänge sollte man verstehen, um den teils unterschiedlichen Aussagen zu den Kameras der Handys folgen zu können.
Das Smartphone besitzt insgesamt 5 Kameras, 4 auf der Rückseite, eine auf der Vorderseite, für Selfies. Auf die Kamera auf der Vorderseite gehe ich hier nicht weiter ein.
Jede Kamera ist eigenständig, das heißt hat eine Optik mit fester Brennweite und fester Blende und einen Sensor.
Eine Kamera wird hinreichend beschrieben durch Brennweite, Blende, Sensorgröße und Auflösung, heißt Anzahl der Pixel.
Erläuterungen nach der Tabelle.
Erläuterungen
Brennweite
Die Brennweiten der Kameras werden kleinbildäquivalent angegeben. Die tatsächlichen physikalisch gegebenen Brennweiten errechnen sich über den Cropfaktor. Der Cropfaktor errechnet sich über die Abmessungen/Kantenlängen der Sensoren, also bspw. lange Kantenlänge Kleinbild 36 mm durch lange Kantenlänge des eingesetzten Sensors.
Die tatsächliche Brennweite beträgt dann Brennweite kleinbildäquivalent durch Cropfaktor.
Bei der Hauptkamera ergibt sich für den Cropfaktor etwa 3.62, d. h. die tatsächliche Brennweite beträgt 23/3.62, also 6.35 mm. Für die anderen Kameras entsprechend.
Blende
Die Blende F beeinflußt die Öffnung des Objektives, durch die das Licht in die Kamera auf den Sensor kommt.
Der Durchmesser der Blendenöffnung ist f/F, also für die Hauptkamera z. B. 6,35/1,7= 3,7 mm
Für eine Vollformatkamera mit f=50mm und F=2 ergibt sich ein Durchmesser der Blendenöffnung von 25 mm.
Die Objektivöffnungen verhalten sich wie (25/3,7)^2=45.
Man sieht, wie lichtschwach so kleine Optiken sind, aber man sieht auch, was aus den kleinen Optiken durch Innovationen herauszuholen ist, es ist enorm und bis vor einigen Jahren schier undenkbar.
Sensorgröße
Die Sensorgröße wird zwar in Zoll angegeben, das ist aber etwas irreführend, hat einen geschichtlichen technischen Grund. Ein 1 Zoll Sensor hat z. B. eine Diagonale von etwa 16 mm, hat also nichts mit dem Maß 1 Zoll zu tun.
Deshalb werden hier zusätzlich die Abmessungen der Sensoren in mm angegeben. Die Angaben in mm sind etwa-Werte.
Auflösung
Die Auflösung ergibt sich durch die Anzahl der Pixel auf den Sensoren. Wenn man annimmt, daß die einzelnen Pixel Rechteckform haben, kann man die Größe eines Pixels abschätzen.
Bei der Hauptkamera ist die Größe eines Pixels weniger als 1 qmikrometer. Man bewegt sich hier im Grenzbereich. Die hohe Auflösung macht nur Sinn, wenn sehr gute Lichtverhältnisse herrschen.
Da diese Auflösung in der Regel nicht erforderlich ist, gibt es das sogenannte Pixelbinning.
Pixelbinning bedeutet, daß jeweils mehrere benachbarte Pixel des Sensors zusammengefaßt werden. Dadurch entstehen für die Bilder weniger, aber größere Pixel.
Das hat sowohl für die Bildqualität als auch für die Bildgrößen Auswirkungen, die Bildqualität wird besser und der Speicherbedarf wird kleiner.
Bei dem Pixelbinning werden jeweils zusammenhängende Pixel zusammengefaßt, also bspw. 2 mal 2, also 4 oder 3 mal 3, also 9, oder 4 mal 4, also 16.
Aus den 200 Megapixeln des Sensors der Hauptkamera werden dann 200/4, also 50 Megapixel, immer noch sehr hoch, oder 200/9, also etwa 22 Megapixel bzw. 200/16, etwa 12 Megapixel.
12 Megapixel sind an sich übliche und oft ausreichende Pixel. Deshalb haben die übrigen Kameras des Smartphones auch nur Auflösungen von 10 bis 12 Megapixel, es wird kein Pixelbinning angewendet.
Ob und welches Pixelbinning bei der Hauptkamera angewendet wird, entscheidet die Kamera. Es gibt aber eine Einstellung für die Anwendung der hohen Auflösung, diese Einstellung steht in der Kamera-App oben unter 12 Megapixel, man muß 12 Megapixel antippen und dann 200 Megapixel wählen. 200 Megapixel ist aber nur beim Format 4:3 möglich.
Noch zur Erläuterung der Auflösung.
Es gibt beim Fernsehen das SD-Format, da wird mit etwa 700 mal 500 Pixel gearbeitet, das ist eine sehr geringe Auflösung, trotzdem wird noch viel in diesem Format gesendet.
Das sogenannte HD-Format beim Fernsehen arbeitet mit einer Auflösung von 1320 mal 768 Pixel, also reichlich 1 Megapixel.
Das sogenannte full HD Format arbeitet mit 1920 mal 1080 Pixel, also reichlich 2 Megapixel.
Das sogenannte 4k-Format arbeitet mit etwa 4000 mal 2000 Pixel, also 8 Megapixel.
Man sieht, daß die Auflösungen der anderen Kameras mit 10 bzw. 12 Megapixel für viele Anwendungen ausreichend sind.
In der Foto-App kann man unter den Einstellungen /mehr/Details die Abmessungen lesen, bei meiner Kamera Oppo Reno 2 Z werden im 48 MP-Modus 8000 mal 6000 Pixel angegeben.
Bei der Kamera des Galaxy S23 ultra mit 200 Megapixel werden bei Bildern, die in diesem Modus aufgenommen worden sind, etwa 16000 mal 12000 Pixel angezeigt.
Das gilt allerdings nur für das Format 4/3.
Das Tele 2 arbeitet mit einem sogenannten Periskop. Die Technik wird bei U-Booten verwendet, siehe da.
Im Periskop wird der Strahlengang der Optik, der normalerweise in einer Richtung verläuft, gewissermaßen um die Ecke geführt. Dazu werden Spiegel oder Prismen, bei denen Totalreflexion angewendet wird, eingesetzt.
Auf Grund der flachen Bauweise der Smartphones ist das bei Tele ggfs. erforderlich, um die Optik insgesamt im Gerät unterzubringen.
Zu den bei Kameras verwendeten Begriffen Tele/Zoom ist folgendes zu bemerken:
Hier wird mit Tele nicht ab der Normalansicht, sondern ab Weitwinkel gearbeitet.
Bei Ferngläsern wird das anders gehandhabt, hier wird von der Normalansicht ausgegangen.
Die Brennweite kleinbildäquivalent fkb für die Normalansicht beträgt etwa 50 mm.
Das heißt, für die Tele1-Kamera mit fkb=70 mm wird eigentlich eine Vergrößerung von 3 fach vorgetäuscht, bezogen auf die Normalansicht beträgt die Vergrößerung nur 1.4 fach.
Entsprechend ist es bei der Tele2-Kamera mit fkb=230 mm, bezogen auf Weitwinkel fkb=23 mm ist die Vergößerung 10, bezogen auf die Normalansicht ist die Vergrößerung nur 4.6 fach.
Meine letzten Beiträge sind schon Jahre zurückliegend. Grund ist die rasante Entwicklung der Handykameras und gleichzeitig die Stagnation bei Kompaktkameras. Ich schätze ein, daß dieser Entwicklungsrückstand bei Kompaktkameras nicht mehr aufgeholt werden kann.
Ergänzend zu meinem Beitrag HDR high dynamic range möchte ich über weitere Erfahrungen dazu mit meinen Kameras berichten, insbesondere zur Panasonic Lumix TZ 91
Zunächst noch zur Technik und zu deren Dokumentation.
Bei der HDR-Einstellung werden wie beschrieben 3 Bilder hinter einander aufgenommen und kameraintern zu einem Bild zusammmengesetzt.
Im Ergebnis etlicher Hochgebirgsaufnahmen mit extrem kurzen Belichtungszeiten kam es trotzdem selbst bei wenig beweglichen Motiven zu „Schattenbildungen“, d. h. Personen werden doppelt bzw. mehrfach abgebildet.
Das kann ich mir nur so erklären, daß die Zeitabstände zwischen den Aufnahmen zu groß sind. Bei Belichtungszeiten von 1/2500 bspw. ist das nicht so richtig nachvollziehbar.
Leider gibt es in den Metadaten der Bilder bei Verwendung
der HDR-Funktion nur den Hinweis exposure mode auto bracket.
Angaben zu den Zeitabständen zwischen den Aufnahmen fehlen.
Unter vergleichbaren Bedingungen sind die HDR-Ergebnisse der
Olympus SH2 wesentlich unproblematischer als
die der Panasonic Lumix TZ 91.
Zwei Beispiele mit der Panasonic Lumix TZ 91.
Jeweils mit 1/2500 Belichtungszeit aufgenommen.
Es ist deutlich zu erkennen, daß die Einzelbilder an sich scharf sind, aber dadurch, daß die Einzelbilder in großen zeitlichen Abständen aufgenommen worden sind, die Einzelbilder getrennt dargestellt werden.
Ich verwende deshalb bei der Kamera Panasonic Lumix TZ 91 die HDR-Funktion nicht mehr.
Im Zuge der Modernisierung meiner Handys habe ich ein Smartphone Typ OPPO RENO 2 Z gekauft. Dem Trend entsprechend enthält dieses Smartphone fortschrittliche Fotografietechnik.
Für mich als Hobbyfotograf war/ist es interessant, das Vermögen des Smartphones hinsichtlich Fotografie mit meinen Kompaktkameras zu vergleichen.
Das Smartphone OPPO RENO 2 Z hat verschiedene Objektive. Wann welches Objektiv zum Einsatz kommt, entscheidet im wesentlichen das Gerät selbst.
Das Hauptobjektiv hat eine Brennweite von 4.73 mm und eine Blende 1.7, jeweils fest, also kein optisches Zoom, kein Abblenden…
Die Brennweite entspricht etwa Weitwinkel 25 mm Kleinbildformat.
Meine Kompaktkameras/Superzoomkameras und die Hauptkamera dieses Smartphones haben etwa einen gleich großen Chip, so daß der Vergleich übersichtlich wird.
Das Bildformat kann gewählt werden:
– Standard 4 : 3, 3 : 4, Auflösung 4000 X 3000, 3000 X 4000 px
– Vollbild Auflösung 4000 X 1840, 1840 X 4000 px
– hochauflösend 4 : 3, 3 : 4, Auflösung 8000 X 6000, 6000 X 8000 px
Die Hauptkamera des Smartphones kann also 48 Megapixel auflösen. Das ist sehr viel, aber es bezieht sich auf die Weitwinkeleinstellung.
Das Smartphone läßt vor der Aufnahme digitales Zoomen zu, allerdings bei der Einstellung hochauflösend nicht, d. h. die optische Auflösung entsprechend 48 Mpx ist die Grenze.
Bevor ich zu einigen Bildvergleichen komme noch eine Abschätzung zu den rechnerisch erreichbaren Auflösungen:
Weitwinkel entsprechend 25 mm KB 48 Mpx
Normal entsprechend 50 mm KB 12 Mpx
Tele entsprechend 100 mm KB 3 Mpx
Das Smartphone zeichnet zwar auch bei Tele entsprechend 50 mm KB (2x) , 125 mm KB (5x) und 250 mm KB (10x) mit 12 Mpx auf, aber eben digital.
Zum Vergleich die Panasonic TZ 91 bietet durchgängig von 24 bis 720 mm KB etwa 20 Mpx, und das optisch.
Nun zu Bildvergleichen:
Links werden die Aufnahmen mit dem Smartphone angeordnet, rechts die mit der Superzoomkamera. Es werden verschiedene Bilder in unterschiedlichen Gegenstandsweiten mit dem Smartphone aufgenommen, dann wird bei gleichen Gegenstandsweiten mit der Kamera die gleiche Bildgröße durch optisches Zoomen dargestellt.
Wegen der begrenzten Darstellbarkeit auf WordPress wird wieder mit Ausschnitten gearbeitet.
„Versuchsaufbau“
……………………..
Zur Beurteilung wird das Testbild jeweils ausgeschnitten und beurteilt.
Gegenstandsweite 1 m
Smartphone, 4000×3000, digitales Zoom 1 fachTZ91, Brennweite 24 mm KB
………………………………
Smartphone, 4000×3000, digitales Zoom 2 fachTZ91, Brennweite 50 mm KB
………………………………
Smartphone, 4000×3000, digitales Zoom 5 fachTZ91, Brennweite 125 mm KB
Smartphone 48MPX, Brennweite etwa 25 mm KBTZ91, Brennweite 250mm KB
…………………………
Gegenstandsweite 10 m
Smartphone, Ausschnitt aus 8000×6000TZ91, Brennweite 720 mm KB
…………………………….
Hier noch einmal das Original vom Smartphone, 8000×6000 Pixel, Gegenstandsweite 10 m:
Smartphone, Original/Komprimierung auf 2 MB, Gegenstandsweite 10 m
Das Original hat bei normalem Betrachtungsabstand eine hervorragende Bildqualität. Beim Vergleich der Ausschnitte sieht man allerdings die Unterschiede, da kann das Smartphone mit seiner Festbrennweite von 25 mm KB mit den Telebrennweiten der TZ91 selbstverständlich nicht mithalten.
Das Smartphone OPPO RENO 2 Z macht im Weitwinkelbereich 25 mm entsprechend Kleinbild sehr gute Bilder.
Der Vergleich zeigt allerdings auch, daß optischer Zoom hier im Beispiel der Panasonic TZ91 durch digitalen Zoom des Smartphones nicht ausgeglichen werden kann.
Da das Format zum Abspeichern der Bilder wesentlich für die Qualität der Bilder ist, möchte ich nach längerer Praxis erneut darauf eingehen.
Ich hatte mich grundsätzlich dafür entschieden, das jpg-Format zu verwenden und dieses über Lightroom in das dng-Containerformat einzubetten, d. h. in der Regel das raw-Format nicht zu verwenden.
Diese meine Entscheidung möchte ich wieder einmal überprüfen.
Dazu habe ich ein Bild mit der Kamera Panasonic TZ 91 in höchster Auflösung aufgenommen, abgespeichert in der Kamera im jpg-Format höchste Qualität und im raw-Format.
Das Bild wurde mit meinen verschiedenen Möglichkeiten entwickelt:
– jpg der Kamera in höchster Qualität, Lightroom, eingebettet in dng
– raw der Kamera, über Adobe dng-Converter, gewandelt in dng
– raw der Kamera über Silkypix Developer Studio 8 SE …..– in tif, 8 bit …..– in tif, 16 bit …..– in jpg höchste Qualität ……..jeweils danach über Lightroom in dng
Auf Grund der begrenzten Darstellungsmöglichkeit hier in WordPress werden wieder Ausschnitte verwendet. Die Ausschnitte wurden aus den 200%-Ansichten (4k-Monitor, vgl. meinen Beitrag zu 100%-Ansichten) ausgeschnitten.
Ausgangsbild, Rahmen kennzeichnet die folgenden Ausschnitterawdngconverterlightroom-jpgdng, gekennzeichnet durch eine typische jpg-Strukturierung silkypix-rawtif8bitdngsilkypix-rawtif16bitdngsilkypix-rawjpgdng, das Ergebnis ist besser als jpg aus der Kamera, das jpg-Typische verschwindet weitgehend.
………………………………………………………………………………………
Für die Kamera Panasonic TZ91 führen die hier aufgeführten raw-Konvertierungen zu vergleichbaren Ergebnissen. Das jpg-Format aus der Kamera schneidet etwas schwächer ab, reicht aber in der Regel aus.
Der Adobe dng-Converter führt zu einer recht regelmäßigen Strukturierung,
erfordert aber hinsichtlich Glättung dieser Strukturen etwas zusätzlichen Aufwand.
Bilder ggfs. anklicken, Grafik anzeigen, nach Wunsch zoomen.
Grundsätzlich bleibe ich bei meiner Entscheidung, das jpg aus der Kamera in höchster Qualität zu verwenden
Es geht hier nicht um die eigentliche HDR-Technik, darüber wird an anderen Stellen, z. B. unter wikipedia, geschrieben.
Hier geht es um Folgendes:
Bilder von Motiven, bei denen sehr dunkle und sehr helle Bereiche vorhanden sind, bedürfen einer Nachbearbeitung, damit auf üblichen Darstellungsmedien wie Ausdrucke, Beamer, aber auch normale Monitore insbesondere mit Raumlicht beide Bereiche gut zu erkennen sind.
Dunkle Bereiche müssen aufgehellt werden, helle Bereiche müssen abgedunkelt werden.
Damit stoßen die Programme zur Nachbearbeitung an ihre Grenzen.
Aber auch die Kameras stoßen an ihre Grenzen, den abbildbaren Lichtwertbereich betreffend.
Beim Aufhellen der dunklen Bereiche ist außerdem zu berücksichtigen, daß verstärktes Bildrauschen auftreten kann.
Um diese Grenzen zu erweitern und die Abbildung zu verbessern , wird unter dem Begriff HDR folgendes gemacht:
Es werden verschieden belichtete Bilder zu einem Ergebnisbild zusammengesetzt. Dabei werden aus überbelichteten Bildern vornehmlich die dunklen Bereiche, die dadurch aufgehellt sind, und aus unterbelichteten Bildern die hellen Bereiche, die dadurch abgedunkelt sind, zum Ergebnisbild zusammengesetzt. Das Ergebnisbild wird dabei hinsichtlich seiner Dynamik so begrenzt, daß die Darstellung auf den o. g. Darstellungsmedien verbessert wird.
Bezogen auf das Programm Adobe Lightroom kann man das etwa so verstehen, daß die Möglichkeiten der Tonwertsteller für Belichtung, Kontrast, Lichter, Tiefen usw. in den Grundeinstellungen des Entwicklungsmoduls zur Verbesserung der zu dunklen und zu hellen Bildbereiche nicht ausreichen und deshalb mittels dieser HDR-Technik nachgebessert werden kann.
Meine Kompaktkameras haben zum Teil HDR-Funktion, es werden jeweils 3 Bilder zusammengesetzt und ein Ergebnisbild ausgegeben. Die Ergebnisbilder werden im jpg-Format ausgegeben. Die Erweiterung um Lichtwerte ist z. T. einstellbar und reicht bis +- 3 LW. Was dann gemacht wird, entscheidet die Kamera, man hat selbst nur wenig oder keine Einflußmöglichkeiten.
Die Sony RX100 gibt bei Wahl HDR 2 Bilder aus, eines mit HDR, eines ohne. Das finde ich nützlich, sieht man doch sofort die Unterschiede.
Mehr Möglichkeiten hat man, wenn man Belichtungsreihen aufnimmt, und die Bilder mit einem entsprechenden Programm zusammensetzt.
Ich habe das Programm tufuseprogekauft, verwende es aber selten, weil der Aufwand mit Belichtungsreihen hoch ist.
Das Programm verarbeitet als Eingangsdateien sowohl tif (für raw), als auch jpg, die Ergebnisdatei wird im tif-Format ausgegeben.
Es gibt eine Anzahl von Optionen, mit denen in der Struktur Feinheiten verändert werden können (Schatten usw.).
Dadurch, daß mehrere Bilder nacheinander aufgenommen werden, verlängert sich die Gesamtbelichtungszeit, d. h. die einzelnen Belichtungszeiten müssen entsprechend kurz sein oder man muß mit Stativ arbeiten. Für bewegte Motive ist diese Technik kaum geeignet.
Typische Einsatzfälle sind Motive wie bspw. Innenaufnahmen mit Blick aus Fenstern ins Helle, auch umgekehrt Außenaufnahmen mit Blick in dunklere Innenräume, Außenaufnahmen mit Sonne und Schatten, insbesondere Hochgebirgsaufnahmen mit Schnee in der Sonne und im Schatten liegende Felsflächen.
Dazu eine Hochgebirgsaufnahme, die ich leichtsinnigerweise mit der
Olympus SH2/Scene/HDR ohne vorherige Erprobung gemacht habe.
mit Olympus SH2, kamerainternerHDR aufgenommen
Das Bild zeichnet noch zu sehr schwarz weiß.
zur Veranschaulichung dieser HDR-Wirkung wurde das Bild mit tufusepro/Option als „Pseudo-HDR“ überarbeitet
Unter Pseudo-HDR ist zu verstehen, von dem Bild werden unter- und überbelichtete Abzüge gemacht und dann mit dem Original kombiniert.
Im Ergebnis ist zu sehen, daß die Struktur des Ergebnisbildes verbessert ist.
Hier noch ein nicht ganz zeitgemäßes Motiv, bei dem aber der HDR-Einfluß gut zu sehen ist.
Sony RX100, normalSony RX100, HDR, +- 3 LW
Ich glaube, auch an diesem Beispiel ist der HDR-Effekt gut zu erkennen.
Da der Beitrag meiner Webseite „In welchem Dateiformat nehme ich meine Bilder auf und wie speichere ich sie ab“ relativ oft aufgerufen wird, möchte ich hier noch einmal meine praktischen Erfahrungen mit dem Adobe-dng-Format zusammenfassen. Wohlgemerkt, das sind praktische Erfahrungen.
1. Das Adobe-dng-Format ist ein non destructives Format, d. h. die Bildbearbeitung geht immer von dem Ausgangsbild aus, das angezeigte Bild wird mit den Einstellungen, die im Bildbearbeitungsprogramm Adobe Lightroom gewählt worden sind, bei Anzeige entwickelt. Die Anzeige des entwickelten Bildes dauert deshalb etwas, insbesondere wesentlich länger als der Aufruf eines Bildes in destructivem Format wie bspw. tif oder jpg, denn diese Bilder in diesen Formaten sind nach der Bildbearbeitung und Abspeicherung fertig.
Allerdings haben diese destructiven Formate den Nachteil, daß nach dem Abspeichern des bearbeiteten Bildes der Ausgangszustand verloren geht.
Um den Bildaufruf für dng zu verkürzen, sieht das Adobe-dng-Format vor, Vorschaubilder in voller Größe einbetten zu können. Diese Vorschaubilder in voller Größe repräsentieren den letzten Bearbeitungsstand und entsprechen jpg-Bildern in hoher Qualität.
2. Das Adobe-dng-Format ist gewissermaßen ein tif-Format, d. h. jedem Pixel wird der entsprechende Wert zugeordnet.
Im Unterschied zum tif-Format, bei dem die Auflösung gewählt werden kann, 8, 8, 8 bit oder 16, 16, 16 bit, und dann fest ist, ist die Auflösung der Werte zu den Pixeln beim dng-Format nicht fest sondern gleitend, d. h. während das tif-Format bspw. bei Einstellung 16, 16, 16 bit den Inhalt jedes Pixels mit 16, 16, 16 bit aufzeichnet und damit zu sehr großen Dateien führt, zeichnet das dng-Format nur das auf, was vom eingegebenen Format verlangt wird. Wenn das eingegebene Bild nur 8, 8, 8 bit auflöst, wird nur in 8, 8, 8 bit aufgezeichnet, also gewissermaßen ein tif mit 8, 8, 8 bit Auflösung, die Dateigröße ist entsprechend wesentlich kleiner.
3. Adobe-dng ist nicht nur ein Format zur Vereinheitlichung von verschiedenen raw-Formaten, sondern auch ein Format, das verschiedene andere Formate aufnehmen kann. So kann z. B. das jpg-Format aufgenommen werden.
Dadurch wird das jpg-Format, das an sich destructiv ist, non destructiv.
Die Werte der Pixel vom jpg-Format werden vom dng-Format exakt als Ausgangszustand übernommen. Änderungen, die im non destructiven dng-Format vorgenommen werden, beziehen sich auf diesen Ausgangszustand des jpg-Formates.
Es können auch noch andere Formate wie bspw. png oder pse und natürlich tif in den verschiedenen Auflösungen in dng übernommen werden.
4. Adobe Lightroom Version 5.7 löst im Entwicklungsmodul mit 10, 10, 10 bit auf. Je nach dem ob das dng-file aus einem raw-Format oder einem anderen Format gebildet wurde, sehen die Grundeinstellungen im Entwicklungstool im Bereich Weißabgleich etwas verschieden aus, und es betrifft die Auflösung.
Während bei raw die Farbtemperatur in Grad von 2000 bis 50000, also absolut, aufgelöst wird, wird diese bei jpg und ähnlichen Nicht-raw-dng-Dateien mit +-100 relativ aufgelöst. Bei der Tönung ist der Unterschied noch geringer, bei raw +- 150, bei jpg… +- 100.
Im praktischen Arbeiten konnte ich keine störenden Unterschiede feststellen.
5. Mein Arbeitsablauf mit jpg sieht damit einheitlich in Stichpunkten so aus:
– Bilder im jpg-Format nach Lightroom importieren
– exportieren im dng-Format, gleicher Ordner, dabei voreingestellt —„Vorschau in voller Größe“
– weitere Bearbeitung in Lightroom
Liebe Nutzer dieser Webseite, bitte habt Verständnis dafür, daß ich eigentlich nur Kommentare zur Sache freigeben will.
Ich möchte vermeiden, daß ich für andere Webseiten, z. B. Werbung für Immobilienkäufe… Plattform zur Verbreitung werde.
Also ich bin sehr dankbar, wenn meine Beiträge sachlich kommentiert werden, und verspreche dann auch rasch und sachlich zu antworten.
Das heißt, wenn ich mir nicht sicher bin, entferne ich die Links aus euren Kommentaren.
Leider mußte ich Spam filtern, schade, aber…
Ich schaue mir die als Spam gefilterten Kommentare an sich an.
Möglicherweise wird aber auch mal ein sachlicher Kommentar als Spam markiert. Wer meint, davon betroffen zu sein, möchte sich bitte in geeigneter Weise bemerkbar machen.
Leider gibt es außer Spam kaum Kommentare. Die als Spam gefilterten Kommentare enthalten immer ähnliches Muster, kein sachlicher Inhalt, nur Lobhuddelei, sprich honeypot. Inzwischen werden solche „Kommentare“ ungelesen gelöscht.
Habe die Kommentarfunktion gesperrt, um Spam zu vermeiden.
Wer Fragen hat, bitte in geeigneter Weise bemerkbar machen.
Habe die Kommentarfunktion versuchsweise wieder frei geschaltet.
Leider immer wieder Spamversuche.
Spamversuche nehmen wieder zu, vermutlich Corona-bedingt, Filter verschärft.
Immer noch Spam, deshalb Kommentarfunktion wieder gesperrt.
Wer ernsthaft kommentieren möchte, bitte E-Mail-Adresse im Impressum nutzen.
Da meine Themen zu raw- und jpg-Format recht häufig angeschaut werden und es im Netz dazu teils recht widersprüchliche Aussagen bzw. Behauptungen gibt, möchte ich dazu weiter ergänzen.
Da gibt es z. B. die Behauptung, das raw-Format würde gegenüber dem jpg-Format eine größere Dynamik bieten. Das ist falsch, Dynamik bedeutet in Analogie zur Musik, bei der hohe Dynamik großer Abstand zwischen laut und leise bedeutet, in der Fotografie der Abstand zwischen hell und dunkel, d. h. ein Bild, das zwischen sehr hell und sehr dunkel abbildet, hat eine hohe Dynamik.
Die mögliche Dynamik, um bei dem Begriff zu bleiben, ist bei den Formaten raw und jpg etwa gleich.
Der Unterschied zwischen den Formaten besteht in der Auflösung und natürlich darin, daß jpg verlustbehaftet ist, raw üblicherweise nicht.
Das jpg-Format löst mit RGB 8,8,8 bit also insgesamt 24 bit auf, raw-Formate lösen höher auf, z. B. RGB 12,12,12 bit, insgesamt 36 bit bis hin zu 14,14,14, möglicherweise noch höher.
24 bit Auflösung bedeutet 16.7 Millionen Unterscheidungen zwischen schwarz über die Farben und weiß. Das ist schon recht viel.
Aber nun dazu, daß das jpg-Format verlustbehaftet ist.
Das jpg-Format kann bzgl. der Verluste eingestellt werden, von gering bis hoch, in manchen Programmen werden auch Zahlen verwendet,
z. B. 1 für hohe Verluste, 12 für geringe Verluste, was das absolut bedeutet, ist mir nicht bekannt.
Vom Prinzip her arbeitet jpg ähnlich wie aus der Musik bekannte Kompressionsverfahren, z. B. mp3.
Man kann es etwa so verstehen, ein Pixel hat einen bestimmten Wert, das benachbarte Pixel hat einen anderen Wert. Wenn die Abweichung zwischen diesen Pixeln kleiner sind als es die Verlusteinstellung vorsieht, werden die beiden Pixel mit gleichem Wert gespeichert, obwohl sie nicht ganz gleich sind.
Das ist auch der Grund dafür, warum weiße oder schwarze Bilder trotz hoher Qualität zu jpg-Dateien sehr geringer Größe führen.
Es gilt also zu beurteilen, ob die auf diese Weise berechneten Pixel sich ausreichend gering unterscheiden, so daß die damit berechneten Bilder ausreichend aufgelöst dargestellt werden.
Selbstverständlich löst ein verlustloses raw-Format feiner auf als ein verlustbehaftetes jpg-Format, es geht deshalb darum, ob das jpg-Format ausreichend auflöst.
Meine Kameras Panasonic TZ91, Olympus SH2 und Sony RX100 gestatten die Einstellung, daß raw-Dateien und jpg-Dateien in hoher Qualität in der Kamera erzeugt werden. Darauf nehme ich dann auch Bezug, wenn ich zu Beispielen komme.
Scheinbar hat sich da in den letzten Jahren auch etwas getan, meine Sony RX100, schon etwas älter, erzeugt bei vergleichbaren Motiven jpg-Dateien von etwa 5 MB, die Panasonic TZ91 dagegen schon über 10 MB, obwohl sie weniger Pixel unterstützt.
Die raw-Dateien können auf verschiedene Art und Weise in übliche Dateiformate konvertiert werden, vgl. meine Ausführungen dazu.
Trotzdem möchte ich hier noch einmal ausdrücklich auf das von Panasonic mitgelieferte Programm Silkypix verweisen. Mit diesem Programm können die raw-Dateien der Panasonic TZ91 konvertiert werden, entweder man wählt tif mit 16,16,16 bit Auflösung, wenn man der Meinung ist, es muß das raw-Format voll ausgenutzt werden (führt allerdings zu sehr großen Dateien, hier über 100 MB), oder man wählt jpg. Da hat man Möglichkeiten, die zu sehr gering verlustbehafteten Bildern führen.
Soviel noch einmal zusammengefaßt und ergänzt.
Jetzt geht es um Beispielbilder, an Hand derer versucht wird, den Unterschied zwischen raw und jpg sichtbar zu machen.
Verglichen werden Bilder in raw und jpg in hoher Qualität, so wie sie aus den Kameras kommen. Da ich grundsätzlich mit dng arbeite, werden beide Formate jeweils in das non destructive Dateiformat dng gewandelt.
Die raw-Dateien werden mit dem Adobe-dng-Converter konvertiert.
Die jpg-Dateien werden über Adobe Lightroom in dng konvertiert.
Die Bilder werden in Lightroom nachbearbeitet, meinen Vorstellungen entsprechend angeglichen. Es geht hier aber nicht um den letzten Schliff, nur um das Prinzipielle.
Dann wird verglichen. Beim Vergleichen muß berücksichtigt werden, daß die Darstellung hier im Netz begrenzt ist, d. h. es wird wieder mit Ausschnitten gearbeitet. Diese Ausschnitte sind Teil der zu beurteilenden Bilder, die Darstellung erfolgt weitgehend ohne Verluste (png-Format).
Zunächst Ablichtungen des Testbildes, Ausdruck A4-Format.
Panasonic TZ91, jpgPanasonic TZ91, raw
…………………….. Da WordPress nur Dateien bis 2 MB hochladen kann, können die Gesamtbilder hier nicht genau verglichen werden. Zum genauen Vergleich werden Ausschnitte in dem verlustlosen Format (png) gezeigt. Die Vergrößerung der Ausschnitte beträgt etwa 200 % (4k-Bildschirm).
Trotzderstarken Vergrößerung der Ausschnitte sind die Unterschiede, die ich erkennen kann, gering.
In der Normalansicht und bei entsprechendem Betrachtungsabstand (Abstand etwa Bilddiagonale) erkenneich keine Unterschiede.
……………………… Den raw-Ausschnitt hätte ich etwas mehr schärfen sollen.
OLYMPUS SH2, jpgOLYMPUS SH2, raw
………………………
Olympus SH2, jpgOlympus SH2, raw
……………………
Sony RX100, jpgSony RX100, raw
…………………………..
Sony RX100, jpg, Ausschnitt, pngSony RX100, raw, Ausschnitt, png
………………………………………………………………………………………………….
Abschließend noch einige Aufnahmen zu einer Blume im Winter.
Panasonic TZ91, jpgPanasonic TZ91, raw
……………………….
Sony RX100, jpgSony RX100. raw
……………………….
Zuletzt noch eine Aufnahme mit der Canon SX700, nur in jpg, die Kamera unterstützt kein raw-Format.
Canon SX700, jpg
……
Für die hier angeführten Motive sind die Unterschiede zwischen jpg- und raw-Format gering, d. h. das jpg-Format in hoher Qualität löst ausreichend auf.
Für Motive mit geringer Dynamik, d. h. mit wenig Unterschied zwischen hellen und dunklen Tonwerten, hat das raw-Format sicher Vorteile.
Wenn die Lichtstrahlen beim Fotografieren vom Objekt durch die Optik auf den Chip gelangen, werden sie an der Kante der Blende beeinflußt.
Während der größte Teil der Lichtstrahlen abseits der Kanten geradlinig ohne Ablenkung auf den Chip gelangt und bei richtiger Fokussierung für das scharfe Bild sorgt, wird ein kleiner Teil des Lichtes an der Kante etwas abgelenkt. Dieser Teil des Lichtes, der für die Abbildung es Objektes auf dem Chip unerwünscht ist, sorgt für eine gewisse Unschärfe, genannt Beugungsunschärfe.
Da die Beugung an Kanten erfolgt, ist die Beugung um so stärker, je mehr Kante eine Fläche hat. Bei der kreisförmigen Blende ist die Kante bezogen auf die Fläche dem Durchmesser der Blende umgekehrt proportional, d. h. je kleiner der Durchmesser der Blende desto größer die Beugung.
Und es gibt keine Abhängigkeit von der Brennweite.
Hier möchte ich ein Bild einfügen, daß keinen oder besser gesagt nur einen sehr geringen Bezug zum Thema hat, denn Beugung ist überall und immer.
Radebeuler Bismarckturm oberhalb der Lößnitz-Weinberge
Beugung des Lichtes ist ein seit vielen Jahren bekannter und in der Fachliteratur ausführlich beschriebener physikalischer Effekt.
Bei der Beugung an den fotografischen ringförmigen Blenden bilden sich unerwünschte Ringe um die Lichtstrahlen, so daß der Lichtstrahl trotz einwandfreier Fokussierung auf dem Chip nicht punktförmig abbildet. Diese störenden Ringe werden Beugungsscheiben genannt.
Es wird von Beugungsscheiben gesprochen in einer gewissen Analogie zu den durch unzureichende Fokussierung statt der Punkte entstehenden Zerstreuungskreise, obwohl Art und Entstehung der Beugungsscheiben und der Zerstreuungskreise völlig unterschiedlich sind.
In der Literatur wird folgende zugeschnittene Größengleichung als Näherung für die Berechnung des Durchmessers d der Beugungsscheiben angegeben:
d [ mikrometer ] = 1.35 * Bl mit Bl für die Blende ………..gilt für sichtbares Licht mittlerer Wellenlänge
Für die Stärke des Einflusses der Beugungsscheiben auf die
Bildschärfe ist das Verhältnis der Größe der Beugungsscheiben zur Pixelgröße maßgebend. Je größer die Beugungsscheiben bezogen auf die Pixel sind, desto mehr Unschärfe entsteht durch Beugung.
Je größer die Pixel, desto geringer der Einfluß durch Beugung.
Bei der Beugung sind Kleinbildkameras gegenüber Kompaktkameras im Vorteil, weil die Pixel bei Kleinbildkameras größer sind.
Nun noch etwas zum quantitativen Einfluß der Beugung.
Für die Größe der Pixel wird der Begriff Pixelpitch pp verwendet, entspricht etwa der Größe der Pixel.
Zur Veranschaulichung wird wieder mit verschiedenen Kameras verglichen.
……………………..Kleinbildkamera Sony RX100 Superzooomkamera ……………………..Nikon D750
Pixelpitch pp 6 μm 2.4μm 1.4 μm
Durchmesser d der 29.7/2.7 μm 14.9/2.4 μm 8.6/10.8/4.4 μm
Beugungsscheibe
bei Blende 22/2 11/1.8 6.4/8/3.3
d / pp 4.9/0.45 6.2/1 6.1/7.7/3
Das Verhältnis Beugungsscheibendurchmesser zu Pixelpitch zeigt deutlich die Unterschiede auf, sagt aber noch nichts aus zu den tatsächlichen Werten hinsichtlich Unschärfe.
In der Literatur weichen die Angaben dazu untereinander stark ab, je nach dem wie die Schärfe/Unschärfe definiert wird.
Zur Beurteilung der Bildschärfe verwende ich wieder die oben angegebene Analogie zur Unschärfe durch Streuung, d. h. es wird angenommen, daß bei einem Verhältnis (vgl. auch meine Beiträge zu Schärfentiefe)
Chipabmessungen zu Beugungsscheibendurchmesser ≥ 1500
ausreichend Bildschärfe herrscht.
Das ergibt für die Kameras
…………………….Kleinbildkamera Sony RX100 Superzooomkamera …………………….Nikon D750
Chipdiagonale D 43 mm 15.9 mm 7.7 mm
Durchmesser d 29.7/2.7 in μm 14.9/2.4 in μm 8.6/10.8/4.4 in μm
der Beugungsscheibe
bei Blende 22/2 11/1.8 6.4/8/3.3
D / d 1448/15926 1067/6625 895/713/1750
Wenn man das Ergebnis D/d betrachtet, erkennt man, daß bei der Kleinbildkamera Beugung praktisch kein Problem darstellt, selbst wenn extrem abgeblendet wird.
Bei den Superzoomkameras dagegen fängt der störende Einfluß der Beugung schon fast bei Weitwinkel und Offenblende an.
Meine praktische Erfahrung ist allerdings, daß der Einfluß der Beugung auf die wahrnehmbare Bildschärfe anders als der Einfluß der Streuung ist, was ja auch physikalisch bedingt ist. Der Einfluß erscheint geringer.
Bei der Streuung spielt eine Rolle, ob es sich um Unschärfe in der Tiefe oder allgemein handelt. Normalerweise wird es sich um Unschärfe in der Tiefe handeln, also zu wenig Schärfentiefe. Dagegen kann man von vorn herein etwas tun, in dem man mehr abblendet.
Bei der Beugungsunschärfe erscheint alles unscharf, also insbesondere auch in der Tiefe. Dagegen kann man auch etwas tun, in dem man weniger abblendet, wenn das möglich ist.
Aus diesen gegenläufigen Abhängigkeiten der Bildschärfe von der Blende leitet sich ab, daß es eine optimale Blende gibt, bei der sich Bildunschärfe durch Streuung und Bildunschärfe durch Beugung die Waage halten.
Diese Blende wird förderliche Blende genannt.
Da sowohl die Bildunschärfe durch Streuung als auch die Bildunschärfe durch Beugung Definitionssache sind, ist an sich auch die förderliche Blende Definitionssache.
Jetzt noch der Versuch, die Abhängigkeiten etwas bildlich darzustellen.
Dafür verwende ich normalerweise Ausdrucke eines Testbildes bspw. auf A4-Format, die ich im Garten mit entsprechendem Abstand fotografiere und auswerte.
Im Winter behelfe ich mir auch mit dem 4k-Monitor im Hobbyraum, unterliege dabei allerdings Einschränkungen bzgl. Abstand, d. h. Tele ist problematisch.
Testbild
…..
Ich danke Herrn Altmann, der mir die Verwendung seines Testbildes auf dieser Webseite gestattet.
Bei der Verwendung eines Monitors muß man beachten, daß die darzustellenden Details groß bezogen auf die Monitorauflösung sein sollten, damit es nicht zu Störungen durch die Pixel des Monitors kommt.
Außerdem sollte man bei Skalierungen darauf achten, daß mit 100% oder ganzzahligem Verhältnis dazu skaliert wird, also entweder 100%, 200% oder 50% usw., weil es sonst zu Fehlanzeigen kommen kann.
Die Beurteilung der Ergebnisse im Detail muß an Hand von Ausschnitten erfolgen, weil die Darstellung hier im Netz begrenzt ist.
Die hier aufgeführten Beispiele beziehen sich auf Aufnahmen eines A4-Ausdruckes des Testbildes.
Bei der Beurteilung der Ergebnisse ist zu berücksichtigen, daß Beugung und Fokussierung überlagert Einfluß auf die Bildschärfe nehmen.
Die Auswertung erfolgt so, daß Bild- und Testbildgröße ins Verhältnis gesetzt werden. Außerdem wird ein Linienbereich im Testbild mit der Höhe des Testbildes ins Verhältnis gesetzt. Über die ermittelten Verhältnisse wird eine Liniendichte für das Linienbereich berechnet. Diese Werte werden jeweils dem Testbild und dem Ausschnitt mit dem Linienbereich zugeordnet. Angezeigt werden Ausschnitte zum Testbild und zum genannten Linienbereich. Die Linienbereiche werden verglichen.
Die Angabe zu den Linienpaaren bezieht sich auf die Bildhöhe.
Es wurden so die drei Superzoomkameras beurteilt, und es sei noch einmal ausdrücklich betont, es geht hier nur um den Einfluß der Beugung.
Da die Superzoomkameras diesbezüglich etwa gleich sind, wird hier beispielhaft hauptsächlich das Ergebnis der Canon gezeigt.
………………………………………….. Hier noch Ausschnitte der Panasonic TZ91 zum Vergleich, die Ergebnisse sind etwas anders, was ich in meinem Beitrag „womit nehme ich meine Bilder auf“ schon beschrieben habe.
…………………………….
Bei Blende 6.3, 1249 Lp ist nur noch grau zu erkennen, die Linien verschwimmen infolge der Beugung vollkommen.
Bei Blende 3.2, 1249 Lp sind noch deutliche Reste der Linien zu erkennen, selbst bei Blende 3.2, 1420 Lp sind noch Andeutungen der Linien zu erkennen.
Ich denke, daß damit der Einfluß der Beugung in Anhängigkeit von der Blende doch mit recht einfachen Mitteln veranschaulicht werden kann.
Um Unschärfe durch Beugung so gering wie möglich zu halten, sollte so wenig wie möglich abgeblendet werden.
Das gilt um so mehr, je kleiner der Chip der Kamera ist.