Ich kommentiere auf TH-cam nur äußerst selten, aber eure Objektiv-(oder besser Optik/Fotografie-) Reihe ist einfach super und verdient großes Lob. Das Grundlagenwissen über Zusammenhänge und Ursache in der Fotografie bringt sonst niemand. Top, bitte bitte weiter so!
Super Interview. Hat wieder mal viel Licht ins Dunkel gebracht. Erklärt viele Dinge wo man vorher nur so eine Vermutung hatte. Thematische Extraklasse! Ich liebe euch beide dafür, sehr geil.
Ihr seid so der Hammer,da hauts einem echt den Vogel raus :-D Das ist mal wieder so eine Folge,die man sich 5 mal auschauen sollte! Irre spannend und interessant,es gibt für mich nichts vergleichbares im TH-cam Fotografiekanal Universum! Danke,für dieses mega tolle Format! Schöne Grüße aus Bayern, Reinhard
Lieber Anders, lieber Martin 1000 Dank das Sie für uns hier zeit genomem haben ,mit JPEG kann man echt viel zeit sparen und ich bekomme das was ich haben möchte
Lieber Anders, lieber Martin. Heute bin ich das erste Mal nicht so ganz einverstanden mit ein paar der Erklärungen. Aus Informatiker Sicht macht es keinen Sinn, die Vorverarbeitung der Signale für JPEG und RAW unterschiedlich zu handhaben, ganz im Gegenteil, es würde die Gefahr von Inkonsistenzen erheblich vergrößern, und der Programmierer der mir sowas vorschlagen würde wäre gleich unten durch. Gibt es irgendwelche gesicherten Erkenntnisse, das irgendein Hersteller so arbeitet ? Das Panasonic vergessen hat, die Objektivnachbearbeitung im RAW einzufügen, dies aber ganz schnell nachbessern konnte, bekräftigt diese Sicht m.E. noch. Ebenso würde bei unterschiedlichem Bearbeiten und Speichern von beiden Formaten gleichzeitig ein zusätzlicher Geschwindigkeitsverlust zu verzeichenen sein, das wollen die Hersteller keinesfalls. Aus 14 Bit Farbwerten 12 Bit oder 8 Bit zu machen ist de facto keine Berechnung, es werden lediglich die letzten Bit vernachlässigt resp. die Register verschoben, das kostet so gut wie nix. Dessen ungeachtet sehe ich auch, das die erforderliche Datenmenge die geschrieben werden muss, einen erheblichen Einfluss auf die Temperatur nehmen kann. DSLM arbeitet ja permanent mit Sensorauslesen, wieviel macht da der Speichervorgang im Verhältnis noch aus ? Und das Anders' Tests durch RAW keine grundsätzlich anderen oder bessere Ergebnisse erbringen würde leuchtet mir auch ein. Allerdings muss auch klar sein, das von den 8 Bit Farbtiefe beim Aufhellen oder Abdunkeln ganz schnell ein Bit-Shifting zustande kommt, und dann habe ich nur noch 7 Bit für meine Farbauflösung und das sehe ich u.U. sogar am Monitor mit seinen nur 8 Bit pro Farbkanal. Starte ich mit 12 oder 14 Bit bleiben auch nach dem Verschieben noch hinreichend Informationen über, um jederzeit die 256 Farbabstufungen bestimmen zu können. Und ich weiß nicht, ob mal jemand von Euch versucht hat, ein korrigiertes JPEG Bild mehrfach (auf Basis der vorherigen als JPEG gespeicherten Korrektur) zu korrigieren, was dabei mit einem JPEG passieren kann, ist der Horror. Hier sehe ich einen deutlichen Vorteil vom Raw, denn fast alle Bearbeitungen sind verlustfrei umzusetzen. Das bezahle ich natürlich mit Zeit, da ich zum Veröffentlichen erst nochmal nach JPEG umrechnen muss, und auch der Weißabgleich (den die Kamera ja ins JPEG rechnet) erst wieder eingerechnet werden muss. Nachbearbeitungen können (nicht müssen) vom RAW Format also durchaus profitieren.
Wieder ein tolle Diskussion, die für Jeden, den auch die Hintergründe wirklich interessieren eine "Offenbahrung" sind. Es iwrd mit vielen stetig weitergeschleppten Vorurteielen aufgeräumt. Das tut richtig gut und ist im Netz eher (sehr) selten anzutreffen. Eine tolle Serie habt ihr damit auf jeden Fall zusammengestellt! zudem schaue ich mir mahce Diskussion auch wiederholt an, was sonst bei mir auf TH-cam eigentlich nicht wirklich vorkommt. Also tolles Format mit super Inhalt - gerne weiter so!! Freue mich bereits auf die nächste Diskussion ...
Praktisch wird immer die Kombination aus Objektiv UND Kamera getestet. Um die Ergebnisse einzuordnen sind Kamera, Firmware und Einstellungen wichtig. So kriegt das Objektiv an einer Kamera an der sich Korrekturen nicht abschalten lassen und die stärker nachschärft eine bessere Note in der Optik. Zum Beispiel Fotomagazin 7/2022 und 2023, das Sigma 2,8/18-50. Könnte man denken es sind zwei unterschiedliche Objektive. Am Ende bleibt eigentlich nur selbst Testen. Trotzdem, tolle Reihe, habe viel gelernt 😊
Großartig, ich verfolge die Objektivreihe mit Dir und Anders Uschold seit letzten Jahr Oktober und bin begeistert! Auch diesen Teil habe ich sehr genossen!
30:07 Das stimmt so nicht denn der Stromverbrauch setzt sich nicht zu 100% aus Heizleistung zusammen. Trotzdem stimmt es natürlich das ein Großteil in Wärme umgesetzt wird, da die Prozessoren und Sensoren nicht sehr effizient sind.
Wie immer, super interessant! Was ich durch euch schon an Hintergrundwissen erlangt habe, WAHNSINN! Macht bitte weiter so. Das ist wieder ein fünf Sterne Video *****
Unfassbar interessant, krass. Nun überlege ich tatsächlich, ob ich mit meiner XT-4 zukünftig ausschließlich in .jpg aufnehmen werde. Da hätte ich mir den Kauf von Capture 1 sparen können. Nun, man lernt nie aus. Heute habe ich viel gelernt. Danke.
Wie sagte Pavel mal: "Was interessieren mich "echte" Fotos - ich will schöne Bilder!" - Auch bei der Technik macht's nicht immer Sinn, "Originaldaten" haben zu wollen.
Vielen Dank für dieses Video mit vielen technischen Infos. Super interessant. Im Thema Foto bin ich recht neu, bei Computern ein alter Hase. :-) Zwei Anmerkungen möchte ich dennoch machen: 1. nur ein Teil der Energie wird in einer Kamera in Wärme umgesetzt, nicht alles, der Vergleich mit dem Lötkolben hinkt also. 2. Auch wenn die RAW-Daten nur aus dem Chip ausgelesen werden und in eine Datei geschrieben werden, muss gerechnet werden, da die Datei erzeugt werden muss.
Lieber Anders, lieber Martin, ein sehr interessantes und großes Thema. Vielen dank für eure großen Bemühungen. Wie schaut es denn zwischen jpeg und Heif aus. Wie seht ihr das denn. Ist das Heif eine empfehlenswerte Lösung?
Danke, sehr informativ! Interessant wäre noch zu wissen, warum es nicht ohne Rechenaufwand reicht, die echten Rohdaten abzulegen, sodaß der Rechenaufwand an die Bildbearbeitungssoftware ausgelagert wird.
Unfassbar gute und geile Serie. Eigentlich sollte die komplette Serie jeder mal gesehen aber. Das einzige was mich total abturnt: Diese Dicken Füsse in den Schlappen von Martin. Vor allem oft genau präsent in der Mitte. Ich bin so ein Anti Fuss Feti. Bin in Zukunft geschlossene Schuhe anziehen oder Socken.
Man kann leicht überprüfen ob die Kamera trotz abgeschalteter Objektivkorrektur änderungen ins Raw schreibt oder nicht! Einfach die Kontakte zwischen Kamera und Objektiv abkleben und danach das gleiche Bild normal mit Kontakt aufnehmen. Bei meinen Nikons und Sonys wird demnach absolut nichts hineingeschrieben, wäre interessant das mal mit einer Panasonic zu versuchen, leider habe ich keine, aber interessieren würde es mich schon was dabei herauskommt!
Danke, nettes Filmchen. Es ist sicher richtig das ein "RAW" auch schon eine Interpretation ist, bis es dann durch die Grakfikkarte auf dem Monitor ist sowieso. Klarer Fall, dennoch habe ich beim RAW Format sehr viel mehr Daten und kann daraus ein Bild erzeugen das in vielen Fällen dem automatischen JEPEG überlegen ist. Ich kann nur gewinnen, niemals verlieren mit einem RAW. Der Vorteil vom 8 bit JPEG ist Geschwindigkeit, nicht Qualität. Kann auch wichtig sein, bei mir meist nicht.
Der zweite Teil deines Kommentars kann stimmen: ...habe ich, ich kann nur..., bei mir meist nicht... Für deinen Fall (für die, die sich für Diesen im Speziellen interessieren) mag das was du behauptest stimmen. Das nette Filmchen, wie Du es (etwas abwertend?) nennst, ist in seiner Argumentation hingegen absolut schlüssig, nachvollziehbar und das Gesagte hat Allgemeingültigkeit. Wurde sogar durch ein Beispiel von Martin belegt. Und es stellt deine Behauptung das RAW zu einem besseren Ergebnis führen KANN, auch gar nicht in Frage, weswegen ich die abwertende Haltung nicht verstehe. Schade dass sich immer mehr Menschen, selbst wenn versucht wird völlig logisch und fundiert eine andere Sichtweise zu vermitteln, sofort angegriffen fühlen. Ich habe, was vielleicht auch keinen hier interessiert (nicht schlimm) die Ausführungen hier "gefeiert", wie Martin sagen würde, da der Horizont in einem Bereich erweitert wurde, der mich interessiert und das von der fachkundigsten und sympathischsten Person, die es in diesem Bereich wahrscheinlich gibt. Dafür Danke Anders und Martin (und Team).
@@magirusd8711 Da war nichts abwertendes, das kommt dir nur so vor weil du anderer Meinung bist. :) Aber zur Sache: OOC verliert die meisten(!) Daten des Bildes bevor ich es bearbeiten kann. (Das ist nicht abwertend, sondern ein Fakt.) Das ist fatal und im Sinne der BQ nicht akzeptabel. Die Vorteile dieser automatischen "schnellverarbeitung" liegen ausschliesslich in der Geschwindigkeit und gehen auf kosten der Qualität. Und vergiss nicht, wir fotografieren für die Zukunft. Schon heute haben wir 4/5/6k Monitore die Farben sehr gut und sehr, sehr(!) viel besser als in 8 bit darstellen können. Wie wird das in 5 Jahren sein, in 10, oder 20? Ich habe viele Bilder die so alt sind und dennoch von mir noch Beachtung erhalten. Ich gebe zu, ich exportiere die meisten Bilder nach 8bit jpg, aber ich fotografiere RAW und behalte mir die RAW Dateien. Da ist viel Potenzial, warum sollte man es leichtfertig wegwerfen? Im übrigen haben 8bit jpg Dateien die ich selbst aus einem 14bit RAW (oder bei sehr guten Kameras aus 16bit) erstelle, oft eine bessere BQ als automatisch erstellte. Das ist wie beim AF, die Kamera kann nicht wissen auf welche Bildteile es mir besonders ankommt, welchen "look" ich möchte, welche Stimmung alleine schon durch den Weissabgleich. Man vergibt sich sehr viel mit OOC Bildern. Kann nötig sein um schneller zu sein, aber kostet BQ, man muss sich das gut überlegen. Geschwindigkeit ist nur manchmal wichtig. Das man Objektivtests so macht kann ich wiederum gut verstehen. Man will das Glas testen und nicht die Bearbeitung der RAW Datei, die man nicht immer gleich vornehmen kann und die das Ergebnis verfälschen würde. Aber das ist eine Ausnahme, solche "Testbilder" haben ein anderes Ziel. Edit: Welches Beispiel von Martin meinst du das er es widerlegt? Minute? Ich schaue mir das gerne nochmal an.
Sehr gut ausgeführt, vielen Dank! Dann habe ich das tatsächlich missverstanden, entschuldige. Ich ging davon aus, das gleich dagegen angeredet wird, ohne das Gesagte abzuwägen. Martins Beispiel war das mit der Kamera unter Wasser im luftdichten Beutel bei 4K 60P 30° Wassertemp. ( Bei 36:00 ) Das Bild ist im Verlaufe des Filmens immer weiter abgesoffen bis es nicht mehr verwendbar war, aufgrund der angesprochenen Überhitzung (da wirds interessant ab etwa 31:00 ).
@@magirusd8711 Danke für deine freundliche Antwort. Was das Beispiel angeht, es ist durchaus richtig das Hitze die Ergebnisse verschlechtert. Es geht jedoch um einen Film, dazu noch in einem luftdichtem Beutel. Das mag soweit stimmen, bedeutet jedoch nicht das ich beim Fotografieren das gleiche Problem hätte. Wurde nicht vermutet das die Qualität des Bildes um 1 bit sinkt pro 10C mehr Temperatur am Sensor? Sagen wir das stimmt grob (ich weiss es nicht), dann dürfte eine gute Kamera mit 14 bit 60C wärmer am Sensor werden um auf 8 bit Jpeg zurück zu fallen. Grundsätzlich bringt jpg Tempo auf kosten der Qualität. Das muss jeder selbst entscheiden. Auf keinen Fall ist es "egal" für die BQ wenn man die meisten Informationen, direkt schon in der Kamera, wegschmeisst.
Moin Männer, sehr interessant und informativ! Vielen Dank für diese Infos.👍 So wird mir einiges klarer. Böses..Böses..jepg! 😂 Euch wünsche ich einen schönen, entspannten Sonntag.😎😣
Wieder eine extrem gute Folge. Extrem interessant. Wieder viel gelernt. Kritikpunkt: Ihr hättet ruhig noch weiter in die Tiefe gehen können. Aber dann wäre die Folge bestimmt viel zu lang geworden. Wie wäre es mit einer 31. Folge die sich mit dem Thema Komprimierung beschäftigt? ;)
Ich verstehe die Hitzediskussion nicht. Selbst wenn das alles stimmt und sichtbar ist, dann sieht man das auch auf dem JPG. Oder wo ist mein Denkfehler?
Einfach nur krass! Danke Danke für das wissen was ihr uns gebt. Mir hat man die ganze Ausrüstung geklaut! Würdet ihr nochmal in Dslr investieren oder nur noch in dslm? Währe toll wenn ihr das Thema aufnehmen könntet
Hallo Anders, Hallo Martin, wenn bereits in das RAW-File durch die digitale Bildverarbeitung diverse Korrekturen einfließen, müsste dann nicht ein Objektivtest mit mehreren Kamera-Modellen eines Herstellers durchgeführt werden und vor allem nach jedem Firmware-Update (Kamera oder Objektiv) wiederholt werden? Grüße, Tom
Hallo Martin, Warum wird das DNG nicht angesprochen? Bringt Pentax oder Leica morgen ein neues Modell auf den Markt, dann kann ich auch bereits morgen meine RAW Dateien bearbeiten. Bei allen anderen muss ich warten bis beispielsweise Lightroom da etwas gebastelt hat nicht nur für einen bestimmten Hersteller, sondern für jede einzelne Kamera und Modell Version. (MK I, MKII...) Da muss es doch gravierende Unterschiede und Ergebnisse geben. Beispiel Fuji in LR und Olympus... 😉
Wow, das war ja diesmal wieder richtig viel Stoff - sehr genial. Woraus aber berechnet denn die Kamera das JPG? Wird denn nicht eh erst das RAW "fertig gestellt" und dann daraus das JPG erzeugt? So dachte ich das jedenfalls bislang.
Marius B. Wenn eine Speicherkarte 95MB/s schreiben kann und ein RAW 30MB groß ist, wieviele Bilder pro Sekunde können geschrieben werden? Der interne Speicher der Kamera und die Verarbeitung der Datenrate ist wesentlich schneller als eine SD oder CF Karte. Das ist m. E leider auch einer der Fehler im Video: Die Schreibrate auf die Karte und die Größe des Puffers lassen keine Rückschlüsse auf den Rechenaufwand zu. Nebenbei: Auch bei RAW wird immer ein (kleineres) JPG erzeugt, das als Vorschaubild im RAW eingebettet ist.
Viel Informatives. Aber beim Thema RAW und den Ansichtsmethoden ausgelegt für unterschiedliche Ansichtsvorstellungen von Leuten: Ich mache ein RAW für den, ein RAW für den usw. Das ist völlig falsch. Der RAW Vergleich soll bei allen Vergleichen neutral in der Grafikksoftware durchgeführt werden. Die Kameras greifen in jpgs unterschiedlich ein und sind weitaus unvergleichbarer. Und wenn ein Kamerahersteller mehr schärft, oder die Sättigung mehr erhöht um Sensor-oder Objektivschwächen auszugleichen, dann ist ein Vergleich sinnlos in jpgs!!!! Wenn ich die RAW neutral ohne Regler Verstellung vergleiche, ergibt das eine weitaus höhere Qualitätseinschätzung, überhaupt wenn ich Raws von Kameraobjektiven eines Kameraherstellers vergleiche.
Hallo, warum werden dann sinnvollen & wichtigen Korrekturen wie bspw. Objektivkorrektur im RAW nicht angewendet, die im JPG angewendet sind? Hier würde ich mich ungern auf externe Tools verlassen, die immer nur eine Näherung sind und somit ein Nachteil des RAW...
@@krolopgerst Hallo, also bei der Sony RX100IV im Weitwinkel sieht man sehr ordentlich im RAW, das die Objektivkorrektur nicht mit drin ist. Bei meiner A7ii ehrlich gesagt habe ich es noch nicht vergleichen.
Ich habe sämtliche Milchstraßenfotos in Namibia versaut. Mit der genialen Sternentrackingfunktion der Pentax habe ich leider ISO heruntergefahren und mehrmals 5min belichtet... Lötkolben ist ein guter Vergleich.
Das Sensoren durch das erzeugen von JPEG oder RAW Daten unterschiedlich warm werden ist sicherlich möglich, aber kaum relevant, man müsste sehr schnell fotografieren was ich selten mache. Wieder ist der Vorteil von JPEG bei der Geschwindigkeit, verliert jedoch bei der Qualität.
Ich schaue mir manche Vids zweimal oder sogar dreimal an. Manchmal, nehme ich meine Kamera, mache ein Bild (x-beliebig) und beobachte was passiert. Soll heißen, ich schaue mir nicht einfach alles an, sondern ich versuche meine Kam zu verstehen, bzw. was da drin passiert. Ich kenne noch analoge Fotografie. Da habe ich das auch gemacht. Nur auf der Ebene "entwickeln des Fotos". Es ist einfach unglaublich, was Elektronik zu Stande bringt. Aber man muss es auch begreifen - eben verstehen - wie man auch Bilder entwickeln in der "Dunkelkammer" verstehen lernen musste. Ich mag diese Objektivreihe sehr. .... auch wenn aufgrund der Hitzeentwicklung der Trend zu einer "Drittkamera" tendiert .... seufz ...
Vielen Dank für dieses überaus interessante Video. Mit grundlegenden elektronischen Kenntnissen kann ich das Gesagte gut nachvollziehen, ich denke ohne dies wird es manchem schwer fallen zu verstehen worum es geht. Ich wünsche mir speziell zu diesem Thema eine Fortsetzung, denn mich würde doch sehr interessieren wie das erzeugen eines JPEG Bildes bzw. der Datei genau funktioniert und warum es so deutlich schneller ist, als das Verrechnen des RAW Files. Ausserdem wird doch immer behauptet, dass JPEG nichts taugen würde, weil es nur 8bit hat und RAW eben mehr? Bezüglich der permanenten Aussagen, dass man unbedingt in RAW fotografieren sollte, ist meine persönliche Meinung, dass man genau darauf achten sollte, von wem denn diese Aussagen kommen. Bieten diese Personen denn evtl. nicht auch gleichzeitig noch eine Schulung in LR oder PS an? Böse ist, wer böses denkt ;-)
Hallo,eine Frage hast du Erfahrung mit dem Minolta AF 80-200 F2.8 APO HS ( High-Speed ) z.Z 420-600€. es soll schneller sein wie bei den Nachfolgemodell von Sony mit Ultraschall Motor. Mit dem Soligor Konverter 2.0 hätte ich 400mm (600mm Cropfaktor) und eine Blende F5.6. Hört sich doch gut an für meine Sony E-Maunt. Es lässt sich auch adaptieren mit dem LA-EA4 für alle Sony E-Mount Modelle das ich besitze. Gruß h.a.
Kupfer bringt eing. nicht den Vorteil der Schnelligkeit. Kupfer hat einen geringeren spezifischen Widerstand als z.B. Aluminium. Dadurch kann man kleinere/dünnere Leitungen realisieren bei gleichbleibendem Widerstand. Bedeutet: Ich kann den Chip kleiner machen und genau das ist der Vorteil.
Das Video ist interessant und ich habe auch einiges dazugelernt bzw auch andere Sichtweisen erhalten, keine Frage - aber alles für bare Münze kann ich persönlich nicht nehmen... Wer lötet mit einem 20 W Lötkolben? Das wird nichts von Wrfolg gekröntem... Wenn die Kamera im Sommer schlechtere Ergebnisse liefert, verstehe ich das, weil die Kamera komplett durchgewärmt wird - und somit auch der Sensor: das wird auch durch die Beispiel klar deutlich. Die angespeochenen 20 W werden jedoch zum Hauptteil im Display und im Kamera-Prozessor umgesetzt, aber meiner Meinung nach bestimmt nicht im Sensor selbst....?! Denn der Sensor liefert doch immer die gleichen Grund-Daten ('voraufbereitet' oder nicht), egal ob in JPG oder RAW photografiert wird. Die Umwandlung von RAW in JPG erfolgt im Kameraprozessor, ebenso wie die Datenaufbereitung der RAW-Daten zum Speichern. Dabei wird kein Sensor erwärmt, sondern der Prozessor. Der Kamerahersteller wird den Prozessor nicht in unmittelbarer Nähe zum Sensors platzieren, damit die Abwärme des Prozessors den Sensor erwärmt. Außerdem muss durch passive Kühlung die Wärme des Prozessors abgeführt werden, daher werden Wärmequellen bestimmt nicht im Zentrum der Kamera platziert. Korrigiert mich, wenn ich falsch liegen sollte... Und ja, ich photografiere auch im JPG-Format, schon immer und auch weiterhin :-D
Bin heute zum ersten Mal in Euren Kanal "reingezappt". Sehr gut im Vergleich zu manch anderen YT-Videos. Ich fotografiere seit eh und jeh in JPG; habe mal testweise ein Bild in RAW und JPG mit meiner Nikon D750 fotografiert und dann am Rechner geschaut, ob da ein großer Unterschied ist. Subjektiv beobachtet: Null Unterschied. Allerdings möchte ich hier erwähnen, dass ich kein Profi bin, sondern nur ambitionierter Amateur. Freue mich schon auf weitere Videos von Euch.
Der Beitrag strotzt ja nur so vor technischen Fehlern. Da wird frech behauptet, dass sich der Sensor sich auf Grund der RAW-Verarbeitung erwärmt und deshalb die Bildqualität im „Dauerfeuer“ auf Grund von Rauschen leidet. Quasi als Beweis wird der Bekannte mit den Nachtfotos und der Langzeitbelichtung angeführt. Offenbar wird später vergessen, was anfangs erwähnt wurde: so ein Sensor besteht nicht nur aus den fotosensitiven Zellen, sondern auch noch aus Verstärkern und anderen aktiven Bauelementen. Diese verbrauchen Strom und dadurch erwärmt sich der Sensor maßgeblich. Der wird bei Langzeitbelichtung nicht warm, weil man RAW als Speicherformat wählt. (Die Speicherung dürfte bei den meisten Kameras ohnehin erst nach dem Schließen des Verschlusses erfolgen …) Zudem dürfte bei vielen DSLRs die Verarbeitung in einem dedizierten Prozessor statt finden, der sich dann erwärmen dürfte. Das würde aber bedeuten, dass es für den Sensor erst mal keinen Unterschied macht, ob der Prozessor die Daten im Rohformat wegspeichert oder ob er sie zu JPG komprimiert. Dann wird behauptet, dass die Begrenzung der Serienbildaufnahme in der Rechenzeit fürs RAW begründet liegt. Dagegen spricht schon einfache Mathematik. Als Beispiel sei die Nikon D850 genannt. Deren RAWs sind unkomprimiert in voller Auflösung sind etwa 90 MB groß. Die Kamera schafft mit einem kräftigeren Akku bis zu 9 Bilder pro Sekunde. Das ergibt nach Adam Ries 810 MB/s Daten, die weggeschrieben werden müssen. Jetzt würde ich gerne mal eine SD- oder XQD-Karte sehen, die eine solch hohe Datenrate schafft. Daraus kann man schlussfolgern, dass nicht die Verarbeitung des RAW-Formats die Serienbildaufnahme beschränkt, sondern die Geschwindigkeiten der Karte und des Speicherinterfaces. Und die Größe des Zwischenspeichers in der Kamera. Im Endeffekt bedeutet das, dass sich die vorgebrachten Kritikpunkte am RAW in Luft auflösen. Wobei ich die Begründung, warum beim Testen die kamerainterne JPG-Komprimierung verwendet wird, schlüssig und verständlich finde. Aber der Rest scheint mir an den Haaren herbei gezogen. Grüße
Hallo, weil gerade das Thema Nullpunkt kam. Ich habe gelernt, dass das Doppelspalt-Experiment bei großer Hitze keine Wellen-Natur des Lichts mehr Zeigt. Heißt das, dass wir bei großer Hitze theoretisch keine Beugungsunschärfe bei kleinen Blenden mehr hätten?
nein. die Hitze im Doppelspalt-Experiment erzeugt lediglich mehr Wechselwirkung der Teilchen, und da ja jede Wechselwirkung quasi eine Messung ist, verliert das Licht seine Welleneigenschaft. Im Objektiv dürfte die schon durch das Durchdringen des Glases verschwunden sein.
RAW und oder JPEG? Ich komme aus der analogen Zeit. DIA's kann man nicht verändern. Das ist für mich JPEG. Da kann man nicht viel verändern. RAW ist wie früher ein Negative. Da bekam man Negative, daraus wurden meist gleich Bilder gemacht. Oder man entwickelte selber daraus Bilder. Ich habe 1973 in der Schule gelernt wie man Negativ-Filme und Bilder entwickelte. In Schwarz weis. Vieleicht ein schlechter vergleich: DIA's wie JPEG und Negative gleich RAW.
Irgendwie lässt das Video den eigentlichen Punkt außer acht, um den es bei JPG vs RAW überhaupt geht. In der RAW Datei ist der ganze Dynamikumfang in 12 bis 14 Bit gespeichert. Das heißt hier sind in der JPG schon Infos verloren gegangen die unwiederbringlich weg sind. Nun kann man aber aus einer RAW mit den ganzen Infos 1000 JPGs machen die alle anders aussehen ohne die eigentlichen Infos in der RAW-Datei anzufassen, denn diese bleibt bei non-desktruktiver Arbeitsweise natürlich unberührt. Versucht man selbiges mit einer JPG wird man scheitern. Zumal man mit einer Raw die Möglichkeit hat eine JPG zu speichern welche an das jeweilig intendierte Ausgabemedium angepasst werden konnte, aber eben aus einer nicht schon vorher Verlustbehafteten Datei, was die Qualität erhöhen dürfte. Die Langzeitspeicherung funktioniert mit einer in eine TIFF umgewandelten RAW Datei ebenso besser. (Die Kosten für Speicherplatz sind nun wirklich vernachlässigbar) Natürlich sind das keine Kriterien mit der sich der 0815-Hobbyfotograph herumschlagen möchte und deswegen haben beide Formate für verschiedene Nutzergruppen ihre Daseinsberechtigung und es geht im Kern nicht darum was "besser" oder "schlechter" ist, sondern welches Dateiformat sich für den jeweiligen Anwendungszweck am besten eignet.
Warum nicht die Sensorrohrdaten direkt abspeichern und erst im RAW Konverter so bearbeiten dass sie nutzbar sind? Das würde doch eine Kamera theoretisch sehr viel schneller werden lassen...
Sorry, aber bei 23:50 hat er Unrecht. 24 bit (also 3x8bit) sind zu wenig. Man erkennt unter Umständen Treppchen. Es gibt Monitore, die das besser können. Und in Zukunft werden Bildschirme noch heller, sprich dynamischer und dann braucht man auch die Auflösung. Ich arbeitet in Photoshop (und After Effects) nur noch mit 16 bit. Man kann mit Tricks sogar aus 8 bit 16 bit erzeugen. 8 bit reichen dann aus, wenn genügend Korn oder Rauschen für Dithering sorgt. Nicht aber bei glatten Verläufen. Übrigens hat Jpeg nicht wirklich 24bit, also 16 Mio Farben, sondern nur ca. 4 Mio Farben. Da bei Jpeg eine Transformation von R G B in Y Cr Cb erfolgt. Und die meisten der 16 Mio YCrCb-Werte sind invalide RGB-Werte. Gerade wenn man in Y Cr Cb oder in Photoshop Lab benutzt (was ähnlich, aber mit anderer Metrik arbeitet) braucht man mehr als 8 bit pro Kanal. Ich vermisse, dass Kameras keine verlustloses RGB-Format in 16 bit haben. Statt Jpeg 16 bit Tiffs wäre was. Da hätte man das ganze Kamera-Knowhow (und gerade bei Handys ist das sehr viel!) und noch genügend Bearbeitungsspielraum. Mach mal mit Jpeg Chromakey .... Und er hatte schon Unrecht bei den Farben. Das Bayern-Pattern hat nicht deswegen doppelt so viel Grün, weil wie da besser Farbäuflösen. Sondern weil Grün den größten Anteil an der Helligkeit und daher auch Dynamik und Schärfe hat. Für rec601 gilt Y = 0.3*R + 0.59*G + 0.3*R. (bei sRGB sind die Faktoren leicht anders[sic!], mag ich aber grad nicht googlen, größenmässig ist es gleich) Wir haben die größte Farbäuflösung im rot-gelben Bereich (weil der Rot- und Grün-Zapfen sprektral sehr nahe sind) und die größte Schärfe im Gelb-Orangenen. (weswegen Na-Lampen bei Strassenbeleuchtungen immer noch beliebt sind).
Korrigiert mich wenn ich da falsch liege. Bit ob 8 oder 24 ist doch die Farbtiefe und die von die beschriebene Treppchen beschreibt doch die Auflösung dpi.
Danke für die Reihe! Meine Nikon D750 macht mit einer Akkuladung in RAW 10-15% mehr Aufnahmen als in jpeg; fine, large. Ich hoffe Ihr plant den 3. Teil der Reihe.
Kleiner Tipp. 2 hoch 10 kann nicht 1023 sein da wenn man 2 immer multipliziert nichts ungerades rauskommen kann. Sind 1024. Aber ansonsten find ich es super wie ihr das immer erklärt.
@@ytano5782 fast, mit üblich hat das nix zu tun. 2^10 = 1024 daran beißt die Maus keinen Faden ab, mit 10 Bit lassen sich nur die Zahlen von 0 bis 1023 (binär 0000000000 bis 1111111111) darstellen, was aber immer noch 1024 unterschiedliche Zahlen sind.
I have a Canon PowerShot SX60 und die JPGs have greater sharpness, better colors and less fringing than the RAWs. The latter requires considerable post processing to come to a result only close to the first. I was under the impression that RAW should be the highest quality but now I understand.
Mann könnte doch eigentlich zum Herausfinden, was von der Kamera nachgearbeitet wird, das zu testende Objektiv leicht im Bajonett drehen, so dass es immer noch hält, aber genug, dass die elektronische Verbindung unterbrochen wird. Die Kamera erkennt kein Objektiv mehr und kann keine passende Korrektur berechnen.
Allein die Tatsache, dass ich keine Zeit habe, jedes Bild erst 1 Stunde lang zu bearbeiten und so zu optimieren, dass es zwar optisch besser gefällt aber mit den Gegebenheiten vor Ort nicht mehr viel zu tun hat..... Allein dieser Zeitmangel lässt Raw für mich uninteressant bzw. zur absoluten Ausnahme werden.
Wie dumm. Bei RAW-Dateien wird ausgelesen/gerechnet, daher kann sich der Sensor erwärmen und damit das Rauschen erhöhen, daher lieber JPEG, denn da wird nichts oder weniger ausgelesen/gerechnet und komprimiert
Was soll ich sagen, beim fotografieren interessiert mich das alles nicht. Beim RAW Format kann ich besser nachbearbeiten. Das ist Erfahrung, nichts weiter. Korrektur in der Kamera findet immer statt. Interessant, für die Praxis nichts sagend. Glas wird in Zukunft nicht mehr für Objektive verwendet, darauf muss man sich vorbereiten. Der Sensor wird chemisch, organisch. Pixel werden keine Rolle spielen, da Schichten auf Licht reagieren. Quantenrechner berechnen die Abstufungen der Vektoren. Das ist Zukunft, dieses hier ist Vergangenheit. Was glaubt ihr eigentlich was wir Menschen ohne Korrektur des Gehirns mit unserer Optik (Augen) sehen würden? Nicht nur das das Bild auf dem Kopf steht, es wäre auch noch ohne Farbkorrektur und unscharf. Wenn die Iris sich nicht mehr den Lichtverhältnissen anpasst, dann ist die Belichtung auch noch falsch. Wir besitzen durch unser Gehirn eine Vollautomatik die auch noch stimmt.
Sehr interessanter Beitrag, regt zum Nachdenken an. Ich würde mir nur wünschen, dass Herr Uschold mit der Unart aufhört, immer mit dem Zeigefinger auf jemanden zu zeigen.
Ich kommentiere auf TH-cam nur äußerst selten, aber eure Objektiv-(oder besser Optik/Fotografie-) Reihe ist einfach super und verdient großes Lob. Das Grundlagenwissen über Zusammenhänge und Ursache in der Fotografie bringt sonst niemand. Top, bitte bitte weiter so!
das ist nicht super, das ist phänomenal
Top Format! So viel Expertise mit ausreichend Raum sich zu entfalten sieht man leider viel zu selten. Großartig!
Ich finde dieses und auch andere Videos von euch sowas von interessant. Da kann ich wirklich den ganzen Tag zuhören und zusehen. Macht weiter so!!!
Super Interview. Hat wieder mal viel Licht ins Dunkel gebracht. Erklärt viele Dinge wo man vorher nur so eine Vermutung hatte. Thematische Extraklasse! Ich liebe euch beide dafür, sehr geil.
Ihr seid so der Hammer,da hauts einem echt den Vogel raus :-D
Das ist mal wieder so eine Folge,die man sich 5 mal auschauen sollte!
Irre spannend und interessant,es gibt für mich nichts vergleichbares im TH-cam Fotografiekanal Universum!
Danke,für dieses mega tolle Format!
Schöne Grüße aus Bayern,
Reinhard
Eure Serie ist echt Einzigartig!
Dieses Video gehört für mich zu den substanziellsten der Objektiv-Serie. Für mich eine Sternstunde des TH-camns.
Lieber Anders, lieber Martin 1000 Dank das Sie für uns hier zeit genomem haben ,mit JPEG kann man echt viel zeit sparen und ich bekomme das was ich haben möchte
Die Videos von euch sind einfach Klasse weiter so.
Lieber Anders, lieber Martin. Heute bin ich das erste Mal nicht so ganz einverstanden mit ein paar der Erklärungen. Aus Informatiker Sicht macht es keinen Sinn, die Vorverarbeitung der Signale für JPEG und RAW unterschiedlich zu handhaben, ganz im Gegenteil, es würde die Gefahr von Inkonsistenzen erheblich vergrößern, und der Programmierer der mir sowas vorschlagen würde wäre gleich unten durch. Gibt es irgendwelche gesicherten Erkenntnisse, das irgendein Hersteller so arbeitet ? Das Panasonic vergessen hat, die Objektivnachbearbeitung im RAW einzufügen, dies aber ganz schnell nachbessern konnte, bekräftigt diese Sicht m.E. noch. Ebenso würde bei unterschiedlichem Bearbeiten und Speichern von beiden Formaten gleichzeitig ein zusätzlicher Geschwindigkeitsverlust zu verzeichenen sein, das wollen die Hersteller keinesfalls. Aus 14 Bit Farbwerten 12 Bit oder 8 Bit zu machen ist de facto keine Berechnung, es werden lediglich die letzten Bit vernachlässigt resp. die Register verschoben, das kostet so gut wie nix.
Dessen ungeachtet sehe ich auch, das die erforderliche Datenmenge die geschrieben werden muss, einen erheblichen Einfluss auf die Temperatur nehmen kann. DSLM arbeitet ja permanent mit Sensorauslesen, wieviel macht da der Speichervorgang im Verhältnis noch aus ? Und das Anders' Tests durch RAW keine grundsätzlich anderen oder bessere Ergebnisse erbringen würde leuchtet mir auch ein.
Allerdings muss auch klar sein, das von den 8 Bit Farbtiefe beim Aufhellen oder Abdunkeln ganz schnell ein Bit-Shifting zustande kommt, und dann habe ich nur noch 7 Bit für meine Farbauflösung und das sehe ich u.U. sogar am Monitor mit seinen nur 8 Bit pro Farbkanal. Starte ich mit 12 oder 14 Bit bleiben auch nach dem Verschieben noch hinreichend Informationen über, um jederzeit die 256 Farbabstufungen bestimmen zu können.
Und ich weiß nicht, ob mal jemand von Euch versucht hat, ein korrigiertes JPEG Bild mehrfach (auf Basis der vorherigen als JPEG gespeicherten Korrektur) zu korrigieren, was dabei mit einem JPEG passieren kann, ist der Horror. Hier sehe ich einen deutlichen Vorteil vom Raw, denn fast alle Bearbeitungen sind verlustfrei umzusetzen. Das bezahle ich natürlich mit Zeit, da ich zum Veröffentlichen erst nochmal nach JPEG umrechnen muss, und auch der Weißabgleich (den die Kamera ja ins JPEG rechnet) erst wieder eingerechnet werden muss.
Nachbearbeitungen können (nicht müssen) vom RAW Format also durchaus profitieren.
Danke!!!!
exzellentes labervideo. Wo sonst könnte ich interessierter Amateur dieses Basiswissen bekommen?
Wieder ein tolle Diskussion, die für Jeden, den auch die Hintergründe wirklich interessieren eine "Offenbahrung" sind. Es iwrd mit vielen stetig weitergeschleppten Vorurteielen aufgeräumt. Das tut richtig gut und ist im Netz eher (sehr) selten anzutreffen. Eine tolle Serie habt ihr damit auf jeden Fall zusammengestellt! zudem schaue ich mir mahce Diskussion auch wiederholt an, was sonst bei mir auf TH-cam eigentlich nicht wirklich vorkommt. Also tolles Format mit super Inhalt - gerne weiter so!!
Freue mich bereits auf die nächste Diskussion ...
Wieder absolut. Vielen Dank. Ganz großes Kino...
Spannend, etwas verwirrend, bitte mehr davon
Besser alt werden als nicht.^^ mmd
Wie immer super interessant
Sehr cool ! Beste Folge bisher !!! Danke an Euer Team und Anders !!!
Praktisch wird immer die Kombination aus Objektiv UND Kamera getestet. Um die Ergebnisse einzuordnen sind Kamera, Firmware und Einstellungen wichtig.
So kriegt das Objektiv an einer Kamera an der sich Korrekturen nicht abschalten lassen und die stärker nachschärft eine bessere Note in der Optik.
Zum Beispiel Fotomagazin 7/2022 und 2023, das Sigma 2,8/18-50. Könnte man denken es sind zwei unterschiedliche Objektive.
Am Ende bleibt eigentlich nur selbst Testen.
Trotzdem, tolle Reihe, habe viel gelernt 😊
Vielen Dank für die Super Sendungen!!!
Danke für die Vermittlung von Erfahrung und Wissen, echt klasse, danke euch zwei!
Großartig, ich verfolge die Objektivreihe mit Dir und Anders Uschold seit letzten Jahr Oktober und bin begeistert! Auch diesen Teil habe ich sehr genossen!
Super Beitrag und mega spannend.
Toller Beitrag! Mega spannend, für mich!
30:07 Das stimmt so nicht denn der Stromverbrauch setzt sich nicht zu 100% aus Heizleistung zusammen. Trotzdem stimmt es natürlich das ein Großteil in Wärme umgesetzt wird, da die Prozessoren und Sensoren nicht sehr effizient sind.
Ich finde eure Reihe super, das ist auch für einen absoluten Amateur super spannend
Wie immer, super interessant!
Was ich durch euch schon an Hintergrundwissen erlangt habe, WAHNSINN! Macht bitte weiter so.
Das ist wieder ein fünf Sterne Video *****
Unfassbar interessant, krass. Nun überlege ich tatsächlich, ob ich mit meiner XT-4 zukünftig ausschließlich in .jpg aufnehmen werde. Da hätte ich mir den Kauf von Capture 1 sparen können. Nun, man lernt nie aus. Heute habe ich viel gelernt. Danke.
Wie sagte Pavel mal: "Was interessieren mich "echte" Fotos - ich will schöne Bilder!" - Auch bei der Technik macht's nicht immer Sinn, "Originaldaten" haben zu wollen.
Dein Kaplun könnte seinen Marmeladen Blödsinn ohne RAW garnicht machen. Schlechtes Beispiel...
Kaplun macht keine Fotos, sondern er macht Bildmalerei , hat nichts mehr mit Fotografie zu tun...
Vielen Dank für dieses Video mit vielen technischen Infos. Super interessant. Im Thema Foto bin ich recht neu, bei Computern ein alter Hase. :-) Zwei Anmerkungen möchte ich dennoch machen: 1. nur ein Teil der Energie wird in einer Kamera in Wärme umgesetzt, nicht alles, der Vergleich mit dem Lötkolben hinkt also. 2. Auch wenn die RAW-Daten nur aus dem Chip ausgelesen werden und in eine Datei geschrieben werden, muss gerechnet werden, da die Datei erzeugt werden muss.
Lieber Anders, lieber Martin,
ein sehr interessantes und großes Thema. Vielen dank für eure großen Bemühungen.
Wie schaut es denn zwischen jpeg und Heif aus. Wie seht ihr das denn. Ist das Heif eine empfehlenswerte Lösung?
Ich finde die Serie echt top!
klasse bericht! vielen dank
Wie immer eine tolle Folge. Weiter so.
Danke, sehr informativ! Interessant wäre noch zu wissen, warum es nicht ohne Rechenaufwand reicht, die echten Rohdaten abzulegen, sodaß der Rechenaufwand an die Bildbearbeitungssoftware ausgelagert wird.
Wie immer top. Diesmal aber Tiptop
Interessanter Beitrag ... Danke
Super beiträge hier, echt top die Arbeit👍
Einfach Hammer !!! Danke !
Unfassbar gute und geile Serie. Eigentlich sollte die komplette Serie jeder mal gesehen aber.
Das einzige was mich total abturnt: Diese Dicken Füsse in den Schlappen von Martin. Vor allem oft genau präsent in der Mitte. Ich bin so ein Anti Fuss Feti. Bin in Zukunft geschlossene Schuhe anziehen oder Socken.
Nochmals für dich... mein Zehen war gebrochen! :-) Das ging nicht mit Schuhen damals!
Man kann leicht überprüfen ob die Kamera trotz abgeschalteter Objektivkorrektur änderungen ins Raw schreibt oder nicht! Einfach die Kontakte zwischen Kamera und Objektiv abkleben und danach das gleiche Bild normal mit Kontakt aufnehmen. Bei meinen Nikons und Sonys wird demnach absolut nichts hineingeschrieben, wäre interessant das mal mit einer Panasonic zu versuchen, leider habe ich keine, aber interessieren würde es mich schon was dabei herauskommt!
Sau interessant, vielen Dank.
Sehr sehr cooles und spannendes Video 👍🏼👍🏼👍🏼
Danke, nettes Filmchen. Es ist sicher richtig das ein "RAW" auch schon eine Interpretation ist, bis es dann durch die Grakfikkarte auf dem Monitor ist sowieso. Klarer Fall, dennoch habe ich beim RAW Format sehr viel mehr Daten und kann daraus ein Bild erzeugen das in vielen Fällen dem automatischen JEPEG überlegen ist. Ich kann nur gewinnen, niemals verlieren mit einem RAW. Der Vorteil vom 8 bit JPEG ist Geschwindigkeit, nicht Qualität. Kann auch wichtig sein, bei mir meist nicht.
Der zweite Teil deines Kommentars kann stimmen: ...habe ich, ich kann nur..., bei mir meist nicht...
Für deinen Fall (für die, die sich für Diesen im Speziellen interessieren) mag das was du behauptest stimmen.
Das nette Filmchen, wie Du es (etwas abwertend?) nennst, ist in seiner Argumentation hingegen absolut schlüssig, nachvollziehbar und das Gesagte hat Allgemeingültigkeit. Wurde sogar durch ein Beispiel von Martin belegt. Und es stellt deine Behauptung das RAW zu einem besseren Ergebnis führen KANN, auch gar nicht in Frage, weswegen ich die abwertende Haltung nicht verstehe. Schade dass sich immer mehr Menschen, selbst wenn versucht wird völlig logisch und fundiert eine andere Sichtweise zu vermitteln, sofort angegriffen fühlen. Ich habe, was vielleicht auch keinen hier interessiert (nicht schlimm) die Ausführungen hier "gefeiert", wie Martin sagen würde, da der Horizont in einem Bereich erweitert wurde, der mich interessiert und das von der fachkundigsten und sympathischsten Person, die es in diesem Bereich wahrscheinlich gibt. Dafür Danke Anders und Martin (und Team).
@@magirusd8711 Da war nichts abwertendes, das kommt dir nur so vor weil du anderer Meinung bist. :) Aber zur Sache: OOC verliert die meisten(!) Daten des Bildes bevor ich es bearbeiten kann. (Das ist nicht abwertend, sondern ein Fakt.) Das ist fatal und im Sinne der BQ nicht akzeptabel. Die Vorteile dieser automatischen "schnellverarbeitung" liegen ausschliesslich in der Geschwindigkeit und gehen auf kosten der Qualität. Und vergiss nicht, wir fotografieren für die Zukunft. Schon heute haben wir 4/5/6k Monitore die Farben sehr gut und sehr, sehr(!) viel besser als in 8 bit darstellen können. Wie wird das in 5 Jahren sein, in 10, oder 20? Ich habe viele Bilder die so alt sind und dennoch von mir noch Beachtung erhalten. Ich gebe zu, ich exportiere die meisten Bilder nach 8bit jpg, aber ich fotografiere RAW und behalte mir die RAW Dateien. Da ist viel Potenzial, warum sollte man es leichtfertig wegwerfen? Im übrigen haben 8bit jpg Dateien die ich selbst aus einem 14bit RAW (oder bei sehr guten Kameras aus 16bit) erstelle, oft eine bessere BQ als automatisch erstellte. Das ist wie beim AF, die Kamera kann nicht wissen auf welche Bildteile es mir besonders ankommt, welchen "look" ich möchte, welche Stimmung alleine schon durch den Weissabgleich. Man vergibt sich sehr viel mit OOC Bildern. Kann nötig sein um schneller zu sein, aber kostet BQ, man muss sich das gut überlegen. Geschwindigkeit ist nur manchmal wichtig.
Das man Objektivtests so macht kann ich wiederum gut verstehen. Man will das Glas testen und nicht die Bearbeitung der RAW Datei, die man nicht immer gleich vornehmen kann und die das Ergebnis verfälschen würde. Aber das ist eine Ausnahme, solche "Testbilder" haben ein anderes Ziel. Edit: Welches Beispiel von Martin meinst du das er es widerlegt? Minute? Ich schaue mir das gerne nochmal an.
Sehr gut ausgeführt, vielen Dank! Dann habe ich das tatsächlich missverstanden, entschuldige.
Ich ging davon aus, das gleich dagegen angeredet wird, ohne das Gesagte abzuwägen.
Martins Beispiel war das mit der Kamera unter Wasser im luftdichten Beutel bei 4K 60P 30° Wassertemp. ( Bei 36:00 ) Das Bild ist im Verlaufe des Filmens immer weiter abgesoffen bis es nicht mehr verwendbar war, aufgrund der angesprochenen Überhitzung (da wirds interessant ab etwa 31:00 ).
@@magirusd8711 Danke für deine freundliche Antwort. Was das Beispiel angeht, es ist durchaus richtig das Hitze die Ergebnisse verschlechtert. Es geht jedoch um einen Film, dazu noch in einem luftdichtem Beutel. Das mag soweit stimmen, bedeutet jedoch nicht das ich beim Fotografieren das gleiche Problem hätte. Wurde nicht vermutet das die Qualität des Bildes um 1 bit sinkt pro 10C mehr Temperatur am Sensor? Sagen wir das stimmt grob (ich weiss es nicht), dann dürfte eine gute Kamera mit 14 bit 60C wärmer am Sensor werden um auf 8 bit Jpeg zurück zu fallen. Grundsätzlich bringt jpg Tempo auf kosten der Qualität. Das muss jeder selbst entscheiden. Auf keinen Fall ist es "egal" für die BQ wenn man die meisten Informationen, direkt schon in der Kamera, wegschmeisst.
@@opendrivers ä#
Moin Männer, sehr interessant und informativ! Vielen Dank für diese Infos.👍 So wird mir einiges klarer.
Böses..Böses..jepg! 😂 Euch wünsche ich einen schönen, entspannten Sonntag.😎😣
Wieder eine extrem gute Folge. Extrem interessant. Wieder viel gelernt. Kritikpunkt: Ihr hättet ruhig noch weiter in die Tiefe gehen können. Aber dann wäre die Folge bestimmt viel zu lang geworden. Wie wäre es mit einer 31. Folge die sich mit dem Thema Komprimierung beschäftigt? ;)
Ich verstehe die Hitzediskussion nicht. Selbst wenn das alles stimmt und sichtbar ist, dann sieht man das auch auf dem JPG. Oder wo ist mein Denkfehler?
Einfach nur krass! Danke Danke für das wissen was ihr uns gebt.
Mir hat man die ganze Ausrüstung geklaut! Würdet ihr nochmal in Dslr investieren oder nur noch in dslm?
Währe toll wenn ihr das Thema aufnehmen könntet
Hallo Anders,
Hallo Martin,
wenn bereits in das RAW-File durch die digitale Bildverarbeitung diverse Korrekturen einfließen,
müsste dann nicht ein Objektivtest mit mehreren Kamera-Modellen eines Herstellers durchgeführt werden
und vor allem nach jedem Firmware-Update (Kamera oder Objektiv) wiederholt werden?
Grüße, Tom
Hallo Martin,
Warum wird das DNG nicht angesprochen?
Bringt Pentax oder Leica morgen ein neues Modell auf den Markt, dann kann ich auch bereits morgen meine RAW Dateien bearbeiten.
Bei allen anderen muss ich warten bis beispielsweise Lightroom da etwas gebastelt hat nicht nur für einen bestimmten Hersteller, sondern für jede einzelne Kamera und Modell Version. (MK I, MKII...)
Da muss es doch gravierende Unterschiede und Ergebnisse geben.
Beispiel Fuji in LR und Olympus... 😉
Zum Thema Temperatur: Macht mal Sternenfotographie im Winter und im Sommer. Der Unterschied ist deutlich.
Wow, das war ja diesmal wieder richtig viel Stoff - sehr genial. Woraus aber berechnet denn die Kamera das JPG? Wird denn nicht eh erst das RAW "fertig gestellt" und dann daraus das JPG erzeugt? So dachte ich das jedenfalls bislang.
Vermutlich nicht. Sondern das RAW und das JPG werden aus den Daten des Sensors produziert. Also aus den "echten" Rohdaten.
Marius B. Wenn eine Speicherkarte 95MB/s schreiben kann und ein RAW 30MB groß ist, wieviele Bilder pro Sekunde können geschrieben werden? Der interne Speicher der Kamera und die Verarbeitung der Datenrate ist wesentlich schneller als eine SD oder CF Karte. Das ist m. E leider auch einer der Fehler im Video: Die Schreibrate auf die Karte und die Größe des Puffers lassen keine Rückschlüsse auf den Rechenaufwand zu. Nebenbei: Auch bei RAW wird immer ein (kleineres) JPG erzeugt, das als Vorschaubild im RAW eingebettet ist.
Wegen Andreas werde ich Paranoid. Ich werde jetzt jede meine einzelne Objektive genau anschauen.
Vielen Dank. Was ist dng format?
Ein proprietäres aber offenes RAW Format von Adobe.
@@krolopgerst
Super - komplette Erklärung in 8 Worten, wofür Wikipedia 800 Worte braucht ;o)
Viel Informatives. Aber beim Thema RAW und den Ansichtsmethoden ausgelegt für unterschiedliche Ansichtsvorstellungen von Leuten: Ich mache ein RAW für den, ein RAW für den usw. Das ist völlig falsch. Der RAW Vergleich soll bei allen Vergleichen neutral in der Grafikksoftware durchgeführt werden. Die Kameras greifen in jpgs unterschiedlich ein und sind weitaus unvergleichbarer. Und wenn ein Kamerahersteller mehr schärft, oder die Sättigung mehr erhöht um Sensor-oder Objektivschwächen auszugleichen, dann ist ein Vergleich sinnlos in jpgs!!!! Wenn ich die RAW neutral ohne Regler Verstellung vergleiche, ergibt das eine weitaus höhere Qualitätseinschätzung, überhaupt wenn ich Raws von Kameraobjektiven eines Kameraherstellers vergleiche.
Hallo,
warum werden dann sinnvollen & wichtigen Korrekturen wie bspw. Objektivkorrektur im RAW nicht angewendet, die im JPG angewendet sind? Hier würde ich mich ungern auf externe Tools verlassen, die immer nur eine Näherung sind und somit ein Nachteil des RAW...
Es werden viele Korrekturen im RAW angewendet. Wer sagt denn was anderes?
@@krolopgerst Hallo, also bei der Sony RX100IV im Weitwinkel sieht man sehr ordentlich im RAW, das die Objektivkorrektur nicht mit drin ist. Bei meiner A7ii ehrlich gesagt habe ich es noch nicht vergleichen.
Super .., danke !
Jetzt wird auch klar, warum es Unterschiede gibt zwischen z. B. LR und "hauseigener " Software!!! Martin danke für Deine Muehe!!!!
Ich habe sämtliche Milchstraßenfotos in Namibia versaut. Mit der genialen Sternentrackingfunktion der Pentax habe ich leider ISO heruntergefahren und mehrmals 5min belichtet...
Lötkolben ist ein guter Vergleich.
Ich hatte mal eine GX80 von Panasonic, die hatte ein Betriebsrauschen, vermutlich Lüfter ,- oder??
Das Sensoren durch das erzeugen von JPEG oder RAW Daten unterschiedlich warm werden ist sicherlich möglich, aber kaum relevant, man müsste sehr schnell fotografieren was ich selten mache. Wieder ist der Vorteil von JPEG bei der Geschwindigkeit, verliert jedoch bei der Qualität.
Ich schaue mir manche Vids zweimal oder sogar dreimal an. Manchmal, nehme ich meine Kamera, mache ein Bild (x-beliebig) und beobachte was passiert. Soll heißen, ich schaue mir nicht einfach alles an, sondern ich versuche meine Kam zu verstehen, bzw. was da drin passiert. Ich kenne noch analoge Fotografie. Da habe ich das auch gemacht. Nur auf der Ebene "entwickeln des Fotos". Es ist einfach unglaublich, was Elektronik zu Stande bringt. Aber man muss es auch begreifen - eben verstehen - wie man auch Bilder entwickeln in der "Dunkelkammer" verstehen lernen musste. Ich mag diese Objektivreihe sehr. .... auch wenn aufgrund der Hitzeentwicklung der Trend zu einer "Drittkamera" tendiert .... seufz ...
Es wäre mal interessant die neuen Objektive an eine Filmkamera zu tackern und dann schauen was die so machen ;-)
verzeichnung ist bei der lumix 300 in RAW auch noch stark vorhanden, in jpg nicht
Vielen Dank für dieses überaus interessante Video. Mit grundlegenden elektronischen Kenntnissen kann ich das Gesagte gut nachvollziehen, ich denke ohne dies wird es manchem schwer fallen zu verstehen worum es geht.
Ich wünsche mir speziell zu diesem Thema eine Fortsetzung, denn mich würde doch sehr interessieren wie das erzeugen eines JPEG Bildes bzw. der Datei genau funktioniert und warum es so deutlich schneller ist, als das Verrechnen des RAW Files. Ausserdem wird doch immer behauptet, dass JPEG nichts taugen würde, weil es nur 8bit hat und RAW eben mehr?
Bezüglich der permanenten Aussagen, dass man unbedingt in RAW fotografieren sollte, ist meine persönliche Meinung, dass man genau darauf achten sollte, von wem denn diese Aussagen kommen. Bieten diese Personen denn evtl. nicht auch gleichzeitig noch eine Schulung in LR oder PS an? Böse ist, wer böses denkt ;-)
Hallo,eine Frage hast du Erfahrung mit dem Minolta AF 80-200 F2.8 APO HS ( High-Speed ) z.Z 420-600€. es soll schneller sein wie bei den Nachfolgemodell von Sony mit Ultraschall Motor.
Mit dem Soligor Konverter 2.0 hätte ich 400mm (600mm Cropfaktor) und eine Blende F5.6.
Hört sich doch gut an für meine Sony E-Maunt. Es lässt sich auch adaptieren mit dem LA-EA4 für alle Sony E-Mount Modelle das ich besitze.
Gruß h.a.
E maunt? 😂😂😂
Kupfer bringt eing. nicht den Vorteil der Schnelligkeit. Kupfer hat einen geringeren spezifischen Widerstand als z.B. Aluminium. Dadurch kann man kleinere/dünnere Leitungen realisieren bei gleichbleibendem Widerstand. Bedeutet: Ich kann den Chip kleiner machen und genau das ist der Vorteil.
Frage nach vier Jahren 😊: Macht es einen Unterschied ob ich die Kamera auf srgb oder adoberrgb stelle, wenn ich direkt als jpg speichere?
Ja, sehr!!!! Vor allem wenn die Dateien die eigenen vier Wände verlassen...
@@krolopgerstdh es wird adobergb im jpg gespeichert?
Wenn Raw-Daten so Kameraspezifisch sind macht es dann überhaupt Sinn die Raw-Dateien in Adobe DNG umzuwandeln?!
Ich bekomme meine Sony Raws der a7 mit capture one nicht auf die gleiche Qualität wie die Kamera jpegs...
Top!
Was vergessen. Das Thema lautet ja RAW verglichen mit JPEG. Das Argument, warum Anders JPEG-Daten und nicht RAW-Daten vergleicht ist einleuchtend.
Jetzt ist es noch erwähnt worden.
Das Video ist interessant und ich habe auch einiges dazugelernt bzw auch andere Sichtweisen erhalten, keine Frage - aber alles für bare Münze kann ich persönlich nicht nehmen... Wer lötet mit einem 20 W Lötkolben? Das wird nichts von Wrfolg gekröntem... Wenn die Kamera im Sommer schlechtere Ergebnisse liefert, verstehe ich das, weil die Kamera komplett durchgewärmt wird - und somit auch der Sensor: das wird auch durch die Beispiel klar deutlich. Die angespeochenen 20 W werden jedoch zum Hauptteil im Display und im Kamera-Prozessor umgesetzt, aber meiner Meinung nach bestimmt nicht im Sensor selbst....?! Denn der Sensor liefert doch immer die gleichen Grund-Daten ('voraufbereitet' oder nicht), egal ob in JPG oder RAW photografiert wird. Die Umwandlung von RAW in JPG erfolgt im Kameraprozessor, ebenso wie die Datenaufbereitung der RAW-Daten zum Speichern. Dabei wird kein Sensor erwärmt, sondern der Prozessor. Der Kamerahersteller wird den Prozessor nicht in unmittelbarer Nähe zum Sensors platzieren, damit die Abwärme des Prozessors den Sensor erwärmt. Außerdem muss durch passive Kühlung die Wärme des Prozessors abgeführt werden, daher werden Wärmequellen bestimmt nicht im Zentrum der Kamera platziert. Korrigiert mich, wenn ich falsch liegen sollte... Und ja, ich photografiere auch im JPG-Format, schon immer und auch weiterhin :-D
Ich kann optimal dazu einschlafen... Vielen Dank 👍
Dieser Beitrag ist ein Abo wert!!!
Danke Danke Danke.Ich habe es immer befüchet.
mit freundlichem Gruß aus dem Schaumburger Land
Matthias
Bin heute zum ersten Mal in Euren Kanal "reingezappt". Sehr gut im Vergleich zu manch anderen YT-Videos.
Ich fotografiere seit eh und jeh in JPG; habe mal testweise ein Bild in RAW und JPG mit meiner Nikon D750
fotografiert und dann am Rechner geschaut, ob da ein großer Unterschied ist.
Subjektiv beobachtet: Null Unterschied. Allerdings möchte ich hier erwähnen, dass ich kein Profi bin, sondern nur ambitionierter Amateur. Freue mich schon auf weitere Videos von Euch.
Man vergleiche die Ergebnisse des EF 50mm 1.2 L am digitalen Body mit den Ergebnissen auf Film am analogen Canon Body - ich war erstaunt.
Erzähl mal bitte.
Der Beitrag strotzt ja nur so vor technischen Fehlern.
Da wird frech behauptet, dass sich der Sensor sich auf Grund der RAW-Verarbeitung erwärmt und deshalb die Bildqualität im „Dauerfeuer“ auf Grund von Rauschen leidet. Quasi als Beweis wird der Bekannte mit den Nachtfotos und der Langzeitbelichtung angeführt. Offenbar wird später vergessen, was anfangs erwähnt wurde: so ein Sensor besteht nicht nur aus den fotosensitiven Zellen, sondern auch noch aus Verstärkern und anderen aktiven Bauelementen. Diese verbrauchen Strom und dadurch erwärmt sich der Sensor maßgeblich. Der wird bei Langzeitbelichtung nicht warm, weil man RAW als Speicherformat wählt. (Die Speicherung dürfte bei den meisten Kameras ohnehin erst nach dem Schließen des Verschlusses erfolgen …)
Zudem dürfte bei vielen DSLRs die Verarbeitung in einem dedizierten Prozessor statt finden, der sich dann erwärmen dürfte. Das würde aber bedeuten, dass es für den Sensor erst mal keinen Unterschied macht, ob der Prozessor die Daten im Rohformat wegspeichert oder ob er sie zu JPG komprimiert.
Dann wird behauptet, dass die Begrenzung der Serienbildaufnahme in der Rechenzeit fürs RAW begründet liegt. Dagegen spricht schon einfache Mathematik. Als Beispiel sei die Nikon D850 genannt. Deren RAWs sind unkomprimiert in voller Auflösung sind etwa 90 MB groß. Die Kamera schafft mit einem kräftigeren Akku bis zu 9 Bilder pro Sekunde. Das ergibt nach Adam Ries 810 MB/s Daten, die weggeschrieben werden müssen. Jetzt würde ich gerne mal eine SD- oder XQD-Karte sehen, die eine solch hohe Datenrate schafft.
Daraus kann man schlussfolgern, dass nicht die Verarbeitung des RAW-Formats die Serienbildaufnahme beschränkt, sondern die Geschwindigkeiten der Karte und des Speicherinterfaces. Und die Größe des Zwischenspeichers in der Kamera.
Im Endeffekt bedeutet das, dass sich die vorgebrachten Kritikpunkte am RAW in Luft auflösen.
Wobei ich die Begründung, warum beim Testen die kamerainterne JPG-Komprimierung verwendet wird, schlüssig und verständlich finde. Aber der Rest scheint mir an den Haaren herbei gezogen.
Grüße
Genau :-)
... in Luft auflösen, möchte ich voll und ganz zustimmen!
Harte Kost Heute, aber superinteressant, wieder mal Danke!
RAW-Entwicklung ist wie im Stau stehen :-)
10 = 2 , wenn binär 😎
Ein schlauer Mensch, hat mal Shirts bedruckt mit : Keine Macht dem RAW!..... :-)
Hallo, weil gerade das Thema Nullpunkt kam. Ich habe gelernt, dass das Doppelspalt-Experiment bei großer Hitze keine Wellen-Natur des Lichts mehr Zeigt. Heißt das, dass wir bei großer Hitze theoretisch keine Beugungsunschärfe bei kleinen Blenden mehr hätten?
nein. die Hitze im Doppelspalt-Experiment erzeugt lediglich mehr Wechselwirkung der Teilchen, und da ja jede Wechselwirkung quasi eine Messung ist, verliert das Licht seine Welleneigenschaft. Im Objektiv dürfte die schon durch das Durchdringen des Glases verschwunden sein.
oh gott der hall ist furchtbar, inhaltlich aber toll. leider schaue ich es mir so wahrscheinlich nur einmal an
RAW und oder JPEG? Ich komme aus der analogen Zeit. DIA's kann man nicht verändern. Das ist für mich JPEG. Da kann man nicht viel verändern. RAW ist wie früher ein Negative. Da bekam man Negative, daraus wurden meist gleich Bilder gemacht. Oder man entwickelte selber daraus Bilder. Ich habe 1973 in der Schule gelernt wie man Negativ-Filme und Bilder entwickelte. In Schwarz weis. Vieleicht ein schlechter vergleich: DIA's wie JPEG und Negative gleich RAW.
Juhuuuu wieder ein neues Vid 😍
Irgendwie lässt das Video den eigentlichen Punkt außer acht, um den es bei JPG vs RAW überhaupt geht.
In der RAW Datei ist der ganze Dynamikumfang in 12 bis 14 Bit gespeichert. Das heißt hier sind in der JPG schon Infos verloren gegangen die unwiederbringlich weg sind. Nun kann man aber aus einer RAW mit den ganzen Infos 1000 JPGs machen die alle anders aussehen ohne die eigentlichen Infos in der RAW-Datei anzufassen, denn diese bleibt bei non-desktruktiver Arbeitsweise natürlich unberührt. Versucht man selbiges mit einer JPG wird man scheitern.
Zumal man mit einer Raw die Möglichkeit hat eine JPG zu speichern welche an das jeweilig intendierte Ausgabemedium angepasst werden konnte, aber eben aus einer nicht schon vorher Verlustbehafteten Datei, was die Qualität erhöhen dürfte.
Die Langzeitspeicherung funktioniert mit einer in eine TIFF umgewandelten RAW Datei ebenso besser. (Die Kosten für Speicherplatz sind nun wirklich vernachlässigbar)
Natürlich sind das keine Kriterien mit der sich der 0815-Hobbyfotograph herumschlagen möchte und deswegen haben beide Formate für verschiedene Nutzergruppen ihre Daseinsberechtigung und es geht im Kern nicht darum was "besser" oder "schlechter" ist, sondern welches Dateiformat sich für den jeweiligen Anwendungszweck am besten eignet.
Damit ist dieser fahl geklärt Danke schön gutes Video 😉👍🙂
Warum nicht die Sensorrohrdaten direkt abspeichern und erst im RAW Konverter so bearbeiten dass sie nutzbar sind?
Das würde doch eine Kamera theoretisch sehr viel schneller werden lassen...
Sorry, aber bei 23:50 hat er Unrecht. 24 bit (also 3x8bit) sind zu wenig. Man erkennt unter Umständen Treppchen. Es gibt Monitore, die das besser können. Und in Zukunft werden Bildschirme noch heller, sprich dynamischer und dann braucht man auch die Auflösung. Ich arbeitet in Photoshop (und After Effects) nur noch mit 16 bit. Man kann mit Tricks sogar aus 8 bit 16 bit erzeugen.
8 bit reichen dann aus, wenn genügend Korn oder Rauschen für Dithering sorgt. Nicht aber bei glatten Verläufen.
Übrigens hat Jpeg nicht wirklich 24bit, also 16 Mio Farben, sondern nur ca. 4 Mio Farben. Da bei Jpeg eine Transformation von R G B in Y Cr Cb erfolgt. Und die meisten der 16 Mio YCrCb-Werte
sind invalide RGB-Werte. Gerade wenn man in Y Cr Cb oder in Photoshop Lab benutzt (was ähnlich, aber mit anderer Metrik arbeitet) braucht man mehr als 8 bit pro Kanal.
Ich vermisse, dass Kameras keine verlustloses RGB-Format in 16 bit haben. Statt Jpeg 16 bit Tiffs wäre was. Da hätte man das ganze Kamera-Knowhow (und gerade bei Handys ist das sehr viel!) und noch genügend Bearbeitungsspielraum.
Mach mal mit Jpeg Chromakey ....
Und er hatte schon Unrecht bei den Farben. Das Bayern-Pattern hat nicht deswegen doppelt so viel Grün, weil wie da besser Farbäuflösen. Sondern weil Grün den größten Anteil an der Helligkeit und daher auch Dynamik und Schärfe hat. Für rec601 gilt Y = 0.3*R + 0.59*G + 0.3*R. (bei sRGB sind die Faktoren leicht anders[sic!], mag ich aber grad nicht googlen, größenmässig ist es gleich)
Wir haben die größte Farbäuflösung im rot-gelben Bereich (weil der Rot- und Grün-Zapfen sprektral sehr nahe sind) und die größte Schärfe im Gelb-Orangenen. (weswegen Na-Lampen bei Strassenbeleuchtungen immer noch beliebt sind).
Korrigiert mich wenn ich da falsch liege.
Bit ob 8 oder 24 ist doch die Farbtiefe und die von die beschriebene Treppchen beschreibt doch die Auflösung dpi.
@@glingo72 nein. Ich meinte Treppchen bei Farbverläufen.
Grottige Akustik 🙁
Danke für die Reihe!
Meine Nikon D750 macht mit einer Akkuladung in RAW 10-15% mehr Aufnahmen als in jpeg; fine, large.
Ich hoffe Ihr plant den 3. Teil der Reihe.
Kleiner Tipp. 2 hoch 10 kann nicht 1023 sein da wenn man 2 immer multipliziert nichts ungerades rauskommen kann. Sind 1024.
Aber ansonsten find ich es super wie ihr das immer erklärt.
Es ist üblich bei 0 mit dem Zählen zu beginnen. Daher kommt er bei 1023 aus.
@@ytano5782 fast, mit üblich hat das nix zu tun. 2^10 = 1024 daran beißt die Maus keinen Faden ab, mit 10 Bit lassen sich nur die Zahlen von 0 bis 1023 (binär 0000000000 bis 1111111111) darstellen, was aber immer noch 1024 unterschiedliche Zahlen sind.
Michael Stark Hast meine Aussage offensichtlich nicht verstanden.
I have a Canon PowerShot SX60 und die JPGs have greater sharpness, better colors and less fringing than the RAWs. The latter requires considerable post processing to come to a result only close to the first.
I was under the impression that RAW should be the highest quality but now I understand.
Mann könnte doch eigentlich zum Herausfinden, was von der Kamera nachgearbeitet wird, das zu testende Objektiv leicht im Bajonett drehen, so dass es immer noch hält, aber genug, dass die elektronische Verbindung unterbrochen wird. Die Kamera erkennt kein Objektiv mehr und kann keine passende Korrektur berechnen.
Martin, abnehmen!!!! :)
hab ne g9, das mit der pana ist heute noch so und keinem interessiert es mehr 😁
Ps: brauch nen neuen monitor🤣
Allein die Tatsache, dass ich keine Zeit habe, jedes Bild erst 1 Stunde lang zu bearbeiten und so zu optimieren, dass es zwar optisch besser gefällt aber mit den Gegebenheiten vor Ort nicht mehr viel zu tun hat..... Allein dieser Zeitmangel lässt Raw für mich uninteressant bzw. zur absoluten Ausnahme werden.
Das ist doch Quatsch. Eine Standardrawentwicklung dauert nicht mal 3 Minuten.
Wie dumm. Bei RAW-Dateien wird ausgelesen/gerechnet, daher kann sich der Sensor erwärmen und damit das Rauschen erhöhen, daher lieber JPEG, denn da wird nichts oder weniger ausgelesen/gerechnet und komprimiert
Was soll ich sagen, beim fotografieren interessiert mich das alles nicht. Beim RAW Format kann ich besser nachbearbeiten. Das ist Erfahrung, nichts weiter. Korrektur in der Kamera findet immer statt. Interessant, für die Praxis nichts sagend. Glas wird in Zukunft nicht mehr für Objektive verwendet, darauf muss man sich vorbereiten. Der Sensor wird chemisch, organisch. Pixel werden keine Rolle spielen, da Schichten auf Licht reagieren. Quantenrechner berechnen die Abstufungen der Vektoren. Das ist Zukunft, dieses hier ist Vergangenheit. Was glaubt ihr eigentlich was wir Menschen ohne Korrektur des Gehirns mit unserer Optik (Augen) sehen würden? Nicht nur das das Bild auf dem Kopf steht, es wäre auch noch ohne Farbkorrektur und unscharf. Wenn die Iris sich nicht mehr den Lichtverhältnissen anpasst, dann ist die Belichtung auch noch falsch. Wir besitzen durch unser Gehirn eine Vollautomatik die auch noch stimmt.
Sehr interessanter Beitrag, regt zum Nachdenken an. Ich würde mir nur wünschen, dass Herr Uschold mit der Unart aufhört, immer mit dem Zeigefinger auf jemanden zu zeigen.