Der Erklär-Bär in Höchstform! Leute wie dich bräuchten wir als Lehrer, Professoren, was-auch-immer! Staubtrockene Theorie wunderbar erklärt, vielen Dank :)
Meine Mathelehrerin hat`s immer gesagt; Pythagoras braucht ihr, auch wenn ihr das jetzt noch nicht seht. Und nun auch im Hobby. Wie immer toll gemacht , das Video und sorgt für ein Grundverständnis. Und darauf kommt es an. Ein Gefühl für die äußeren Bedingungen zu bekommen.
Sehr schönes Video! Das Thema ist halt sehr trocken aber auch nicht unwichtig.Ich finde es sehr schön rüber gebracht. Ich glaube bei 41:30 ist der Grund warum die Zeiten nicht stimmen, dass bei dem Bild ja bereits etwas abgezogen wurde (2700 - 2000 =700). PixInsight nimmt dieses Bild als Basis für die Berechnungen, wenn da schon eine "korrigierter" Hintergrund vorhanden ist, also dunkler, könnte man wieder länger Belichten.
Hallo Konrad. Danke für dein Lob, freut mich. Man muss aber die Bilder korrigieren, wenn man diese 2000ADUs die ja nicht vom Himmel kommen, nicht abzieht, bekommt man falsche Werte. Mich wundert nur, dass diese 14bit zu 16bit exakt zu dem gleichen Betrag führen, wie das Bias. Ist aber vielleicht nur Zufall. Es zeigt aber wie anfällig die Berechnungen sind.
Hallo Frank, bei dem Wetter draußen habe ich mir nochmal dein Erklärvideo angesehen und muss sagen: haste wirklich gut gemacht. Nicht zu viel Theorie, besser ausprobieren. LG
Ich habe letzte Woche das erste mal mit 10min Belichtungen probiert, Blauer Pferdekopf halt, war extrem schwach leuchtender Nebel. Leider Dithern vergessen, muss aber sagen, Bild kam dennoch mega nice raus. Klare Empfehlung von mir, man muss unter klaren Himmel!! :)
Oh krass, mir rauscht der kopf 😅😅🙈 den muss ich mir nochmals anschauen, sehr viel Informationen. Wird mal abgespeichert 👍🏻 Danke für die Mühen, dies so explizit zu erklären 👍🏻
Habe die komplexe Materie das erste Mal wirklich verstanden, dank deiner "Erklärkünste". Schöne Einfälle hast du immer, um die Dinge verständlich zu machen (Autofahrt und das Planspiel...) Top! Bitte weiter so Frank! Ich mache immer fleißig Werbung für deinen Kanal.... Übrigens: Glückwunsch zu 6.000 Abonnenten! :-) VG Ronny
Hallo Ronny, danke dir. Freut mich dass dir das Video geholfen hat diese doch komplexe Sache zu verstehen. Die Anschaulichen Dinge, wie z B die Autofahrt oder das Planspiel machen mir selber am meisten Spaß. 6000 ist schon gut, freue ich mich drüber. LG
Hallo Frank, sehr schönes Video! Ich arbeite mich gerade in die ganze Astrofotografie-Thematik ein und bin daher generell sehr dankbar für deine Videos. Auch wenn ich recht spät dran bin, möchte ich noch meine Gedanken zur "Problematik" am Schluss teilen. Ich kann mir vorstellen, dass der Abzug des Masterdarks für die Rechnung nicht notwendig ist und daher die ersten Ergebnisse, die du hattest, korrekt waren. Mit den Parametern, welche du einträgst, kann sich der Rechner doch einen theoretischen mittleren Wert für die ADC-Inkremente (ADU), die rein auf Grund des Auslese- und Dunkelrauschens und unter Berücksichtigung der Belichtungszeit entstehen, selbst berechnen. Die Differenz zum aus dem Bild gemessenen ADU-Wert ist damit ein Maß für das Photonenrauschen zum Beobachtungszeitpunkt, woraus die optimale Belichtungszeit berechnet wird. Wenn du ihm ein bereits korrigiertes Bild fütterst, wird es missinterpretiert, so als hättest du bei der Aufnahme viel bessere Bedingungen gehabt. Damit wird dann die zum Erreichen der Hintergrundlimitierung notwendige Belichtungszeit natürlich viel größer angegeben.
Hallo Roman, danke für das Lob. Es hat sich später herausgestellt, dass es ein Missverständnis ist, dass mein bei ADU Bits 14 einstellt, wenn es sich um eine 14bit Kamera handelt. Die Bittiefe ist hier nicht relevant. PixInsight hat eine etwas merkwürdige Philosophie da, oder sagen wir ungewohnte. Die 16bit beziehen sich nur auf die Bilddarstellung. Gibt man dort also 4bit ein, erhält man völlig falsche Werte. Das abziehen des Bias ist absolut notwendig, und man muss immer 6bit einstellen, egal welche Bittiefe die Kamera hat.
@@astrophotocologne Ja, glaube ich gerne. Ich musste mir das Video von Robin Glover auch mehrfach ansehen, um die Formeln zu verstehen. In Deutsch ist das natürlich einfacher... :-) Was auch normal nicht so rüber kommt, aber mit Deinem Video sich von selbst ergibt: die Darkframes sind genau deshalb nicht so extrem wichtig, weil sie eben nur das Kamera-Rauschen gemittelt abziehen - und das ist in der Regel eben geringer bei einer guten Kamera (wenn man denn ein neueres Modell hat).Wichtig ist eben auch, dass man nur gemittelte Werte statistisch abzieht, also bleibt immer etwas Rauschen zurück, man hat nur weniger davon anteilig im Wertebereich der verfügbaren Bittiefe im finalen Bild. Bin schon gespannt, wenn ich das erste Mal geditherte Bilder habe, wie stark sich das bemerkbar macht. Habe es jetzt endlich mit EKOS hinbekommen, direktes Autoguiding zu machen und die Kamera darüber zu kontrollieren (musste von der NEQ6 den Backslash reduzieren)- nur das Wetter hat mir immer wieder einen Strich durch die Rechnung gemacht (Wolken nirgendwo in Deutschland, außer über mir... ).
Moin😊 ab Heute hast du einen neuen Spitznamen bei MIR.......... Professor 👍........ Danke Danke, bin ich froh, das mein Freund Pythagoras mich jetzt auch noch beim Hobby begleitet. Saubere Sache, jetzt wird es Zeit für weitere 1000 Abonnenten. Grüße aus NRW
Eine Idee zu den 16 Bits: ich arbeite mich grade erst in die Bildbearbeitung an aber wenn ich das richtig verstehe, dann sollen diese ganzen Darks, Bias usw. dazu dienen diverse Rauschanteile zu reduzieren. Sagen wir du hast einen Analog-Digital-Wandler mit 16 Bits und der hat in der Anwendung 2 Bit Rauschen, dann kannst du den ADC mit 16 - (2+1) = 13 Nutzbits… ja nutzen. Wenn man in der Lage ist im Postprocessing den Signal-Rausch-Abstand zu erhöhen (Abzug eines Darks?), dann erhöht sich die Anzahl der Nutzbits. Könnte das damit zusammenhängen?
Hi, hm Rauschen reduzieren geht m.E. nicht mit Darks oder ähnlichem. Aber es ist nicht unwahrscheinlich dass 2 Bits einfach nur Rauschen enthalten und kein Nutzsignal. In PixInsight ist es einfach so, dass sich diese Bit Anzeige auf die interne Darstellung der Daten bezieht. Man sollte am besten alles auf 16bit stehen lassen.
Habe es nachgerechnet, nur habe ich die Berechnung noch in mein Datenblatt aufgenommen. Kann man sich viel Arbeit damit sparen, wenn man ein einzelnes Bild auswertet.
@@astrophotocologne Ja habe da eine Excel Vorlage gefunden, die aus Messdaten der LIghts und Darks den SNR - Wert berechnen kann. Zudem habe ich noch das hier hinzugefügt. Schreibe im Forum später was dazu. Muss noch einige Test machen.
Puh ich habe mich mit den Rechnungen an meine Schulzeit erinnert. Gut dargebracht. Mal sehen wie ich es umsetzen kann. 10 min bel ist mit einem Skywatcher Adv. nicht drin. Bin bei 3 min mit 600 mm . Mal sehen ob mehr geht 👍
@@astrophotocologne das habe ich schon gemacht. Und neue Dark dazu. Leider ist der Hintergrund mit extremen Querrauschen versetzt. Jetzt probiere ich es mit etwas weniger. Hat im Winter gut funktioniert. Da war auch der Sensor gekühlt 😉
Ich meine es fehlt noch eine Rauschquelle: Wir sollten die Dynamik des Chips immer gut ausnutzen. Wenn wir nur den unteren Teil der ADUs nutzen ist wie bei einer Digital Audio Aufnahme: die wird auch immer bis 0 db ausgesteuert, damit das Rauschen der Digitalisierung selbst kleiner wird. Ein Signal zwischen 400 und 500 hat ein schlechteres Signal Rauschverhältnis, als ein Signal zwischen 40000 und 50000. Aber selbes Prinzip. also der Vorgang der Digitalisierung erzeugt auch ein Rauschen an sich. Viele Grüße
Hallo, in der ganzen Betrachtung fallen solche Rauschanteile unter den Tisch, die bereits in den anderen Rauschquellen enthalten sind. So ist z.Bsp. das Quantisierungsrauschen Teil des Ausleserauschens.
Hallo und servus aus BW. Folge deinem Kanal schon ein weilchen und bin dadurch auch zur Astrofotografie gekommen. Allerdings komme ich mit den Montierung zur Ausrichtung des Fotos nur spärlich klar - Anwenderfehler 😉. Gibt es den Vollautomatisch montierungen welche quasi auf Knopfdruck neigung usw. einstellen und ich nur ein Knöpfchen drücken muss 😃? Bin in der Fotografie schon lange zuhause, aber bei den Sternen noch recht jung.
Hallo Manuel, hab etwas Geduld, irgendwann klappt das alles. Astrofotografie ist schon etwas komplexer. Vielleicht mache ich mal ein Video zum einnorden. Habe aber jetzt erstmal Material für andere Videos hier liegen.
Hallo Frank, ich habe mir dein Video noch mal angeschaut. Mir ist noch eine kurze (hoffentlich nicht zu doofe:) Frage eingefallen. Ist es richtig, dass, wenn das Dunkelstromrauschen der Kamera durch Kühlung des Chips so gering ist und dieser Faktor damit vernachlässigbar ist, dass dann ist die Erstellung dementsprechender Darks nicht zwingend notwendig ist? Oder habe ich da einen Denkfehler bzw. etwas falsch verstanden? Dankeschön im Voraus für deine Antwort😊 Ronny
Hallo Ronny, evtl. ein Denkfehler. Flatdarks ersetzen nicht die Darks. Flatdarks sind Darks für die Flats :-) Ist alles etwas verwirrend, es hilft sich das mal aufzumalen oder so. Dann muss man noch Rauschen und Signal auseinanderhalten. Das Dunkelstromsignal wird mit den Darks abgezogen, nicht das Rauschen.
@@astrophotocologne Vielen Dank für deine Antwort, Frank. 😊Wenn das Dunkelstromsignal bei einer gekühlten Kamera also sehr gering (damit vernachlässigbar ist), könnte ich die Darks dann eventuell weglassen? Viele Grüße nach Köln
@@ronnylanglotz4807 nee auch nicht :-) Dann wenn das Dunkelstrom exakt gleichmäßig über den ganzen Chip gleich ist, du also ein komplett ebenes dark hast, dann kannst du es weg lassen. Habe dazu zwei Videos gemacht Darks vs Dithering heißt das erste.
@@astrophotocologne Hallo Frank, hab vielen Dank für deine Geduld zur Beantwortung der Fragen und dafür, dass du Anfänger wie mich damit zusätzlich zu den Videos von deiner Expertise profitieren lässt 👍. Guter Tipp mit dem Video. Muss zugeben, dass ist eins der wenigen von dir, die ich noch nicht geschaut habe. Bestimmt aufschlussreich wie immer☺. Viele Grüße
Hallo Frank, ein super Video. Ich überlege, ob man bei der Belichtungszeit-Problematik mit einer Fourier- oder LaPlace-Transformation, also aus der timedomain in die Frequencedomain, zusätzliche Infos ziehen kann. Man müsste deutliche Peak an den Stellen sehen wo Information ist. Das Rauschen kann man quantifizieren, also dann komplett abziehen. Könntest du mir bitte die Quelle für die Umrechnung von ISO auf GAIN geben? Ich habe eine Canon 700d. Vielen Dank Gunter
Hallo Gunter, freut mich dass dir das Video gefällt. Fourier Transformation, puh, keine Ahnung. Die wird sehr häufig angewendet in speziellen Filtern z B in PixInsight. Aber das wäre ein Thema für ein neues, zweistündiges Video haha. Ichglaube nicht dass man die Natur und die Physik mit Algorithmen wirklich austricksen kann. Das ist alles sehr hilfreich aber die Basisdaten, die sind m.E. wichtig. Infos zu meiner Kamera habe ich hier gefunden:www.astrosurf.com/comolli/strum54.htm
Hallo Frank, wenn ich es versäumt habe auf den Mean ADU meines Bias/Dark zu achten und die Belichtungszeit des Light zu knapp gewählt habe, kann es sein, dass nach Kalibrierung einige Pixel den Wert Null haben. Kann ich das retten, indem ich über PixelMath ein paar ADU in allen RAW dazu addiere und danach nochmal neu kalibriere?
Das kann im Ursprung daran liegen, dass du vielleicht den Offset falsch eingestellt hast? Schau mal das entsprechende Video dazu. Aber ja, du kannst zwar an den entsprechenden Pixeln die Information nicht retten, aber man kann quasi nachträglich einen Offset draufgeben. Wenn du PixInsight nutzt und da das WBPP Script, gibt es sogar eigens ein Häkchen dafür.
Hallo Frank, da ich mir eine EOS R zugelegt habe und die maximale Belichtungszeit in meinem Garten mit BW 200 mm, f2.8….4 und verschiedenen ISO Einstellungen herausbringen möchte, habe ich mir dieses Video noch mal angeschaut. Da der System Gain der Kamera für die Berechnung wichtig wäre, hättest du einen Tipp wie ich an den für die EOS R herankommen kann? Vielen Dank und CS, Andreas
Schwierig, da müsste ich nun selber recherchieren. Vielleicht hat das mal jemand gemacht, such mal im Internet. Oder vielleicht kann man mittlerweile eine Sensoranalyse mit Sharpcap auch mit DSLRs machen?
Ja, bei photonstophotos wird man bzgl Gain und Readnoise fündig, aber es ist etwas verwirrend, da die ermittelten ISO von den eingestellten abweichen (ISO 800 ist bei denen ISO 546 gemessen und damit System Gain = 0.522). Egal, ich will eigentlich für die EOS R rausbringen wie lang ich die Einzelbelichtung setze (Hintergrund limitiert), da ja die Sterne bei 14 Bit auch rel. schnell ausgebrannt sind. Ab ISO 400 ist zudem der Offset schon bei 2000 ADU und nimmt mir Dynamik, ich will aber geringere ISO wegen des Banding/Rauschens auch nicht nehmen. Vielleicht hast du ja als EOS RA Besitzer einen Tip für deine bevorzugte Einstellung Bortle 3-4. Falls nein nicht schlimm, bleibst trotzdem mein Astro Guru 😉 CS Andreas
Was passiert eigentlich, wenn man deutlich länger belichtet, als die nach der Formel berechnete Zeit? Also außer dass wohl die hellen Sterne ausbrennen? Hat das negative Auswirkungen auf die Bildverarbeitung?
Also insgesamt solltest du schon so auf 12-16 Bilder zum stacken kommen. Ansonsten lieber die Belichtungszeit verkürzen. Längere Belichtungszeit sind halt anfälliger für "Unfälle" wie Guidingfehler etc.
@@astrophotocologne Ich sehe ja immer zu, dass ich um die 30 Bilder mache, zum Stacken sollte das dann reichen. Meine Frage zielt eher darauf, ob bei sehr langen Belichtungszeiten mehr Probleme z.B. bei der Hintergrundextraktion auftreten können. Um bei Deiner Berechnung zu bleiben: ich komme damit bei meinem Bortle-5/6 Himmel auf17 Sekunden bei ISO 800, belichte aber aktuell mit 300 Sekunden. Ich werde es mal mit ISO 100 probieren (wenn mal wieder klarer Himmel ist), dann bin ich nur Faktor 2 drüber.
@@astrophotocologne Okay, das beruhigt etwas. Allerdings rückt das Histogramm ja mit zunehmender Belichtungszeit immer weiter nach rechts, bis es irgendwann doch anstößt - dann dürfte doch überbelichtet sein?
Genial erklärt! Danke für die viele Mühe und Arbeit die auch in diesem Video steckt. Und während ich was gelernt habe, hab ich quasi noch was gelernt. 😁Und zwar, dass Nina da ein Berechnungstool hat. Ich habe Nina nun schon 4, 5 mal benutzt, dieses Tool aber bisher noch gar nicht gesehen. Ich finde es gut das du sagst: "Leute, fotografiert einfach." Ich finde es für mich jedoch auch wichtig die Theorie und das "warum" hinter dem ganzen, zu verstehen. Da hat mir dein Video auf jeden Fall mal wieder sehr geholfen! :) VG und CS Kevin
Hallo Kevin, das Tool in Nina ist etwas versteckt, aber es beruht exakt auf den Berechnungen die ich auch mache. Habe es selber noch nicht getestet, aber es müssten die gleichen Zahlen raus kommen. Ja, oft werden gewisse Themen in Foren und sozialen Medien überbewertet, und manch einer vermutet vielleicht auch Probleme mit Rauschen eher in der Technik (ist ja auch nachvollziehbar, wir kennen Rauschen aus z. B. Fernseher und Radio). Ich kann nur jedem raten sich mal die Hubble Rohbilder zu laden und zu gucken wie die rauschen.
@@peterspatz6918 ich habe es noch nicht getestet, aber SharpCap dient in dem Fall denke ich nur dazu, die Werte wie Gain und Ausleserauschen zu bestimmen. Wenn du diese werte weißt und händisch in NINA eingibst, müsste es auch ohne funktionieren.
Top gemacht und ein echter Qualitätssprung, sicher viel Aufwand dahinter! Aber wenn ich einen Vorschlag machen darf: Nicht so dicht an das Weitwinkel ran, ich muss ja fürchten, dass Du gleich durch den Monitor hüpfst :D
Hallo Klaus, freut mich. Ja, habs erst gemerkt als ich das Video geschnitten habe aber da konnte ich es nicht nochmal neu aufnehmen. Ist wieder alles neu jetzt und muss erst die richtigen Einstellungen finden.
Hey Frank, solch schreckliche Angst vor Formeln habe ich eigentlich nicht. Aber jetzt mein Hauptpunkt: Schön das Du immer wieder sagst, dass dunkler Himmel durch nichts zu ersetzen ist ausser durch noch dunkleren Himmel --- aber was kann der arme Astromensch machen, der an seine Home-Location gebunden ist und keine Möglichkei hat, ins Dunkle zu fahren? Bitte ganz konkret und klar, wie hole ich das Beste aus meinem gegebenem und nicht veränderbaren lichtverschmutzen Standort heraus? Clear Skies, Dietrich
Dass DU keine Angst vor Formeln hast war mir klar :-) Im Prinzip sage ich es ja im Video: Schmalbandfilter bei entsprechenden Objekten, oder alternativ sehr lange Belichtungszeiten. Man muss sich dann aber auch intensiv um das Thema Gradientenentfernung kümmern, denn die Lichtverschmutzung ist ja leider nicht homogen. Zusätzlich, oder alternativ, kann man ein bis zweimal im Jahr einen Astrourlaub machen. Machst du ja schon!
Der Erklär-Bär in Höchstform! Leute wie dich bräuchten wir als Lehrer, Professoren, was-auch-immer! Staubtrockene Theorie wunderbar erklärt, vielen Dank :)
Das freut mich zu hören! Für eine akademische Laufbahn ist es etwas zu spät. Ich mache weiter Astrovideos.
Für mich immer spannend! Gerne mehr.
So.... jetzt das Video. 🥃Slàinte
Meine Mathelehrerin hat`s immer gesagt; Pythagoras braucht ihr, auch wenn ihr das jetzt noch nicht seht. Und nun auch im Hobby. Wie immer toll gemacht , das Video
und sorgt für ein Grundverständnis. Und darauf kommt es an. Ein Gefühl für die äußeren Bedingungen zu bekommen.
Der Moment, wo die Prophezeiung der Mathelehrerin wahr wird :-)
Sehr schönes Video! Das Thema ist halt sehr trocken aber auch nicht unwichtig.Ich finde es sehr schön rüber gebracht. Ich glaube bei 41:30 ist der Grund warum die Zeiten nicht stimmen, dass bei dem Bild ja bereits etwas abgezogen wurde (2700 - 2000 =700). PixInsight nimmt dieses Bild als Basis für die Berechnungen, wenn da schon eine "korrigierter" Hintergrund vorhanden ist, also dunkler, könnte man wieder länger Belichten.
Hallo Konrad. Danke für dein Lob, freut mich. Man muss aber die Bilder korrigieren, wenn man diese 2000ADUs die ja nicht vom Himmel kommen, nicht abzieht, bekommt man falsche Werte. Mich wundert nur, dass diese 14bit zu 16bit exakt zu dem gleichen Betrag führen, wie das Bias. Ist aber vielleicht nur Zufall. Es zeigt aber wie anfällig die Berechnungen sind.
Hallo Frank, bei dem Wetter draußen habe ich mir nochmal dein Erklärvideo angesehen und muss sagen: haste wirklich gut gemacht. Nicht zu viel Theorie, besser ausprobieren. LG
Danke dir. Der zweite Teil ist der theoretische :-)
Hallo Frank, Deine Videos sind Klasse!
Das freut mich! Viel Spaß damit.
Super Erklärt vielen Dank du hast es mir durch die Bilder in deiner SNR Analogie wirklich nun verständlich gemacht!
Freut mich zu hören.
Ich habe letzte Woche das erste mal mit 10min Belichtungen probiert, Blauer Pferdekopf halt, war extrem schwach leuchtender Nebel. Leider Dithern vergessen, muss aber sagen, Bild kam dennoch mega nice raus. Klare Empfehlung von mir, man muss unter klaren Himmel!! :)
Ja, der Himmel, was soll ich sagen. Jetzt kann ich es sogar mathematisch beweisen :-)
Oh krass, mir rauscht der kopf 😅😅🙈 den muss ich mir nochmals anschauen, sehr viel Informationen. Wird mal abgespeichert 👍🏻
Danke für die Mühen, dies so explizit zu erklären 👍🏻
Das darf man ruhig auch zweimal schauen. Das zitierte Video von Robin Glover habe ich glaube ich fünf mal geschaut :-)
Tolles Video, immer sehr lehrreich
Freut mich!
Habe die komplexe Materie das erste Mal wirklich verstanden, dank deiner "Erklärkünste". Schöne Einfälle hast du immer, um die Dinge verständlich zu machen (Autofahrt und das Planspiel...) Top! Bitte weiter so Frank! Ich mache immer fleißig Werbung für deinen Kanal....
Übrigens: Glückwunsch zu 6.000 Abonnenten! :-) VG Ronny
Hallo Ronny, danke dir. Freut mich dass dir das Video geholfen hat diese doch komplexe Sache zu verstehen. Die Anschaulichen Dinge, wie z B die Autofahrt oder das Planspiel machen mir selber am meisten Spaß. 6000 ist schon gut, freue ich mich drüber. LG
Hallo Frank, sehr schönes Video! Ich arbeite mich gerade in die ganze Astrofotografie-Thematik ein und bin daher generell sehr dankbar für deine Videos. Auch wenn ich recht spät dran bin, möchte ich noch meine Gedanken zur "Problematik" am Schluss teilen. Ich kann mir vorstellen, dass der Abzug des Masterdarks für die Rechnung nicht notwendig ist und daher die ersten Ergebnisse, die du hattest, korrekt waren.
Mit den Parametern, welche du einträgst, kann sich der Rechner doch einen theoretischen mittleren Wert für die ADC-Inkremente (ADU), die rein auf Grund des Auslese- und Dunkelrauschens und unter Berücksichtigung der Belichtungszeit entstehen, selbst berechnen. Die Differenz zum aus dem Bild gemessenen ADU-Wert ist damit ein Maß für das Photonenrauschen zum Beobachtungszeitpunkt, woraus die optimale Belichtungszeit berechnet wird. Wenn du ihm ein bereits korrigiertes Bild fütterst, wird es missinterpretiert, so als hättest du bei der Aufnahme viel bessere Bedingungen gehabt. Damit wird dann die zum Erreichen der Hintergrundlimitierung notwendige Belichtungszeit natürlich viel größer angegeben.
Hallo Roman, danke für das Lob. Es hat sich später herausgestellt, dass es ein Missverständnis ist, dass mein bei ADU Bits 14 einstellt, wenn es sich um eine 14bit Kamera handelt. Die Bittiefe ist hier nicht relevant. PixInsight hat eine etwas merkwürdige Philosophie da, oder sagen wir ungewohnte. Die 16bit beziehen sich nur auf die Bilddarstellung. Gibt man dort also 4bit ein, erhält man völlig falsche Werte. Das abziehen des Bias ist absolut notwendig, und man muss immer 6bit einstellen, egal welche Bittiefe die Kamera hat.
Und da ist der lange erwartete Teil 2 zum Thema! :-) Danke, schöne Analogien verwendet.
Hallo Jürgen, ja war ein ganz schönes Stück Arbeit, puh.
@@astrophotocologne Ja, glaube ich gerne. Ich musste mir das Video von Robin Glover auch mehrfach ansehen, um die Formeln zu verstehen. In Deutsch ist das natürlich einfacher... :-) Was auch normal nicht so rüber kommt, aber mit Deinem Video sich von selbst ergibt: die Darkframes sind genau deshalb nicht so extrem wichtig, weil sie eben nur das Kamera-Rauschen gemittelt abziehen - und das ist in der Regel eben geringer bei einer guten Kamera (wenn man denn ein neueres Modell hat).Wichtig ist eben auch, dass man nur gemittelte Werte statistisch abzieht, also bleibt immer etwas Rauschen zurück, man hat nur weniger davon anteilig im Wertebereich der verfügbaren Bittiefe im finalen Bild. Bin schon gespannt, wenn ich das erste Mal geditherte Bilder habe, wie stark sich das bemerkbar macht. Habe es jetzt endlich mit EKOS hinbekommen, direktes Autoguiding zu machen und die Kamera darüber zu kontrollieren (musste von der NEQ6 den Backslash reduzieren)- nur das Wetter hat mir immer wieder einen Strich durch die Rechnung gemacht (Wolken nirgendwo in Deutschland, außer über mir... ).
@@jurgenterpe4121 das Dithering hilft dieses "Kalibrationsrauschen" weiter zu reduzieren.
Moin😊 ab Heute hast du einen neuen Spitznamen bei MIR.......... Professor 👍........ Danke Danke, bin ich froh, das mein Freund Pythagoras mich jetzt auch noch beim Hobby begleitet.
Saubere Sache, jetzt wird es Zeit für weitere 1000 Abonnenten. Grüße aus NRW
Hallo Oliver, Pythagoras beim fotografieren ist nicht der schlechteste Begleiter! LG zurück
Super erklärt Frank! Hab direkt das Dach am Auto meiner Frau wieder installiert. 😁
Das bei dem schönen Wetter:-)
Klasse! Werde ich mir bestimmt noch einmal ansehen
Ja, das kann man ruhig zweimal anschauen :-)
schicker Sonnenbrand :)
hihi, hab die Sonne fotografiert :-)
Danke! 👍
bitte :-)
Eine Idee zu den 16 Bits: ich arbeite mich grade erst in die Bildbearbeitung an aber wenn ich das richtig verstehe, dann sollen diese ganzen Darks, Bias usw. dazu dienen diverse Rauschanteile zu reduzieren. Sagen wir du hast einen Analog-Digital-Wandler mit 16 Bits und der hat in der Anwendung 2 Bit Rauschen, dann kannst du den ADC mit 16 - (2+1) = 13 Nutzbits… ja nutzen.
Wenn man in der Lage ist im Postprocessing den Signal-Rausch-Abstand zu erhöhen (Abzug eines Darks?), dann erhöht sich die Anzahl der Nutzbits.
Könnte das damit zusammenhängen?
Hi, hm Rauschen reduzieren geht m.E. nicht mit Darks oder ähnlichem. Aber es ist nicht unwahrscheinlich dass 2 Bits einfach nur Rauschen enthalten und kein Nutzsignal. In PixInsight ist es einfach so, dass sich diese Bit Anzeige auf die interne Darstellung der Daten bezieht. Man sollte am besten alles auf 16bit stehen lassen.
Habe es nachgerechnet, nur habe ich die Berechnung noch in mein Datenblatt aufgenommen. Kann man sich viel Arbeit damit sparen, wenn man ein einzelnes Bild auswertet.
du meinst in einer Excel Tabelle?
@@astrophotocologne Ja habe da eine Excel Vorlage gefunden, die aus Messdaten der LIghts und Darks den SNR - Wert berechnen kann. Zudem habe ich noch das hier hinzugefügt. Schreibe im Forum später was dazu. Muss noch einige Test machen.
Puh ich habe mich mit den Rechnungen an meine Schulzeit erinnert. Gut dargebracht. Mal sehen wie ich es umsetzen kann. 10 min bel ist mit einem Skywatcher Adv. nicht drin. Bin bei 3 min mit 600 mm . Mal sehen ob mehr geht 👍
Ja, dann einfach hoch mit ISO/Gain dann passt es.
@@astrophotocologne das habe ich schon gemacht. Und neue Dark dazu. Leider ist der Hintergrund mit extremen Querrauschen versetzt. Jetzt probiere ich es mit etwas weniger. Hat im Winter gut funktioniert. Da war auch der Sensor gekühlt 😉
Doch ist drin. Arbeite an deiner Einnordung!!
Ich meine es fehlt noch eine Rauschquelle: Wir sollten die Dynamik des Chips immer gut ausnutzen. Wenn wir nur den unteren Teil der ADUs nutzen ist wie bei einer Digital Audio Aufnahme: die wird auch immer bis 0 db ausgesteuert, damit das Rauschen der Digitalisierung selbst kleiner wird. Ein Signal zwischen 400 und 500 hat ein schlechteres Signal Rauschverhältnis, als ein Signal zwischen 40000 und 50000. Aber selbes Prinzip. also der Vorgang der Digitalisierung erzeugt auch ein Rauschen an sich. Viele Grüße
Hallo, in der ganzen Betrachtung fallen solche Rauschanteile unter den Tisch, die bereits in den anderen Rauschquellen enthalten sind. So ist z.Bsp. das Quantisierungsrauschen Teil des Ausleserauschens.
Hallo und servus aus BW.
Folge deinem Kanal schon ein weilchen und bin dadurch auch zur Astrofotografie gekommen. Allerdings komme ich mit den Montierung zur Ausrichtung des Fotos nur spärlich klar - Anwenderfehler 😉.
Gibt es den Vollautomatisch montierungen welche quasi auf Knopfdruck neigung usw. einstellen und ich nur ein Knöpfchen drücken muss 😃?
Bin in der Fotografie schon lange zuhause, aber bei den Sternen noch recht jung.
Hallo Manuel, hab etwas Geduld, irgendwann klappt das alles. Astrofotografie ist schon etwas komplexer. Vielleicht mache ich mal ein Video zum einnorden. Habe aber jetzt erstmal Material für andere Videos hier liegen.
Ich nenne den satz des pythagoras ab jetzt "Der Rausch des Pythagoras" :D
Oder so :-)
Hallo Frank,
ich habe mir dein Video noch mal angeschaut. Mir ist noch eine kurze (hoffentlich nicht zu doofe:) Frage eingefallen. Ist es richtig, dass, wenn das Dunkelstromrauschen der Kamera durch Kühlung des Chips so gering ist und dieser Faktor damit vernachlässigbar ist, dass dann ist die Erstellung dementsprechender Darks nicht zwingend notwendig ist? Oder habe ich da einen Denkfehler bzw. etwas falsch verstanden? Dankeschön im Voraus für deine Antwort😊 Ronny
Hallo Ronny, evtl. ein Denkfehler. Flatdarks ersetzen nicht die Darks. Flatdarks sind Darks für die Flats :-) Ist alles etwas verwirrend, es hilft sich das mal aufzumalen oder so. Dann muss man noch Rauschen und Signal auseinanderhalten. Das Dunkelstromsignal wird mit den Darks abgezogen, nicht das Rauschen.
@@astrophotocologne Vielen Dank für deine Antwort, Frank. 😊Wenn das Dunkelstromsignal bei einer gekühlten Kamera also sehr gering (damit vernachlässigbar ist), könnte ich die Darks dann eventuell weglassen? Viele Grüße nach Köln
@@ronnylanglotz4807 nee auch nicht :-) Dann wenn das Dunkelstrom exakt gleichmäßig über den ganzen Chip gleich ist, du also ein komplett ebenes dark hast, dann kannst du es weg lassen. Habe dazu zwei Videos gemacht Darks vs Dithering heißt das erste.
@@astrophotocologne Hallo Frank, hab vielen Dank für deine Geduld zur Beantwortung der Fragen und dafür, dass du Anfänger wie mich damit zusätzlich zu den Videos von deiner Expertise profitieren lässt 👍.
Guter Tipp mit dem Video. Muss zugeben, dass ist eins der wenigen von dir, die ich noch nicht geschaut habe. Bestimmt aufschlussreich wie immer☺. Viele Grüße
Hallo Frank,
ein super Video. Ich überlege, ob man bei der Belichtungszeit-Problematik mit einer Fourier- oder LaPlace-Transformation, also aus der timedomain in die Frequencedomain, zusätzliche Infos ziehen kann. Man müsste deutliche Peak an den Stellen sehen wo Information ist. Das Rauschen kann man quantifizieren, also dann komplett abziehen.
Könntest du mir bitte die Quelle für die Umrechnung von ISO auf GAIN geben? Ich habe eine Canon 700d.
Vielen Dank Gunter
Hallo Gunter, freut mich dass dir das Video gefällt. Fourier Transformation, puh, keine Ahnung. Die wird sehr häufig angewendet in speziellen Filtern z B in PixInsight. Aber das wäre ein Thema für ein neues, zweistündiges Video haha. Ichglaube nicht dass man die Natur und die Physik mit Algorithmen wirklich austricksen kann. Das ist alles sehr hilfreich aber die Basisdaten, die sind m.E. wichtig. Infos zu meiner Kamera habe ich hier gefunden:www.astrosurf.com/comolli/strum54.htm
Hallo Frank, wenn ich es versäumt habe auf den Mean ADU meines Bias/Dark zu achten und die Belichtungszeit des Light zu knapp gewählt habe, kann es sein, dass nach Kalibrierung einige Pixel den Wert Null haben. Kann ich das retten, indem ich über PixelMath ein paar ADU in allen RAW dazu addiere und danach nochmal neu kalibriere?
Das kann im Ursprung daran liegen, dass du vielleicht den Offset falsch eingestellt hast? Schau mal das entsprechende Video dazu. Aber ja, du kannst zwar an den entsprechenden Pixeln die Information nicht retten, aber man kann quasi nachträglich einen Offset draufgeben. Wenn du PixInsight nutzt und da das WBPP Script, gibt es sogar eigens ein Häkchen dafür.
Hallo Frank, da ich mir eine EOS R zugelegt habe und die maximale Belichtungszeit in meinem Garten mit BW 200 mm, f2.8….4 und verschiedenen ISO Einstellungen herausbringen möchte, habe ich mir dieses Video noch mal angeschaut. Da der System Gain der Kamera für die Berechnung wichtig wäre, hättest du einen Tipp wie ich an den für die EOS R herankommen kann? Vielen Dank und CS, Andreas
Schwierig, da müsste ich nun selber recherchieren. Vielleicht hat das mal jemand gemacht, such mal im Internet. Oder vielleicht kann man mittlerweile eine Sensoranalyse mit Sharpcap auch mit DSLRs machen?
Ja, bei photonstophotos wird man bzgl Gain und Readnoise fündig, aber es ist etwas verwirrend, da die ermittelten ISO von den eingestellten abweichen (ISO 800 ist bei denen ISO 546 gemessen und damit System Gain = 0.522). Egal, ich will eigentlich für die EOS R rausbringen wie lang ich die Einzelbelichtung setze (Hintergrund limitiert), da ja die Sterne bei 14 Bit auch rel. schnell ausgebrannt sind. Ab ISO 400 ist zudem der Offset schon bei 2000 ADU und nimmt mir Dynamik, ich will aber geringere ISO wegen des Banding/Rauschens auch nicht nehmen. Vielleicht hast du ja als EOS RA Besitzer einen Tip für deine bevorzugte Einstellung Bortle 3-4. Falls nein nicht schlimm, bleibst trotzdem mein Astro Guru 😉 CS Andreas
Hallo Frank, was genau ist Dein Beruf ?😊
Was passiert eigentlich, wenn man deutlich länger belichtet, als die nach der Formel berechnete Zeit? Also außer dass wohl die hellen Sterne ausbrennen? Hat das negative Auswirkungen auf die Bildverarbeitung?
Also insgesamt solltest du schon so auf 12-16 Bilder zum stacken kommen. Ansonsten lieber die Belichtungszeit verkürzen. Längere Belichtungszeit sind halt anfälliger für "Unfälle" wie Guidingfehler etc.
@@astrophotocologne Ich sehe ja immer zu, dass ich um die 30 Bilder mache, zum Stacken sollte das dann reichen. Meine Frage zielt eher darauf, ob bei sehr langen Belichtungszeiten mehr Probleme z.B. bei der Hintergrundextraktion auftreten können.
Um bei Deiner Berechnung zu bleiben: ich komme damit bei meinem Bortle-5/6 Himmel auf17 Sekunden bei ISO 800, belichte aber aktuell mit 300 Sekunden. Ich werde es mal mit ISO 100 probieren (wenn mal wieder klarer Himmel ist), dann bin ich nur Faktor 2 drüber.
@@kurtkroneberger4540 nein das macht gar nichts, man kann quasi nicht zu lange belichten.
@@astrophotocologne Okay, das beruhigt etwas.
Allerdings rückt das Histogramm ja mit zunehmender Belichtungszeit immer weiter nach rechts, bis es irgendwann doch anstößt - dann dürfte doch überbelichtet sein?
@@kurtkroneberger4540 na klar, da musst du aber seeeehr lange belichten :-)
Genial erklärt! Danke für die viele Mühe und Arbeit die auch in diesem Video steckt.
Und während ich was gelernt habe, hab ich quasi noch was gelernt. 😁Und zwar, dass Nina da ein Berechnungstool hat. Ich habe Nina nun schon 4, 5 mal benutzt, dieses Tool aber bisher noch gar nicht gesehen.
Ich finde es gut das du sagst: "Leute, fotografiert einfach."
Ich finde es für mich jedoch auch wichtig die Theorie und das "warum" hinter dem ganzen, zu verstehen. Da hat mir dein Video auf jeden Fall mal wieder sehr geholfen! :)
VG und CS
Kevin
Hallo Kevin, das Tool in Nina ist etwas versteckt, aber es beruht exakt auf den Berechnungen die ich auch mache. Habe es selber noch nicht getestet, aber es müssten die gleichen Zahlen raus kommen.
Ja, oft werden gewisse Themen in Foren und sozialen Medien überbewertet, und manch einer vermutet vielleicht auch Probleme mit Rauschen eher in der Technik (ist ja auch nachvollziehbar, wir kennen Rauschen aus z. B. Fernseher und Radio). Ich kann nur jedem raten sich mal die Hubble Rohbilder zu laden und zu gucken wie die rauschen.
Das geht aber in Nina nur mit Sharpcap Profil, oder?
@@peterspatz6918 ich habe es noch nicht getestet, aber SharpCap dient in dem Fall denke ich nur dazu, die Werte wie Gain und Ausleserauschen zu bestimmen. Wenn du diese werte weißt und händisch in NINA eingibst, müsste es auch ohne funktionieren.
Top gemacht und ein echter Qualitätssprung, sicher viel Aufwand dahinter! Aber wenn ich einen Vorschlag machen darf: Nicht so dicht an das Weitwinkel ran, ich muss ja fürchten, dass Du gleich durch den Monitor hüpfst :D
Hallo Klaus, freut mich. Ja, habs erst gemerkt als ich das Video geschnitten habe aber da konnte ich es nicht nochmal neu aufnehmen. Ist wieder alles neu jetzt und muss erst die richtigen Einstellungen finden.
Genau das habe ich auch gedacht. "huch, plötzlich ein riesiger Kopf im Bild" 😅
Klingt für mich wie Modulation von Ces-Dur nach Aisis-Moll :)
der reinste Trugschluss :-)
Hey Frank, solch schreckliche Angst vor Formeln habe ich eigentlich nicht. Aber jetzt mein Hauptpunkt: Schön das Du immer wieder sagst, dass dunkler Himmel durch nichts zu ersetzen ist ausser durch noch dunkleren Himmel --- aber was kann der arme Astromensch machen, der an seine Home-Location gebunden ist und keine Möglichkei hat, ins Dunkle zu fahren? Bitte ganz konkret und klar, wie hole ich das Beste aus meinem gegebenem und nicht veränderbaren lichtverschmutzen Standort heraus?
Clear Skies, Dietrich
Dass DU keine Angst vor Formeln hast war mir klar :-) Im Prinzip sage ich es ja im Video: Schmalbandfilter bei entsprechenden Objekten, oder alternativ sehr lange Belichtungszeiten. Man muss sich dann aber auch intensiv um das Thema Gradientenentfernung kümmern, denn die Lichtverschmutzung ist ja leider nicht homogen. Zusätzlich, oder alternativ, kann man ein bis zweimal im Jahr einen Astrourlaub machen. Machst du ja schon!
@@astrophotocologne Also lernen wir, Gradienten zu entfernen.
@@dietrichkracht5859 genau th-cam.com/video/_g82GgIlCrQ/w-d-xo.html
Hubble Teleskop 🔭 = stehendes Auto 🚗 😧🤔suche nun ein Gönner mit viel Geld 😆🤣😂🤣😂😁
haha, ja, den suchen wir doch alle :-)
Mein Takeaway: der Orionnebel ist das Highway To Hell der Astrofotografie 🤣 Danke für deine kreativen Analogien!
Ha, du hast das aller wichtigste aus dem Video mit genommen!