Die große Sensorstrecke - 04 - Aufbau eines Sensors - Teil 1 📷 Krolop&Gerst

  Рет қаралды 9,280

KROLOP & GERST

KROLOP & GERST

Күн бұрын

Пікірлер: 33
@karlthetrader
@karlthetrader Жыл бұрын
Neben dem super Inhalt macht auch deine echte Begeisterung Spaß beim Zusehen! Die Strecke ist eine wahrlich tolle Idee.
@krolopgerst
@krolopgerst Жыл бұрын
Freut mich, danke!
@JohnDoe-uw7sw
@JohnDoe-uw7sw Жыл бұрын
Bin gerade aus dem Urlaub zurück und konnte mir jetzt die ersten 4 Videos in Folge ansehen. Alle Achtung. Wieder einmal eine sehr gute Serie mit einem sympathsichen Dozenten. Ihr habt wirklich ein gutes Händchen was Themen und Dozenten angeht. Besten Dank für diese interessante Serie. Ich hoffe bald mal wieder persönlich Kontakt mit Euch zu haben in Form von Workshop oder wenn es mal wieder eine Buchübergabe gibt. Ihr macht großartige Arbeit!
@DerKuhseng
@DerKuhseng Жыл бұрын
Mal in meinen Worten: Ohne Scheiß. Eines der besten Formate bezüglich Technik im Bezug auf Fototechnik, für die Menschen die auch so ca. wissen wollen was eigentlich in der Kamera passiert. Bzw wie das Foto kreiert wird. Danke euch, weiter so!
@konradlocher2603
@konradlocher2603 Жыл бұрын
👍👍👍😊😊 einfach nur faszinierend
@jorgferlein5628
@jorgferlein5628 Жыл бұрын
Herzlichen Glückwunsch zu den 100.000. Ihr habt das wirklich verdient, m.E. bester Foto-Kanal. Bitte weiter so und natürlich vielen Dank und euch allen eine gute Zeit
@krolopgerst
@krolopgerst Жыл бұрын
Vielen, vielen Dank!
@Hans-Georg_Flack
@Hans-Georg_Flack Жыл бұрын
Gut gemacht!!!... habe Gestern alle Folgen gekauft ,bin jetzt damit durch und um vieles besser informiert. Effekte und Erscheinungen , die ich vorher als Kamera-Voodoo gesehen habe, sind jetzt viel eher erklärbar.
@paxrsi
@paxrsi Жыл бұрын
Danke für die neue Serie! Das empfinde ich nach den großen Objektivreihen mal wieder als etwas, was in Deutschland seines Gleichen sucht und als eine echte Bereicherung! Vielleicht noch ein paar Ergänzungen: 1.) In dieser Folge konnte meiner Meinung nach der Eindruck entstehen, dass auf dem Sensor bereits das fertige Bild gerechnet wird. Das ist soweit ich weiß erst später im RAW-Konverter der Fall. Deswegen kommen ja auch unterschiedliche RAW-Konverter zu unterschiedlichen Bildergebnissen. 2.) Die "Schätzung" betrifft soweit ich weiß auch nicht die Werte der einzelnen Sensel (die Skalierung der gemessenen Elektronen basierend auf der Quanteneffizienz von Farbfilter und Sensel mal ausgenommen) - sondern wesentlicher die Interpolation der beiden anderen Farbwerte pro Sensel, die für dieses Sensel nicht gemessen wurden. Zum Beispiel misst eine 24 MP Kamera wegen der Bayermatrix ja nur für 12 MP Grün, für 8 MP Rot und für 8 MP Blau. Auf dem Bildschirm werden aber 24 MP in vollem RGB dargestellt. D.h. für jedes Pixel sind 2 von 3 Farbinformationen interpoliert, also geschätzt. 3.) Von der CPU-Fertigung für PCs ist bekannt, dass die Siliziumkristalle von spezialisierten Firmen "gezüchtet" werden. Ich vermute, das wird bei der Sensorproduktion auch so sein. 4.) Generell geht der Aufwand der Fabs in den letzten Jahren immer höher, so dass sich daraus das Geschäftsfeld der Auftragsfertiger herausgebildet hat, weil eben viele Firmen ihre CPU (oder ihren Sensor) zwar noch designen, aber nicht mehr produzieren können. Insofern ist der Schritt von Sony nur logisch und ich kann mir gut vorstellen, dass die beiden anderen großen Sensorproduzenten Canon und Tower das ebenfalls anbieten. Im Prinzip ist das ja auch das komplette Geschäftsmodell des mit Abstand größten Chipfertigers TSMC. Damit lässt sich also viel Geld verdienen, weswegen es mir logisch erscheint, dass alle großen das anbieten. 5.) Den Infrarotfilter baut man gerne für die Astrofotografie aus, damit die für den Wasserstoff wesentlich H-Alpha Linie bei 656 nm ungebremst durchkommt. 6.) Manche gehen sogar noch weiter und kratzen die Bayermatrix vom Sensor ab. Dann stört auch nicht mehr der Farbfilter vor dem Sensel und man bekommt im obigen Beispiel eine vollwertige 24 MP Schwarzweiß-Kamera. Da nun abseits der Objektivgläser gar keine Transmissionsbremse mehr vorhanden ist, ist so eine Kamera dann auch tauglich für Infrarotaufnahmen. Ein Bekannter von mir hat so eine. Autofokus funktioniert da natürlich nicht mehr und man muss auch lange belichten - aber es geht.
@L0dini
@L0dini Жыл бұрын
Wirklich sehr interessant und ich bin froh, dass Ihr solche Videos rausbringt. Finde generell Eure Videos super. Die angenehme ehrliche und ruhige Art. Ich würde es schätzen, wenn Ihr Euch die Mühe machen würdet um die G9ii und die OM1 im echten Leben zu vergleichen. Liebe Grüße
@treverer70
@treverer70 Жыл бұрын
Zweifellos eine tolle Serie, noch toller wäre es, wenn Martin Hans auch einmal ausreden und erklären ließe (nicht böse gemeint!). Gefühlt stellt sich mir die Redezeit durchgängig 80:20 für den Gastgeber dar. Dabei lechzen wir doch alle nach dem ungeheuren Wissen des Gastes... 😉
@MrManilook
@MrManilook Жыл бұрын
Ja, ist teilweise sehr anstrengend.
@Jamu2
@Jamu2 Жыл бұрын
Wow mal wieder ein Mega Video 👍 danke dafür ❤ Ist schon beeindruckend, wie irre komplex das Ganze ist...und heute nehmen wir das einfach als selbstverständlich hin (und wehe die Farben stimmen mal ausnahmsweise nicht 😂) Ich meine, das Ganze haben sich mal Menschen ausgedacht.. Einfach verrückt 🤯
@fredpuerthner
@fredpuerthner Жыл бұрын
Absolut genial, vielen Dank 👍
@Asgaia
@Asgaia Жыл бұрын
zu 10:00: dass die Kameras oft nur "schätzen" sieht man dann, wenn man extreme aufnimmt. Z.B. Infrarotphotographie oder monochromatisches Licht. Bei reinem Rotlicht (oder IR) geht die Auflösung der Kamera drastisch in die Knie, weil der Grünkanal fehlt.
@menschmeier3799
@menschmeier3799 Жыл бұрын
Hey, erstmal danke für die Veröffentlichung der Videoreihe. Eine Verständnisfrage? Erreiche ich, wenn ich das Silizium "sensibler" mache, eine höhere Lichtempfindlichkeit, weil ich mehr Photonen aufnehme? Erreiche ich eine höhere Lichtempfindlichkeit, wenn mir weniger Photonen im Filter flöten gehen?
@dietmarfinster3176
@dietmarfinster3176 Жыл бұрын
Moin. Zwei Fragen. Die nicht "detektieren" Photonen (die verschlucken) geben ihren Energieimpuls als Wärme ab? Da sie ja nicht im "Nichts" verschwinden. Und, wird die Pixelanzahl (als Beispiel 24 MP Sensorauflösung) anhand dieser 24MP gemessen, oder wie 4m blaue 12m grüne 8m rote "Sensel" getrennt? Also im grund nur eine Auflösung von 4MP ergibt.
@lucijanvidmar4844
@lucijanvidmar4844 Жыл бұрын
oh..100 000 Abonnenten
@Asgaia
@Asgaia Жыл бұрын
Die Kamera "rät" natürlich die Farben auch falsch. Wie beim Lotto. Das sehen wir dann u.a. als Rauschen. Nicht alles Rauschen kommt davon, aber ein Teil.
@clefbielefeld
@clefbielefeld Жыл бұрын
Ich hätte dem Gast wirklich gerne zugehört... Aber dieses ständige dazwischen Fragen ist unglaublich anstrengend. Schade, dadurch wird der Flow einfach kaputt gemacht. Der Gast entwickelt gerade eine Antwort und wird direkt wieder blockiert von dem Interviewer.
@fredhirs9023
@fredhirs9023 Жыл бұрын
geht mir gerade durch den Kopf, und falls ihr eine zweite Staffel macht, hätte ich hier eine Frage: wie wird Pixel Binning realisiert, siehe Leica M11 und diverse Handy Kameras. ich hab das Gefühl das die Erklärungen und schematischen Darstellungen im Internet nicht ganz der Wahrheit entspricht.
@krolopgerst
@krolopgerst Жыл бұрын
Gibt ein Fragen Dokument für mögliche Fragen… hier geht das unter und wird nie in Staffel 2 rein finden.
@fredhirs9023
@fredhirs9023 Жыл бұрын
@@krolopgerst darf ich fragen wo man das Dokument finden kann? in der Videobearbeitung hab ich schonmal nichts gefunden
@krolopgerst
@krolopgerst Жыл бұрын
kg-link.com/sensorfragen@@fredhirs9023
@MeyerWerner
@MeyerWerner Жыл бұрын
Als eine Frage der Interpretationen Das wussten schon die alten Maler alles eine Frage der Interpretation, denn sitzt ein Maler vor einer Landschaft, so Amt er die fraben der Natur nur nach, aber die Kunst ist es die Farben so echt und nah auf die Leinwand zu bringen wie möglich, und so ist es auch bei Sensor Technologie. Die Kunst bei der Sensor Technologie ist es so bei denn fraben, es gibt nur drei Farben rot grün und blau alle andern die wir als Farben wahr nehmen sind Interpretationen und eine Beigabe. Die grosse Kunst des mischen. Du hast also nur die drei Farben rot grün und blau und man möchte alle andern Farben die wir als Farben wahrnehmen erhalten, müssen wir mischen! Aber wo liegt das Problem? Ihr zu ein kleines Beispiel. Du willst die Wand zuhause neu streichen und diese Wand soll wieder genau so kommen wie sie einst war, also gehst du zu einen Spezialisten der soll dir die Farbe so mischen wie du meinst das es richtig war, doch der man in diesen Geschäft schickt dich gleich wieder nachhause und gibt dir einen Tipp mit, nehmen sie meine Farbkarte mit damit sie denn frababgleich machen können. Ist weiss weiss? Weiss ist keine Farbe sondern ein Zustand! Du kaust diesen Zustand entern in dem du denn Zustand änderst in dem etwas blau dazu gibst du erhellst einen weitern Zustand, hell blau! Doch wie hell das dieses blau ist hängt davon ab wie die Interpellation ist. Wie einfach ist es in der Fotografie Farben zu interpretieren? Mit dem wissen das es nur drei Farben gibt nämlich rot grün blau wird die Sache schon etwas komplizierter, denn es geht ihr um Licht Brechung. Denn genauen Vorgang kann ich auch nicht genau erklären da ich kein wissenschaftlicher bin, da könnte Wiki wieder helfen 🙂😉 Ich weiss nur soviel das jedes pickend in der Natur das Licht anderes bricht und die Wellenlänge des Lichtes eine grosse Rolle spielt.
@sw4photographiekiel896
@sw4photographiekiel896 Жыл бұрын
Wir sollten nicht so sehr mit dem Finger auf das Farbenraten in den Kameras zeigen😊. Die Zapfen in unseren Augen gibt es auch nur in Rot, Grün und Blau und unser Gehirn macht die Arbeit des Bildprozessors. Ziemlich ähnliche Technik also. 📷 👁
@RickTheClipper
@RickTheClipper Жыл бұрын
Der Silizium Monokristall wird z.B. bei Wacker erzeugt. ALLE Folgeprozesse können nichts an dem Basiswafer ändern! Silizium Monokristall ist eine extreme Technik die nur ganz wenige Firmen beherrschen, würde sich für einzelne Hersteller nicht rechnen
@lucijanvidmar4844
@lucijanvidmar4844 Жыл бұрын
DESWEGEN müssen wir ja auch die Bilder bearbeiten, logisch: Die Kamera KANN NICHT die Welt so ''sehen'' wie wir. Muss sie ja auch nicht genau. Wir passen das in den Bildbearbeitungsprogrammen nach unserer Wahrnehmung an.
@Asgaia
@Asgaia Жыл бұрын
Mal ne Frage, die mir keiner beantworten konnte. Vielleicht kann ich sie ja hier stellen. Erst die Erklärung: Also unser Auge macht einen Farbauszug aus dem kontinuierlichen Lichtspektrum. Mittels dreier "Filter" (Pigmente die entsprechend absorbieren) wird es Teil des Spektrums "betrachtet" und Signale gewonnen. Einmal mit Maximum im blauen Bereich (B) und zweimal mit Maximum im gelben Bereich, wovon einmal etwas nach Grün geschoben ist (G) und einmal etwas nach Rot (R). Das sind Mutationen/Veränderungen eines ursprünglichen nur gelbabsorbierenden Pigments. Daher sind sie so ähnlich. Der R-Zapfen ist zusätzlich noch etwas violett empfindlich. Das wissen viele nicht, dass der R-Zapfen ein kleines Nebenmaximum im Violetten hat. Deswegen: - ist unsere Farbauflösung im Gelb-Roten am höchsten, weil die die Zapfenarten spektral nur leicht unterschiedlich sind. Kleine Unterschiede->große Unterschiede bei den Zapfentypen. - gibt es Tetrachromaten, die noch eine weiteren - den ursprünglichen - Gelbzapfen haben (nur Frauen, ein "defektes" X-Chromosom, die Gene für Farbpigmente im Auge liegen auf dem X-Chromosom. Ist eines kaputt, haben Männer Pech gehabt. Daher sind Männer viel häufiger unter den Farbenblinden. - sehen wir Licht, dass noch blauer (kurzwelliger) als Blau ist, wieder etwas röter. Violett ist also eine Mischung als Blau und etwas Rot. Wobei die Mischung bei spektral reinem Violett durch gleichzeitge Abregung der blau- (logisch) UND roteempfindlichen Zapfen entsteht. Aber auch schon da eine Mischung aus Blau und Rot ist. Dass man die Mischung unnatürlich übertreiben kann mit Magenta ist dann ein Nebeneffekt. Bzw. deswegen funktioniert es. - haben Filme und Sensoren Probleme mit spektral reinen Violett, weil denen die Nebenrotempfindlichkeit fehlt und es dann nur ein dunkles blau wird. Wir haben also im Auge eine Transformation eines kontinuierlichen Spektrum in drei Farbauszüge (gut, die werden dann wieder in Rot-Grün, Blau-Gelb-Kanäle verrechnet, aber bleiben wir am Anfang. Der Rest ist "nur" lineare Tranformation. Ja, ok, nicht ganz linear. But you get the idea. Jedes photographische System, nein jedes Farbsystem, was nicht mit kontinuierlichen Spektren arbeitet, sondern auch mit drei (oder mehr, aber mal nicht abschweifen) Farbauszügen R, G un B muss im Sensor die GLEICHEN Empfindlichkeitskurven haben wie das Auge! Sonst funktioniert das nicht. Der Trick, drei Farbauszüge aus einem kontinuierlichen Spektrum zu machen, muss GENAUSO in der Kamera nachgebildet werden. Ist das nicht der Fall - und es ist weder beim Film noch beim Sensor der Fall! - stimmt es nur mehr oder wengier gut. Und man muss korrigeren und hinwurschteln. Meinst so, dass Grautreppen grau sind und Hauttöne passen. Der Rest weicht ab. Jetzt die Frage: Was ist mit dem Rot-Kanal? Wie gut bilden Sensoren (bzw. die Filter) die spektrale Empfindlichkeit des Auges nach? Und was für Tricks müssen ja gemacht werden. Es gibt keine Kamera mit korrekter Rot-Abbildung. Extremfälle: meine Blackmagic BMPCC (die gute alte) hat hervorragende Hauttöne, aber Dächer und RAL3000 sind zu orange. Meine Panasonic G3 bildet Dächer ganz gut ab, aber die Hauttöne sind zu rot. Bei anderen Kameras teils besser, aber nirgends perfekt. Ist Rot ein Problem? Und wie schlimm? Was ist mit reinem Violett (z.B. beim Regenbogen)? Lang. Aber anders konnte ich die Frage nicht erklären. P.S. ich bin Dipl.-Ing. ET und habe meine Diplomarbeit über Farbübersprechen von Farbnegativfilmen und deren mathematische Approximation gemacht. Nicht zum angeben erwähnt, sondern um das Niveau der Antwort klar zu machen ... P.P.S. wenn es wirklich interssiert: R.G.W. Hunt "The Reproduction of Colour" (Hunt war Kodak-Spezialist und das Buch ist die Bibel über Farbreproduktion)
@FadingSun32
@FadingSun32 Жыл бұрын
Puh, ich denke du bist hier zu technisch unterwegs, aber der Reihe nach: es kommt in späteren Videos noch etwas mehr zu Farbreproduktion, Korrektur und warum das nicht in jeder Kamera gleich ist. Als nächstes bin ich mir nicht sicher ob unser Gehirn wirklich diskrete Signale aus dem einfallenden Licht erzeugt oder das nicht ein (vereinfachtes) spektrum bleibt, das Hirn ist ja eher analog und nicht digital. Was dann auch zum letzten Punkt führt (den Hans auch zwischendurch in einem der Videos mal erwähnt gehabt haben wird) .. unser Gehirn ist sehr gut darin Informationen zu interpolieren und zu korrigieren, daher muss die Reproduktion der Farben/'Bilder eben nicht perfekt sein sondern nur nahe dran.
@Asgaia
@Asgaia Жыл бұрын
@@FadingSun32 Na logisch bin ich zu technisch ... Das Gehirn macht Impulse. Ist also quasi ein Mittelding zwischen analog und digital. Und auch das Gehirn (die Netzhaut gehört zum Gehirn) macht eine Art debayering und Kantenschärfung. Interessant, aber für das Thema irrelevant ist, dass es Gehirn (also Netzhaut->Sehzentrum) nicht in RGB oder so arbeitet, sondern mit 4 Kanälen. Einer ist langsam, schwarzweiss und sehr scharf. Einer ist schnell, hat keine Details aber Bewegungen. (hier werden Stäbcheninformationen auch am Tag reingemischt, wir sehen Bewegungen seitlich auch dort, wo wir praktisch nichts mehr sehen! Viele denken dann das sei Intuition....) Und zwei Farbkanäle. Beide (Rot-Grün und Blau-Gelb) unscharf, langsamer und ganz neckisch: mit deutlich unterschiedlicher Laufzeit! Blau kommt später an. Evolutionär höchst interessant, weil die Säugetiere das Farbsehen neu evolutionär entwickelt haben, nach ihre nachtaktiven Vorfahren zur Saurierzeit das verlernt hatten. Wir sehen ja auch keine Gegenwart! Sondern eine Extrapolation aus den vor 40ms gesehenen, wie es in 40ms (also jetzt) sein wird. Wir leben in einer ständigen Prognose der Zukunft, die zufällig jetzt ist, aus der Vergangeheit. Blöd, wenn sich in den 40ms was ändert und Realität und gesehene Realität nicht übereinstimmen. Das nennen wir dann optische Täuschung oder optische Tricks. Interessantes Theme. Ich schweife ab ... "unser Gehirn ist sehr gut darin Informationen zu interpolieren und zu korrigieren" Daher ist es so, dass photographische Filme und deren Entwicklungprozess so abgestimmt sind, dass eine Grautreppe von Schwarz nach Weiss, eine Grautrreppe ergibt. Die Farbfehler des Film (optisches und chemisches Übersprechen) in die hohgesättigte Bereiche gelegt werden. Unsere Sinne sind extrem gut darin, Unterschiede zu hören und zu sehen. Aber schlecht absolute Werte sehen können. Ob ein Grau leicht zu blau (100, 100, 101) oder leicht zu gelbe ist, sehen wir sofort. Ob ein Feuerwehrauto minimal zu blau oder minimal zu gelb ist in gleicher Größe sehen wir nicht.
@endsommer
@endsommer Жыл бұрын
Hmm, naja - wie die Rezeptoren der Augen reagieren hat man vielleicht heraus gefunden, wie dann das Gehirn die Reize dann verarbeitet, dürfte noch lange nicht genau feststehen. Ich würde auch nicht so einfach von einer Kamera erwarten, dasss sie farbecht abbilden würden .... dazu kommt aber auch noch etwas in der Sensorstrecke. Woher weißt du denn wie gut denn deine Augen samt Gehirn die Farben richtig wahr nehmen? Farbnegativ-Film, mit Orangemaske und eigene Farbwiedergabe nach der Filterung - die ja auch nicht "Farbecht" ist - genausowenig wie dann auch Sensor und Verarbeitung dies sind.
@Asgaia
@Asgaia Жыл бұрын
@@endsommer "Hmm, naja - wie die Rezeptoren der Augen reagieren hat man vielleicht heraus gefunden, wie dann das Gehirn die Reize dann verarbeitet, dürfte noch lange nicht genau feststehen." Irrtum. Das steht ziemlich genau fest. Und das schon 20 Jahre und länger. Man hat die Struktur des Sehzentrums sogar simuliert. Und festgestellt: hoppala, da sind ja Lücken drin. Wie kann das sein? Im echten Gehirn sind keine Lücken. Bis man dann erkannt hat, dass in den Lücken der Kantendetektionsmatrix, das Farbsehen ist. "Ich würde auch nicht so einfach von einer Kamera erwarten, dasss sie farbecht abbilden würden " Doch. Der Knackpunkt ist, dass die Farbauszüge, die die Kamera von der Welt macht GENAU denen entspricht - spektral - wie auch das Auge. "Woher weißt du denn wie gut denn deine Augen samt Gehirn die Farben richtig wahr nehmen? " Das ist ziemlich gut erfoscht. Bis auf den letzten unbedeutenden Schritt, der bewussten Wahrnehmung. Klar, kanns du Rot so empfinden, wie ich Grün, aber die gesamte Prozession davor ist die selbe. Du hast dich nie wirklich damit befasst, oder? Du spekulierst nur rum, mach dem Motto "kann ich mir nicht vorstellen". Es ist extrem gut erforscht. "Farbnegativ-Film, mit Orangemaske und eigene Farbwiedergabe nach der Filterung - die ja auch nicht "Farbecht" ist" Du weisst, wie die Orangemaske funktioniert, warum sie da ist und warum sie orange ist? Und warum brauchen Dia- und Positivfilme und Photopapiere keine Maske? Was machen die? Das ist die selbe Chemie und die selben Azofarbstoffe.
1% vs 100% #beatbox #tiktok
01:10
BeatboxJCOP
Рет қаралды 67 МЛН
Мен атып көрмегенмін ! | Qalam | 5 серия
25:41
99.9% IMPOSSIBLE
00:24
STORROR
Рет қаралды 31 МЛН
Die große Sensorstrecke - 06 - Wärme und Sensoren 📷 Krolop&Gerst
19:17
NUR mit APS-C Kamera durch Namibia | Das ist passiert!
28:48
AmazingNature Alpha
Рет қаралды 132 М.
Nikon Zf Kamera Retro Vollformat im Test
16:14
Stephan Wiesner
Рет қаралды 69 М.
Photographer breaks down 7 cringeworthy camera myths that persist
19:03
AmazingNature Alpha
Рет қаралды 55 М.