37C3 - Lass mal das Innere eines Neuronalen Netzes ansehen!

  Рет қаралды 49,598

media.ccc.de

media.ccc.de

5 ай бұрын

media.ccc.de/v/37c3-11784-las...
Nachdem in den letzten Jahren dauernd der Weltuntergang durch KI heraufbeschworen wurde, ist es an der Zeit nachzuschauen, was diese ominösen Neuronalen Netze (NN) eigentlich sind. Wir beginnen mit einer anschaulichen Erklärung, wie ein NN funktioniert und warum es keine wirkliche Ähnlichkeit mit deinem Gehirn hat. Anschließend schrauben wir die Black Box, wie es so schön heißt, einfach einmal auf: Wie können NN erklärbar gemacht werden? Warum trifft ein Neuronales Netz diese oder jene Entscheidung? Was an der politischen Forderung nach erklärbarer KI ist tatsächlich umsetzbar? Außerdem werden wir sehen, wie NN manchmal schummeln, um eine Vorhersage zu treffen. Im Gegenzug tricksen wir sie auch gezielt aus.
Brauchen wir wirklich einen weiteren Vortrag über Künstliche Intelligenz? In den letzten Jahren war das Thema omnipräsent, Bilder werden jetzt generiert, Texte nicht mehr selbst geschrieben und ob ich kreditwürdig bin, prüft auch so eine KI. Und wer weiß, neulich klang der Chat Bot richtig menschlich, vielleicht hat er ja doch ein Bewusstsein.
In diesem Vortrag geht es nicht um tolle Errungenschaften von KI-Systemen oder um „30 Prompts, mit denen du noch effektiver bist!“. Dieser Vortrag legt den Grundstein für ein Verständnis von maschinellem Lernen mit dem Ziel, dass du am Ende selbst die aktuellen Entwicklungen einschätzen kannst: Übertrumpfen Neuronale Netze irgendwann wirklich den Menschen? Oder können sie im Grunde gar nichts und sind massiv fehleranfällig? Und die Frage aller Fragen: Hat künstliche Intelligenz ein Bewusstsein oder steht kurz davor, eines zu entwickeln? Über all das kannst du dir nach dem Vortrag eine eigene fundiertere Meinung bilden.
Annika Rüll
events.ccc.de/congress/2023/h...
#37c3 #Science

Пікірлер: 88
@Tipps_fuer_Schriftfuehrer
@Tipps_fuer_Schriftfuehrer Ай бұрын
Spitze! Und herzlichen Glückwunsch zur Auszeichnung!
@Dalmen
@Dalmen 5 ай бұрын
Echt guter Vortrag! Sehr gut verständlich für jeden. Hoffe wir hören mehr Beiträge von Ihr.
@mhotzel
@mhotzel 4 ай бұрын
Hervorragend! Ich habe mich die letzten Tage mit Neuronalen Netzwerken beschäftigt und anhand des Buches "Neuronale Netze selbst programmieren mit Python" von Tariq Rashid das ganze selbst nachgebaut und trainiert ohne "PyTorch-Magie", weil ich das Ganze mal richtig verstehen wollte. War mega sinnvoll fürs Verständnis. Dazu dieser tolle Vortrag: Dieser hat mir nochmal richtig viele Fragen beantwortet. VIELEN DANK!
@haraldclark6206
@haraldclark6206 2 ай бұрын
Vielen Dank für die Super Vortrag! Sehr Gut!
@petermuller608
@petermuller608 5 ай бұрын
Wirklich toll erklärt! Danke für den Vortrag
@theodorbarth8436
@theodorbarth8436 5 ай бұрын
Klasse Vortrag 👍 Ich würde mich über einen solchen Vortrag über Tranformer freuen.
@user-ud8hw4gp6t
@user-ud8hw4gp6t 5 ай бұрын
2:53 linear regression 6:24 perzeptron 10:30 (hidden) layers 13:00 preprocessing(bild zu tensor) 16:00 tokenizers und embedding (text zu tensor) 21:00 feature importances
@ChristophGranz
@ChristophGranz 5 ай бұрын
Sehr kompakt und toll erklärt, wir neuronale Netze von innen aussehen. Durchatmen vor dem Talk. Du bist eine sehr gute Rednerin!
@renzuki5830
@renzuki5830 2 ай бұрын
Perfekter Vortrag für den Einstieg. Genau der hat mir gefehlt :)
@Protoscherge
@Protoscherge 5 ай бұрын
Top Talk - gut gehandled trotz des Pointers
@mannamanfulify
@mannamanfulify 3 ай бұрын
Sehr spannend. Vielen Dank für den Vortrag. Coole slides auch
@Chloe_Priceless
@Chloe_Priceless 5 ай бұрын
Lieben Dank für den tollen Vortrag das hat das ganze nochmal ansehnlicher gemacht wie das arbeitet, gerade den Teil mit dem y=ax+b fand ich sehr toll endlich hab ich das denke ich mal annähernd mehr verstanden als zuvor (bei dem Thema in der Schule habe ich resigniert). Du hast das ganze Thema über Neuronale Netze für mich besser erklärt als viele viele andere.
@compuholic82
@compuholic82 5 ай бұрын
Vielleicht die Antwort auf die Frage bei 30:50 Das wurde lange Zeit tatsächlich so gemacht und (wie bereits bemerkt wurde, wird das in manchen Bereichen immer noch so gemacht). Insbesondere im Bereich Computer Vision hat man sich von diesem Ansatz eher wieder entfernt. Das Problem ist, dass man beim Feature-Engineering i.d.R. Informationen wegwirft. Daher trennt man nicht mehr zwischen Feature-Extraktion und Klassifikation und erlaubt es dem Netz sich selbst die interessanten Features zu suchen. Die ersten Schichten des Netzes sind dann i.d.R. aus Operationen (z.B. Faltungen) aufgebaut die für die Feature-Extraktion relevant sind. Aber da sowohl Feature-Extraktion als auch Klassifikation Teil des gleichen Netzwerkes sind, kann der Optimierer auch beide gemeinsam adaptieren.
@seriouce4832
@seriouce4832 5 ай бұрын
Echt merkwürdig dass Annika Feature Engineering nicht kennt. Feature Engineering hat die letzten Jahrzehnte (also sozusagen "seit immer") ML komplett dominiert und wird langsam aber sicher abgebaut. Das Gegenteil von Feature Engineering heißt übrigens "end to end", sprich man überlässt dem neuronalen Netz die komplette Verarbeitung von Eingabe bis Ausgabe, statt eben einige Schritte manuell zu implementieren. Dadurch spart man sich Arbeit, kriegt bessere Ergebnisse, und man vermeidet das Risiko, durch feature engineering einen Fehler zu machen (es ist ja opinionated).
@compuholic82
@compuholic82 5 ай бұрын
@@seriouce4832 Ist wahrscheinlich der Fluch (oder Segen, je wie man es sieht) der Jugend. Wenn man quasi mit Faltungsnetzen aufgewachsen ist, kennt man es vermutlich nicht mehr anders.
@user-ud8hw4gp6t
@user-ud8hw4gp6t 5 ай бұрын
& @seriouce4832 das versteh ich irgendwie nicht: feature engineering ist ja eigentlich ein überbegriff für techniken. das kann ja einmal heißen das man die rohdaten vorverarbeitet, oder auch das man mittels transfer learning bestimmte feature importances auf ein anderes modell überträgt. wie kann man den ein modell trainieren ohne die daten zu normalisieren (was ja teil des feature engineering ist)? also man setzt dann extra schichten die dann die normalisierung ersetzen? und was meint hier "daten wegwerfen"? wenn ich nicht alle rohdaten brauche, dann muss ich das modell doch nicht komplexer machen und diese dann trotzdem eingeben. also ich habe das jetzt so verstanden das e2e zwar keine transformer benutzt aber die daten trotzdem normalisiert werden müssen was ja teil des feature engineering ist
@Tilagiho
@Tilagiho 4 ай бұрын
​@@seriouce4832Wobei man schon sagen muss, dass große Teile von ML (vor allem Tabular Data) immer noch Feature Engineering einsetzen und end-to-end Modelle oft nur zusätzlich (als Teil eines Ensembles) benutzt werden.
@frank-lr
@frank-lr 4 ай бұрын
Zu erkennende Objekte in Bildern zu modellieren und dafür features zu definieren und abzuleiten ist/war die Grundlage von Computer Vision seit, wann?, 1950 oder so. Wird in der industriellen Bildverabeitung immernoch angewendet, insbes. wenn man gar kein ML benötigt. Irgendwann kam man auf die Idee, das wegzulassen und hat Deep Learning direkt auf Pixeln verwendet. Jetzt merkt man, dass das nicht immer so toll ist (eben z.B. wg. der Erklärbarkeit) und nun kommt man wieder dahin, mehr Modellwissen einzubringen, damit ein Stopschild nicht per adversarial Muster als 130km/h erkannt wird, weil ein Stopschild halt ein rotes Achteck mit weißem Text darin ist, achwas, achnein. Bedauerlich, dass Einige die Historie der Mustererkennung nicht gelernt haben und überall einfach DL draufwerfen.
@Gorgonias
@Gorgonias 5 ай бұрын
So gut, danke! Die Idee aus ihrer Masterarbeit ist die erste Richtung Nachhaltigkeit im Kontext KI die ich Sinnvoll finde. Vielen Dank für den Impuls
@karl_maximus
@karl_maximus 5 ай бұрын
Vielen Dank, sehr gut erklärt.
@technickUM
@technickUM 5 ай бұрын
Mega Vortrag! Und am Ende die richtig gute Erklärung der Fragenden noch einmal. Du weißt, was du machst. Mehr von dir. Du kannst höhere Komplexitäten so erklären, dass auch der Unwissende es versteht. Davor ziehe ich meinen Hut. 🤗
@itissatno
@itissatno 5 ай бұрын
Super Vortrag!
@TobiasGeek
@TobiasGeek 5 ай бұрын
Echt ein Top Vortrag! :D
@quebono100
@quebono100 5 ай бұрын
Super Vortrag
@ralefalba3233
@ralefalba3233 4 ай бұрын
Vielen Dank für die tolle Einführung. Auch in Zukunft gerne mit Mut zur Mathematik. 👍
@werkstoff8667
@werkstoff8667 5 ай бұрын
Super gemacht danke dir!
@yahmk3978
@yahmk3978 4 ай бұрын
Vielen Dank!
@derwuki
@derwuki 5 ай бұрын
Richtig gut 👍👍👍
@sascharambeaud1609
@sascharambeaud1609 4 ай бұрын
Guter Vortrag, aber kleine Korrektur: Nein, du kannst nicht aus dem Zahlenwert am Ende den Input rekonstruieren, dafür verschwindet unterwegs einfach zu viel Information.
@nicks1482
@nicks1482 4 ай бұрын
Toll! 🐶
@karionwhite2367
@karionwhite2367 5 ай бұрын
Können wir zusammen legen und ihr ein besseren Pointer schenken?
@vannevantastisch1814
@vannevantastisch1814 4 ай бұрын
Am Anfang komme ich nicht ganz mit - da sind mir die Sprünge zu groß. Ab der Hälfte bin ich dann aber drin. Trotz leichter Nervosität in der Stimme ein super Vortrag. Weiter so!
@Killerhippo111
@Killerhippo111 5 ай бұрын
Wenn man so eine Heatmap hat, wo man sehen kann welche Parameter wichtig sind, könnte man den Spieß nicht umdrehen und eine neue Heatmap zeichnen und so die Parameter neu gewichten? Oder wäre das eher kontraproduktiv, zu aufwändig, gar nicht mehr notwendig, weil größere neuronale Netzwerke das Problem nicht mehr so sehr haben?
@user-ud8hw4gp6t
@user-ud8hw4gp6t 5 ай бұрын
meinst du backpropagation?
@petermuschick9914
@petermuschick9914 4 ай бұрын
Das ist ja quasi das Lernen eines Netzes an sich. Das Netz passt sich an, lernt somit bei ausreichend Neuronen auch andere Sonderfälle korrekt zu lernen.
@uwehalla4902
@uwehalla4902 4 ай бұрын
Gott sei Dank kam die Frage mit dem "Embedding" noch. :)
@donnawetter1513
@donnawetter1513 5 ай бұрын
Was ist denn mit der Methode Katzen und Hunde freigestellt zur Analyse zu geben damit der Hintergrund und Hände von Menschen nicht mit reinspielen?
@user-ud8hw4gp6t
@user-ud8hw4gp6t 5 ай бұрын
ja auf jeden fall. das verringert das rauschen. also ich habe das so gemacht für mein yolo-modell. also die hintergründe können halt noch mal zusätzliche infos geben, aber dann müsstest du auch alle möglichen hintergründe im datensatz haben und müsstest für diese dann zusätzliche klassen erstellen wie: "hund hinter baum". das braucht man aber eigentlich nicht mehr seit segment anything. das ist dann aber auch deutlich langsamer als ein yolo modell, weil es halt viel komplexer ist. du kannst aber auch ein yolov modell trainieren und dir danach eine bildbeschreibung für alle erkannten objekte generieren lassen und dann halt die texte mit cosinusähnlichkeit oder so vergleichen
@user-ud8hw4gp6t
@user-ud8hw4gp6t 5 ай бұрын
das ist auch besser wenn du nicht so viele unterschiedliche bilder hast, denn wenn das modell nur mit bestimmten hintergründen trainiert wurde, dann erkennt es eventuell andere bilder mit anderen gegebenheiten nicht mehr
@user-ud8hw4gp6t
@user-ud8hw4gp6t 5 ай бұрын
aber jedes bild freizustellen ist halt mega aufwendig, weil du musst halt dann auch gucken ob das geklappt und die freistellung dann noch verfeinern und so. da gabs so ne api die da sehr hilfreich ist. also am ende hast du halt echt halb fotoshop programmiert xD und du musst halt tausendfach über den tensor iterieren
@martinkifmann6177
@martinkifmann6177 5 ай бұрын
Super Vortrag. 👍 Nächstes mal bitte Mikro weiter hinten und seitlich, dann sind die Schnaufgeräusche weg 🤗
@TheDeceptiveHero
@TheDeceptiveHero 5 ай бұрын
Ladet ihr auch noch Patrick Breyers Vortrag zur Chatkontrolle hoch?
@DathCoco
@DathCoco 4 ай бұрын
Super Vortrag, danke! Ich hätte zu 12:12 noch den Wunsch: Wie kommt man auf das NN design? Also wann entscheidet man welche Knoten/Neuronen hinzuzufügen und zu verbinden sind? Ich kenn mich nur Oberflächlich damit aus, bin aber sehr interessiert. Falls jemand Lektüre/Videovorschläge hat würde ich mich sehr drüber freuen :)
@malickruschtchof6772
@malickruschtchof6772 4 ай бұрын
das nn design ist vorgegeben, alles was der Mensch erfindet oder baut schaut er sich bei der Natur ab oder anders gesagt die Information ist schon da nur dein geist begreift es noch nicht. Das menschliche Gehirn funktioniert auch genau so wie hier im Video erklärt, jede Information besteht aus unzähligen biometrischen Informationsmustern die im Gehirn durch Neuronen und Synapsen sozusagen gespiegelt sind, durch das Milgram Experiment kann man testen wie gut das Gehirn mit biometrischen Informationsmustern durchsetzt ist und ob es sich um einen Bioroboter oder Menschen handelt. Zum letzten Teil mit dem "raparieren" was man auch durch manipulieren ersetzen kann, gibt es das Solomon Asch Konformitätsexperiment wo man mal wieder Bioroboter neu programmieren kann und wenn man dieses Muster der Manipulation kennt, dann fällt man nicht mehr darauf rein und kann sich als Mensch bezeichnen.
@malickruschtchof6772
@malickruschtchof6772 4 ай бұрын
in dem Diagramm fehlen die groß Katzen, man kann demzufolge gleich zur Bildanalyse übergehen
@HoppiHopp
@HoppiHopp 5 ай бұрын
13:54 Die Katze ist sooo süß!
@HiR0SHi.the.D0G
@HiR0SHi.the.D0G 22 күн бұрын
Hund oder Katze? Eine fundamentale Frage.
@BertAframion
@BertAframion 5 ай бұрын
Ist die Antwort bei 36:00 nicht falsch? Das Modell selbst kann ja nur die Vorhersage geben. Man kann durch XAI doch höchstens quasi das beste Beispiel für Hund und Katze herausfinden?
@mamore.
@mamore. 5 ай бұрын
Man kann ein "leeres" so anpassen, dass es eine bestimmte Ausgangklasse des neuronalen Netzes triggert. Dabei entsteht sozusagen das grundsätzliche Konzept der KI für z.b. die Klasse Fisch oder Hund. Google hat das mal gemacht und gezeigt blog.research.google/2015/06/inceptionism-going-deeper-into-neural.html
@ClundXIII
@ClundXIII 4 ай бұрын
Die Nichtlinearität macht die Umkehrung unmöglich. Nichtlinearität wäre zum Beispiel: x --> [ 0 wenn x
@klauswerner
@klauswerner 3 ай бұрын
Blöde Frage,vielleicht macht man das auch. Bei Worten in ChatGPT nimmt man Wortbestandteile, warum nicht bei Bildern zusätzlich charakteristische Elemente zum Training (beim Tiger die Streifen)?
@derLeon16
@derLeon16 5 ай бұрын
zu dem +100 hund in den fragen: hab ein video gesehen, wo jemand großbuchstaben lernen lassen hat und daraus dann kleinbuchstaben finden lassen. als es das konnte, hat er die kleinbuchstaben als großbuchstaben deklariert und kleinbuchstaben machen lassen bzw umgekehrt. also ja, sowas in der art geht
@user-ud8hw4gp6t
@user-ud8hw4gp6t 5 ай бұрын
was sie hier leider überhaupt nicht erwähnt hat ist backpropagation und errorfunktion, was wirklich essentiell ist wenn man nn's im ansatz verstehen will. denn so lernt ein nn ja
@kbusse
@kbusse 4 ай бұрын
30 Minuten, da kann man nicht über alles reden.
@troetenvirtuose9103
@troetenvirtuose9103 Ай бұрын
Das Video haben bisher nur 48K Leute geguckt... Gibt also nach wie vor zu viele, die mir was über KI erzählen, als ob es reinste Magie sei 😢
@KanjiasDev
@KanjiasDev 5 ай бұрын
Gewicht und Höhe funktioniert bis zum ersten Dackel xD
@wowwohoo77
@wowwohoo77 3 ай бұрын
wie der vortrag ist kann ich noch nicht sagen, aber für eine Master absolventin ziemlich komisch. steht mit Ihrem komischen pointer, der anscheinent nicht wie normal funktioniert, da rum anstatt einfach an den rechner zu gehen. Studenten halt.
@wadotrust
@wadotrust 5 ай бұрын
Toller Vortrag....wäre es zum Trainieren der Daten nicht sinnvoll, einfach noch den Begriff Finger/hand mit, ein zu Trainieren? Sozusagen derm Netzwerk zu sagen Das ist eine Hand und Finger.
@nonlinearsound-001
@nonlinearsound-001 5 ай бұрын
Das passiert in der Tat auch. In ihrem Beispiel hat sie diesen Fakt wohl nur nicht angesprochen. Du erweiterst dein Input-Set oft durch zusätzliche Dimensionen - erweiterst dein Feature-Set. Somit kann das Modell mit wesentlich mehr Attribute rechnen und wird im Verlaufe des Aufbauens eines Netzes die relevanten weiter stärken und die irrelevanten schwächer bewerten.
@nilskonrad4729
@nilskonrad4729 18 күн бұрын
05;10 Minuten. Wieder mal ein klassisches Beispiel dafür, ob jemand wirklich eine Sache verstand hat und sie STRINGENT erklären kann. Eigentlich eine sehr gute Präsentation, aber der Bruch ist gravierend! Warum ist die zweite Gleichung "quasi das Gleiche"? Komplexe Dinge durchgehend gut zu erklären ist eine hohe Kunst, die hier leider eben nicht zu 100% beherrscht wird. Jedes Mal wenn ich das Video sehe, schüttele ich an dieser Stelle den Kopf. Die Gleichungen sind eben NICHT das selbe. Die eine beschreibt eine Kurve, die andere ein Ergebnis links oder rechts der Kurve. Und davon gibt es weitere Brüche in der Präsentation. Das ist das Manko heutzutage, was man überall antrifft. Sei es KI oder der Zusammenbau von Möbeln oder einem Fahrad. 3-.
@kawasakizx750g6
@kawasakizx750g6 4 ай бұрын
Schöner Vortrag. Was mich - wie auch in vielen anderen Bereichen - stört ist die "Black Box". Wenn die Mechanismen darin nicht offen gelegt sind kann man m.E. den Ergebnissen nicht trauen. Betrifft aber alle propietäre Software.
@timothygillespie6281
@timothygillespie6281 4 ай бұрын
Die Mechanismen sind ja offen gelegt - die sagen einen nur oftmals nicht viel. Das hat mit propietär oder nichts erstmal nichts zu tun. Man würde kein Neuronales Netzwerk nehmen um zum Beispiel 3 + 4 zu rechnen. Dafür haben wir bessere, effizientere und zuverlässigere Methoden. Man nimmt die dort, wo es an besseren Methoden fehlt und muss damit rechnen, dass Sachen falsch eingestuft werden. Wenn Du aber ein Katzenforum moderierst wo Hundebilder verboten sind, dann kann das hier beispielhafte Neuronale Netzwerk eingesetzt werden damit Bilder, welche als Hunde eingestuft wurden, erst noch von einen Menschen geprüft werden. Es kann sein, dass mal eine Katze fälschlicherweise als Hund eingestuft wird, dann wird es halt vom Moderator zugelassen. Wenn mal ein Hund als Katze eingestuft wird, dann ist mal einer durchgerutscht. Die Konsequenzen sind allerdings nicht dramatisch und damit Fehler tolerierbar.
@elfboi523
@elfboi523 5 ай бұрын
Ich muß jetzt gerade an diese Aufkleber denken, die man auf Verkehrsschilder kleben kann, damit sie von selbstfahrenden Autos nicht mehr erkannt werden.
@freckhard
@freckhard 5 ай бұрын
Genau das ist mir auch in den Sinn gekommen, war das nicht sogar beim (vor?)vorletzten Congress in einem Talk? Edit: Ein bekanntes Paper dazu heisst "Robust Physical-World Attacks on Deep Learning Models" aus dem Jahre 2018. Medium und Vice haben dazu ganz lesbare Artikel geschrieben.
@quebono100
@quebono100 5 ай бұрын
36:47 Das ist nicht korrekt. Tesla verwendet unsupervised learning
@freckhard
@freckhard 5 ай бұрын
Das initial dataset / neural net ist aber supervised trainiert worden, wäre sonst ein lustiger Launch gewesen auf den Straßen erstmal durch ausprobieren die Verkehrsschilder etc. zu misachten :D
@quebono100
@quebono100 5 ай бұрын
@@freckhard Es hört sich so an, als würdest du glauben, dass man ein Model zuerst supervised trainiert und wenn es gut genug ist, kann man auf unsupervised rüber springen
@freckhard
@freckhard 5 ай бұрын
Ich glaube das nicht nur, ich habe das so auch mal gemacht :-) und im Verkehrsbereich fände ich das auch sinnvoll. Letzten Endes wird Tesla es schon so gemacht haben wie es funktioniert, ob supervised oder nicht.
@quebono100
@quebono100 5 ай бұрын
@@freckhard Das sind zwei verschiedene paar Schuhe, wieso sollte Tesla Resourcen verschwendung betreiben
@mamore.
@mamore. 5 ай бұрын
Tesla trainiert vollständig supervised. Die Trainingsdaten bestehen aus dem Kamerafeed der Fahrzeuge und die Zielwerte sind z.B. die Handlungen der Fahrer bei ausgeschaltetem Autopilot (nach links lenken, beschleunigen, etc.) Wenn man davon genug sammelt trainiert man ein Modell end-to-end supervised auf die realen Fahrten der Nutzer. Weiterhin erkennt das Modell ich Fußgänger, Fahrzeuge, segmentiert die komplette Straße, etc was natürlich auch supervised trainiert ist kzbin.info/www/bejne/p3Oqq6Jro96Zo9E&ab_channel=ALLElectric%E2%9A%A1%EF%B8%8F
@To4242M
@To4242M 4 ай бұрын
Schön, dass Du so ausführlich erklärst, wie 'dumm' diese Systeme grundsätzlich sind, und dass sie Fehler machen und Unfug machen und sich reinlegen lassen - und dass hier grundsätzlich Software auf Hardware läuft und Mathematik ausführt, also keine Magie. In der üblichen kurzen Mediendarstellung klingt dies ja leider oft ganz anders. Kritische Anmerkung: Du sagst, dass Du von Gehirnen keine Ahnung hast, und dass dies neuronale Netze mit Mathematik sind, keine Gehirne mit Magie. Wie kommst Du darauf, dass Gehirne was mit Magie zu tun haben, und keine neuronalen Netze sind die Mathe machen?
@vecvan
@vecvan 5 ай бұрын
Der Vortrag verschweigt, dass die Mathematik dahinter schon auch aus der Forschung an Neuronen herkommt und das Funktionsprinzip schon längst verstanden war bevor die Rechenleistung es nutzbar machen konnte. Natürlich war das auch viel Mathematik, ist halt eine Stützwissenschaft, die überall drin ist. Aber es ging nicht aus der sogenannten Reinen Mathematik hervor. Durchbrüche ja (Terrence Tao "one pixel camera" zB., der ist Mathematiker). Der wichtigere Punkt ist doch, dass zum menschlichen Denken mehr gehört und dies gar nicht vollständig verstanden ist.
@kbusse
@kbusse 4 ай бұрын
Das ist ein Vortrag von einer guten halben Stunde über neuronale Netze, und nicht der angeblich „wichtigste Punkt“ Ihrer Schwurbelei übers menschliche Denken.
@malfroller3022
@malfroller3022 5 ай бұрын
Ist natürlich Laienwissen, aber guter Vortrag!
@axelurbanski2774
@axelurbanski2774 5 ай бұрын
Bei KI und inneres der KI muss ich immer an Brainwashing denken, kann das wer verstehen ?
@dasistdiewahrheit9585
@dasistdiewahrheit9585 5 ай бұрын
POINTER, WHY YOU NO WORK?
37C3 -  Heimlich-Manöver
50:57
media.ccc.de
Рет қаралды 156 М.
36C3 -  Hirne Hacken
43:48
media.ccc.de
Рет қаралды 580 М.
Don’t take steroids ! 🙏🙏
00:16
Tibo InShape
Рет қаралды 98 МЛН
Indian sharing by Secret Vlog #shorts
00:13
Secret Vlog
Рет қаралды 51 МЛН
Kann KI ein Bewusstsein erlangen? | Quarks: Dimension Ralph
8:54
Quarks Dimension Ralph
Рет қаралды 82 М.
FSCK 2024 - Datum und Uhrzeit: What a mess!
54:34
media.ccc.de
Рет қаралды 16 М.
How Neural Networks Work: A Simple Explanation
9:18
c't uplink
Рет қаралды 6 М.
37C3 -  Toniebox Reverse Engineering
1:00:10
media.ccc.de
Рет қаралды 209 М.
Neuronale Netze - Basiswissen
1:07:46
Udo Würtz
Рет қаралды 84 М.
37C3 -  Hirne hacken: Hackback Edition
1:01:40
media.ccc.de
Рет қаралды 126 М.
[r3s]  OSINT: Ich weiß wo dein Haus wohnt (jomo)
1:05:44
media.ccc.de
Рет қаралды 134 М.
Don’t take steroids ! 🙏🙏
00:16
Tibo InShape
Рет қаралды 98 МЛН