21.2 Tangentialebene, Gradient, totales Differential

  Рет қаралды 62,485

Jörn Loviscach

Jörn Loviscach

Күн бұрын

Пікірлер: 25
@philnius
@philnius 7 жыл бұрын
Das ist die absolut beste Erklärung, die ich dazu jemals gehört habe! Vielen Dank für dieses und die anderen Videos!
@semisemi9736
@semisemi9736 5 жыл бұрын
SirLunchALot true!!
@pittherichkid
@pittherichkid 5 жыл бұрын
Bei Ihnen müsste ich Mathe bis zum Härtefall schieben, aber nicht weil ich zu schlecht wäre, sondern weil es bei Ihnen einfach Spaß macht :D Großes Dankeschön.
@DerMacDuff
@DerMacDuff 13 жыл бұрын
Wiki hat ein gutes Beispiel zur Tangentialebene. Wenn ein Ball auf dem Boden liegt, dann ist der Boden die Tangentialebene^^ Super Video :) Gute Nacht ^^
@Stadtpilot
@Stadtpilot 11 жыл бұрын
Ich frage mich, warum die FernUni Hagen sowas nicht hinbekommt. Großartig!
@17plus9
@17plus9 8 жыл бұрын
1142?
@AndreasBaumgartnerMUC
@AndreasBaumgartnerMUC 8 жыл бұрын
Gute Frage!
@JoernLoviscach
@JoernLoviscach 8 жыл бұрын
Ich kann ja mal Helmut Hoyer fragen, wenn wir uns das nächste Mal begegnen. ;-)
@AndreasBaumgartnerMUC
@AndreasBaumgartnerMUC 8 жыл бұрын
+Jörn Loviscach Dann können Sie ja auch gleich ein gutes Wort für uns einlegen:) Aber davon unabhängig möchte ich mich auch ganz herzlich für Ihre Arbeit und ihr Engagement hier auf KZbin bedanken! Alleine vor dem Skript zweifelt man manchmal an der eigenen Intelligenz nur um dann nach einigen Videos zu dem Schluss zu kommen, dass es so schlimm dann auch wieder nicht ist:)
@JoernLoviscach
@JoernLoviscach 12 жыл бұрын
An einem _lokalen_ Max/Min muss der Gradient null sein. Das globale Max/Min kann dagegen an einem abschüssigen/ansteigenden Rand liegen. -- Nur eine Komponente = 0: Man denke an eine fallend montierte Rinne. Die Komponente des Gradients quer zur Rinne ist null.
@plplpl2461
@plplpl2461 10 жыл бұрын
Bei 7:21: Ich verstehe noch nicht, warum man die Partiellen Ableitungen in einen Viktor schreibt und warum der Betrag dieses Vektors die Steigung der Tangentialebene ist.
@JoernLoviscach
@JoernLoviscach 10 жыл бұрын
Wenn ich von (x, y) nach (x + Delta x, y) gehe, ändert sich der Funktionswert etwa um partielle Ableitung von f nach x an der Stelle (x,y) mal Delta x. Um das zu begründen, kann man f(x,y) einfach bei konstantem y als Funktion nur von x auffassen und die übliche Ableitung bzw. lineare Näherung auffassen. Wenn ich von (x, y) nach (x, y + Delta x) gehe, ... usw. Damit weiß man, wie die Tangentialebene liegen muss. Dafür gibt es nur eine Möglichkeit. Der Ausdruck, den ich hinschreibe, hat offensichtlich die richtigen Steigungen in x- und y-Richtung und muss wegen der Linearität für jede Richtung stimmen. Dass man die partiellen Ableitungen elegant zu einem Vektor zusammenfassen kann, erscheint erst wie ein Kunstgriff. Aber bei genauerer Betrachtung sieht man, dass sich der Gradient tatsächlich wie ein Vektor verhält (mehr darüber in meinem Video zu Tensoren). Das mit dem Betrag: Die steilste Richtung, in die man gehen kann, ist aufgrund der Formel offensichtlich die des Gradienten. Wenn man einen Vektor der Länge 1 in diese Richtung geht, wächst die lineare Näherung um den Betrag des Gradienten.
@plplpl2461
@plplpl2461 10 жыл бұрын
Jörn Loviscach Vielen Dank für Ihren Aufwand und die umfangreiche Erklärung, nun ist es klar geworden.
@leethebot1870
@leethebot1870 9 жыл бұрын
Guten Abend, was kann ich tun wenn ich alle Tangentialebenen an einer Fläche finden will, die eine bestimmte Koordinatenachse schneiden?
@JoernLoviscach
@JoernLoviscach 9 жыл бұрын
Lee & the BOT Wenn man für die Fläche eine Gleichung gegeben hat, könnte man daraus die Gleichung der Tangentialebene für eine beliebige Stelle der Fläche bestimmen, damit ein Gleichungssystem für einen Schnittpunkt zwischen Tangentialebene und Koordinatenachse aufstellen, und dann prüfen, wann dieses Gleichungssystem eine Lösung hat. Je nach Art der Fläche kann man aber vielleicht auch anschaulicher vorgehen.
@leethebot1870
@leethebot1870 9 жыл бұрын
Jörn Loviscach Vielen Dank für die Antwort, ich habe diese Funktion z = 4x^2-y^2-z+1. Daran habe ich für einen beliebigen Punkt die Tangentialebene bestimmt und für diese z und x = 0 gesetzt. Nun erhalte ich einen Term für y, weiß diesen aber nicht ganz zu interpretieren. Ich schätze der Term sagt mir den Schnittpunkt der Ebene mit der Achse in Abhängigkeit meiner approximierten Umgebung der Funktion. Bedeutet dies nun, dass ich immer genau einen SP erhalte, solange der Term definiert ist?
@JoernLoviscach
@JoernLoviscach 9 жыл бұрын
Lee & the BOT Das hört sich sehr plausibel an.
@leethebot1870
@leethebot1870 9 жыл бұрын
Jörn Loviscach Herrlich, Vielen Dank und liebe Grüße von der Uni Duisburg-Essen
@piano-battle3091
@piano-battle3091 Жыл бұрын
wo sind die Unterschiede? wieso ist das eine lineare Näherung? Und wieso ist das das totale Differential?
@JoernLoviscach
@JoernLoviscach Жыл бұрын
Die Unterscheide sind rein formal in den Schreibweisen. - Das ist eine lineare Näherung, weil sie die Tangentenebene als Ersatz für den wahren Wert nimmt. - Das ist das totale Differential, weil jenes so definiert ist. (Wenn ich die Frage richtig verstehe.)
@giottovongola2938
@giottovongola2938 9 жыл бұрын
thermodynamik wird sogar erwähnt deswegen guck ich das video hat geholfen weiter so
@JoernLoviscach
@JoernLoviscach 9 жыл бұрын
Giotto Vongola Gerne!
@AlexMueller94
@AlexMueller94 6 жыл бұрын
Ist das totale Differential nicht auch sowas wie eine Kettenregel? Wenn ich f(g(x)) habe, dann wäre die Ableitung davon ja f'(g(x))*g'(x), das sieht so ähnlich aus wie das totale Differential.
@JoernLoviscach
@JoernLoviscach 6 жыл бұрын
Genau. In irgendeinem Video sollte ich das schon sagen.
@marianklose1197
@marianklose1197 9 жыл бұрын
Tolle Videos!
22.1 Fehlerfortpflanzung, Größtfehler
20:50
Jörn Loviscach
Рет қаралды 12 М.
Die Idee der Tangentialebene an eine Fläche
16:01
Weitz / HAW Hamburg
Рет қаралды 8 М.
21.1 partielle Ableitung, Gradient, MATLAB(R)
27:03
Jörn Loviscach
Рет қаралды 28 М.
22.3 Extrema von Funktionen zweier Veränderlicher, Hesse-Matrix
31:18
Jörn Loviscach
Рет қаралды 67 М.
21B.1 Beispiel partielle Ableitungen, Gradient; Anschauung
14:35
Jörn Loviscach
Рет қаралды 53 М.
24.3 Integration in Polarkoordinaten, Kreisfläche
19:05
Jörn Loviscach
Рет қаралды 46 М.
What does the second derivative actually do in math and physics?
15:19
How a Russian student invented a faster multiplication method
18:48
The hardest problem on the hardest test
11:15
3Blue1Brown
Рет қаралды 15 МЛН
What are Differential Equations and how do they work?
9:21
Sabine Hossenfelder
Рет қаралды 378 М.