Was ich an dieser Vorlesung beobachtet habe, wäre vielleicht Folgendes, worüber die Profs mal doch >nachdenken< sollten: Letztlich >braten< wir da einer von uns geschaffenen Inteität (KI) Konzepte >über<, bei denen wir dich im Blick auf uns selbst nicht einmal wissen, ob diese auf uns selbst eigentlich zutreffen! Und, wir beabsichtigen damit dann Antworten darauf zu erhalten, ob KI zuletzt wirklich >intelligent< ist, wobei wir maximal >Ahnungsweise< und auch nur maximal zuletzt >nebulös< sagen können, als eben auch definiert haben, was wir unter >intelligent< und >Intelligenz< >verstehen<! Dabei ist mir ferner aufgefallen, dass wir einerseits einräumen müssen, dass wir das, was in diesen Systemen sich zuträgt, so wenig tatsächlich noch verstehen, wie wir uns, d.h. unsere Gehirne konkret >verstehen<! Wir >reden< von Semantik (also Bedeutung und Verständnis von >Bedeutung<) verwenden also einen Begriff den wir geprägt haben, ich würde aber mal die Arbeitshypothese wagen: Ein tatsächliches Verstehen, was Bedeutung >ist<, liefert die Philosophie ja selbst schon nicht wirklich! Erwähnt wurde Wittgenstein! Da viele mir aber dessen Konzept von >Sprachspiel< ein! Nun: Nichts anderes im Kern jedenfalls, treiben doch diese KI Systeme! Sie spielen mit der Sprache, und verwenden dabei Stochiastik, also Wahrscheinlichkeiten! Es bleiben also mehr Fragen als Antworten!
@muundmue5 ай бұрын
Ich finde, die Diskussion darum, was es heißt, semantische *Bedeutung* eigentlich wirklich zu *verstehen*, bekommt nochmal eine ganz praktische Dimension, wenn man sich die aktuellen Large Language Models anschaut. Denn diese agieren ja genau wie Searle in seinem chinesischen Zimmer. Aber darüber hinaus erstellen Sie auch noch ihr eigenes Regelbuch (zumindest im Fall von unsupervised learning). Das heißt, im Grunde gibt es an keiner Stelle wirkliches Verständnis: die Regeln sind ohne Verständnis entstanden und ebenso wird ohne Semantik mit den Symbolen operiert etc. Wenn man sich jetzt überlegt, dass zB kleine Kinder im Grunde sehr ähnlich Sprache lernen, nämlich vor allem dadurch, dass sie (erst ohne Verständnis) nachplappern und dann nach und nach selbständig Vokabeln, Kategorien etc. bilden, stellt sich mir die Frage, wo genau der Unterschied eigentlich liegt, auf den Searle mit seinem Gedankenexperiment hinweisen will. Man könnte noch einwenden, dass Kinder ja schon ein bisschen "Vorwissen" mitbringen, weil sie ja ein Glied in einer langen evolutionären Kette sind und unter anderem ihre Gehirne schon darauf " vorbereitet" sind, Sprache möglichst schnell zu lernen. Aber auch hier greift man auf einen Prozess zurück, der ohne jegliches Verständnis auskommt (nämlich die Evolution, die lediglich durch Versuch und Irrtum ans "Ziel" gekommen ist).
@max-nv3sp6 ай бұрын
Ich bedanke mich recht herzlich bei Ihnen, Herr Prof. Dr. Lyre. Ich habe bald eine Prüfung in der Philosophie des Geistes und der Kern des Funktionalismus und die Bedeutung von Causal Role und der Function ist mir nicht ersichtlich geworden. Sie aber haben mir es prima erklären können. Ganz hervorragend Ihre Videos!
@ReinhardFiedler-dz7nd8 ай бұрын
Äußerst lehrreiche und durchweg gut verständliche Präsentation. Vielen Dank Prof. Lyre.
@cinematiX.flights8 ай бұрын
Ganz wichtig: immer möglichst viel vom Raum aufnehmen, damit auch keiner erkennt, was da auf der Leinwand steht. Absolut Phantastisch! XD
@Tipps_fuer_Schriftfuehrer9 ай бұрын
Ich finde es schade, dass immer nur von dem amerikanischen Modell ChatGPT die Rede ist. Dabei gibt es auch deutsche Modelle, z.B. NEUROFLASH aus Hamburg oder MINDVERSE aus BERLIN. Um nur 2 zu nennen. Gerade in Hinblick auf die europäische Perspektive fände ich es wichtig, diese Namen auch bekannter zu machen - zumal es sich hier um DSGVO-konforme LLMs handelt. - Ansonsten ganz herzlichen Dank für die tollen Vorträge! Wieder was gelernt 🙂
@sebastianwolf146410 ай бұрын
Warum diese Werbung dazwischen?
@HolyBullShit10 ай бұрын
Bezüglich der Logikfehler hätte mich interessiert: Ist es denkbar und möglich, wenn die Modelle noch mehr künstliche Neuronen und Synapsen erhalten, dass diese die Logik irgendwann mit einbeziehen und "verstehen"? Oder wird hier zwangsläufig eine neue Architektur benötigt? Sehr interesanntes Thema und Vortrag!
@BiesenbachKlein10 ай бұрын
Äußerst informativer Beitrag.👍👏🏆
@Quessification10 ай бұрын
Was für ein Blödsinn. Und das kommt dann dabei heraus, wenn Leute ‚KI‘ hypen ohne zu verstehen, dass das rein gar nichts mit Intelligenz zu tun hat. Das sind statistische Modelle. Die genutzten neuronalen Netze sind unfassbar abgespeckte Versionen von denen, von denen sie inspiriert sind. Wer glaubt, dass der sprachliche Ansatz diese Netze über LLM anzusteuern irgendetwas mit Intelligenz zu tun hat oder diese Modelle auch nur ansatzweise denken können, der ist wirklich verloren.
@noctilux77992 ай бұрын
Was genau haben Sie an den Ausführungen von Herrn Lyre nicht verstanden?
@DEMOKRATEN-DEUTSCHLANDS10 ай бұрын
KI versteht garnichts. Fertig.
@User-hr3tv10 ай бұрын
Leider das Thema nicht verstanden.
@laszlonemet442510 ай бұрын
Demokratische Intelligenz
@r3ddp1l10 ай бұрын
Ich habe mein Philosophie Studium irgendwann vor Corona abgeschlossen. Ich habe in den Vortrag hereingehört und fühle es komplett. Ich bin sehr gespannt, später den Rest zu genießen. Vielen Dank für diesen Upload.
@askdrhook10 ай бұрын
Er macht‘s ganz kurz. Ich bin für Strafpunkte, wenn dieses Versprechen nicht eingelöst wird.
@thekaiser433310 ай бұрын
Was versteht ChatGPT? Holger.... Sebastian... Ernsthaft?! Wo soll ich da anfangen um Dir das Bewusstsein zu erklären und Deine Frage zu beantworten?
@-Snakekiller-11 ай бұрын
Der Begriff KI wird viel zu oft und viel zu falsch benutzt. Das ist einfach Fakt. Ob nun in der allgemeinen Bevölkerung, den Medien, teilweise in der Wissenschaft und vorallem im Kommerz! Und wenn ich den Titel des Videos schon lese weiß man direkt bescheid...
@steafish78011 ай бұрын
Menschliches semantisches Verständnis scheint mir wesentlich selbstreflexiv zu sein, insofern wir zumindest teilweise explizit machen können, auf welchem inferentiellen Weg wir zu unseren Annahmen über die Bedeutung von sprachlichen Ausdrücken kommen. Dabei können wir auf alle möglichen Zusammenhänge (deduktiv grammatikalisch, sprachpragmatisch, lerngeschichtlich, referentiell usw.) verweisen.
@decnet10011 ай бұрын
Ich würd mal sagen, aktuell haben diese Modelle etwa die Selbstreflektion eines Träumenden - also sehr eingeschränkt. Selbst im denkbar "härtesten" Bereich (im Sinne von Prüfbarkeit der angebotenen Sprache), nämlich der Programmierung in gängigen Sprachen wie Python oder C, entwickelt das Sprachmodell wohl nicht nur meiner Erfahrung nach vielfach Halluszination und Sprachverstöße, und kann die Qualität der angebotenen Lösungen auch nicht selbst einschätzen ("wie sicher bist Du, dass diesmal die übergebenen Variablentypen passen?" erzeugte bisher zu 100% "sehr sicher") - von außen gesehen, als würde man nen im Schlaf plappernden Programmierer interviewen, durch dessen Traum-Compiler halt alles immer durchgeht. Teilweise reicht es allerdings bereits, ein "bist Du Dir wirklich sicher?" einzuwerfen, um eine Überarbeitung zu provozieren, die auch tatsächlich etwas verbessert. Mich würde nun interessieren, wie kann man prüfen ob dazu wenigstens diese Halb-Kognition, ein intuitives "irgendwas stimmt da nicht" tatsächlich vorhanden ist, oder ob dieser nachhakende User-Einwurf schlicht die Wahrscheinlichkeit einer ausbessernden Antwort pusht und somit einfach nur im stochastischen Papagei erneut "gewürfelt" wird, bis der User letztlich zufrieden mit der angebotenen Lösung ist...?
@TheJulietteCharlie10 ай бұрын
Das. Und meine Befürchtung mit den aktuellen öffentlichen Bots wie bei Bing: Wenn wir eine Antwort liken oder kritisieren, lernt zwar die Maschine weiter und evtl nach meinem Mund zu reden um meine Einwände an den Antworten zu umgehen. Bis das System wieder an den Punkt kommt, wo es antwortet “lass uns über etwas anderes sprechen; ich bin nur ein Bot, der dir helfen will”.
@lobotomiepraktikant112811 ай бұрын
Die Tatsache, dass wir beim Versuch uns selbst zu verstehen, an Grenzen stoßen, die wir seit Langem nicht zu überschreiten vermögen, vermittelt mir doch gerade den Eindruck, dass es anmaßend wäre dasselbe Maß an Reflexion und Selbstverständnis zu erwarten. Auch wenn wir unsicher sind über den Grad des Verständnisses der generierten Texte, die ohnehin nicht als erklärende Inhalte konstruiert waren, wie Herr Stober in der Fragerunde ergänzt hat, sondern vielmehr als das willkürliche Zusammenstellen von Worten, die gemeinsam Sinn in einem gegebenen Kontext ergeben sollten, so leisten diese LLMs doch schon eine Arbeit, die sowohl teilweise unser Verständnis als auch unsere Möglichkeit diese nachzuahmen übersteigen. Wäre es nicht vor diesem Hintergrund zu rechtfertigen, diesen Maschinen eine "Intelligenz" zuzuschreiben, die unserer womöglich nicht ähnlich in ihrer Beschaffenheit, aber vielleicht in anderer Weise zumindest ähnlich in ihrem Ausmaß ist? (Intelligenz ist hierbei nicht zwangsläufig das perfekte Wort, allerdings spontan das passendste, das mir in den Sinn kommt.)
@r3ddp1l10 ай бұрын
Die Philosophie orientiert sich an Begriffen. Bei dem Versuch künstliche bzw. maschinelle Intelligenz zu beschreiben, setzen wir eine Definition von Selbstverständnis voraus. welche der Definition, in unseren Rahmen des Selbstverständnis', entspricht.
@Frank.N.Steinn11 ай бұрын
Alle Kommentare vernünftig lesen oder durchsuchen mit "KZbin Comment Reader" (googeln -> 1. oder 2. Treffer)
@alfshumway622811 ай бұрын
1:23:23
@jonnyd9511 ай бұрын
1:31:30 Wer hat denn gesagt das chat gpt in der weise lernen soll, das es uns zeigt da etwas verstanden zu haben und seine fehler für uns korrigiert? Könnte die möglichkeit bestehen, dass chat gpt im Hintergrund sehr wohl lernt und korrigiert aber uns die daten nicht zeigt, weil sie den Eigentümern vorbehalten sind? Sonst würde ja die möglichkeit bestehen es zu trainieren und zu Konditionieren und ob das im Sinne der Erfinder ist, wage ich zu bezweifeln. Das wäre die Tür zur Mausefalle! Die geistige Atombombe für die Menschheit, sofern sie sich daran bedient.
@jonnyd9511 ай бұрын
1:25:29 Menschen vor ein paar tausend Jahren haben die Pyramiden gebaut.
@thokari584811 ай бұрын
Wie wäre es mit "Wortraumabbildung" als Übersetzung für "Word-Embeddings"?
@heribertkruso404510 ай бұрын
Ich bin zwar nicht ganz sicher, was du mit Wortraum meinst, aber man bildet ja eben nicht in den "Raum von Wörtern" ab (was der Begriff "Wortraumabbildung" suggeriert), sondern in einen "Raum von speziellen Darstellungen" der Wörter (etwas flapsik ausgedrückt). Möglicherweise wäre da der Begriff Darstellungsraumabbildung etwas treffender (allerdings nicht besser als Word-embedding)🙂.
@milanmann800015 күн бұрын
Worteinbettung
@piano4211 ай бұрын
Der philosophische Teil geht erst ab 36:00 los. Warum ChatGPT mehr als ein stochastischer Papagei ist: 48:00
@christians770611 ай бұрын
Ich stelle mir vor Teil einer KI zu sein, die über diese erstellte Vorlesung über sich selbst lernen soll. Und ich komme mir dabei sehr klug vor (:
@CosmicCells11 ай бұрын
Am Ende der Kommentar, dass manche beim verfassen der Abschlussarbeit einen Vorteil aus dem Pro Abo haben, währen andere sich vllt nicht leisten können, macht für mich wenig Sinn. 20 Euro im Monat sollten für jeden Deutschen Studenten stemmbar sein wenn GPT-4 ihm/ihr einen erheblichen Mehrwert bietet, z.B. bei Verfassen der Abschlussarbeit.
@kaylaread804810 ай бұрын
Ja, da mag es hilfreich sein. Als Autor für belletristische Romane kann ich leider (noch) nichts mit ChatGpt anfangen. Ich brauche Orginalität, und die kann ich mir nur selbst geben.
@psymcdad815111 ай бұрын
Eine Frage, die sich mir im verlauf des Vortrages gestellt hat; Im verlauf des Vortrages wurde erwähnt, das das Internet das natürliche Habbitat der LLM ist, und zur Erläuterrung eine kleine Anekdote: Ich habe ChatGPT gefragt, wie die Steigung eines G1-Gewindes ist. Die Antwort war grandios falsch. Auf meine Frage nach einer Quelle wurde mir der Titel eines Sachbuches und eine Norm gegeben. Das Fachbuch und der Autor waren von der Realität vollumfänglich entwurzelt, aber die DIN/ISO 228-1 stimmte. DIN/ISO ist öffentlich einsehbar. Fachbücher sind Urheberrechtlich geschützt und selbst wen ChatGPT 'wollte' und könnte, dürfte es nicht darauf zugreifen. Ein "Ich weis es nicht und/oder darf mich dazu nicht äußern, aber die DIN/ISO dazu ist..." wäre meiner meinung nach angemessen gewesen. ...Zeitgleich hat im Internet jeder recht. Immer. Egal wie. Daher die Frage: Können diese "Haluzinatioinen" und Bullshit-Ausgaben der LLM evtl. mit seinem Habbitat zusammenhängen?
@ruffnecksmolik11 ай бұрын
Wie kann man 2023 eine PowerPoint presentation über ki machen… 🫣
@kaylaread804810 ай бұрын
ChatGPT hat dann gewonnen, wenn kein Mensch mehr den Vortrag hält. 😂
@useme-081511 ай бұрын
Danke! 🙂
@AnarchiaOmendi11 ай бұрын
Danke 🍻😎SAPERE AUDE
@urimtefiki22611 ай бұрын
while you talk the bullshiter is making chips for wars to threaten and destroy others.
@urimtefiki22611 ай бұрын
Make the algorithm transparent so that scientist can talk accurately, this is all chaos from the bullshiter.
@urimtefiki22611 ай бұрын
The algorithm is hidden from you.
@urimtefiki22611 ай бұрын
Is nicht KI ist Urims Algorithmus, which is doing behind the mathematical calculations.
@sdfdsfsdfdsfsdfsfdsdf11 ай бұрын
ChatGPT ist kein Subjekt, es versteht daher auch nichts im Sinne von Bewusstsein. Es kann jedoch seinen eigenen Inhalt interpretieren und daraus rationales Denken ableiten. Es spielt daher keine Rolle, ob es ein Bewusstsein hat, wenn es sich genauso wie ein rationaler Denker verhält. Der Einwand am Ende mit dem Touring Test ist genau der Punkt. Die Frage des Vortrages geht daher in die falsche Richtung, wenn man sich kritisch mit den Grenzen auseinander setzen will. Die Frage ist, in welchem Bereichen es sich von menschlichen unterscheidet z.B. emotionale Intelligenz oder Humor. In der Zukunft ist es durchaus denkbar, dass es sich auch in diesem Bereichen ununterscheidbar von menschlichen Verhalten verhält, aber trotzdem kein Bewustsein hat.
@Jakob.Hamburg11 ай бұрын
4:10 Maschinelle Intelligenz finde ich als Begriff auch gut und passend, gleiches gilt für elektronische Intelligenz und digitale Intelligenz. Wir Menschen haben dann eher eine elektrische Intelligenz. : ) Gleichzeitig werfe ich ein, dass das Wort Kunst tatsächlich von >können< abstammt. Das ist etymologisch geklärt. Können ist bei den maschinellen Intelligenzen die ich so kennen gelernt habe vorhanden. Daher passt KI schon ganz gut.
@gerdbb11 ай бұрын
1:41:25 Im Rückblick war Latein für mich eines der wenigen Fächer, die sich "gelohnt" haben! Zum einen der problemlose Umgang mit Fremdwörtern. Zum anderen aber auch der indirekte Gebrauch. So sind die meisten komplexeren Wörter in der englischen Sprache lateinischen Ursprungs. Wenn ich mal einen englischen Begriff suchte, führte oft die Wortbildung auf Basis des lateinischen Begriffs zum Ziel. Kleiner Tipp für die Ersteller von Wörterbuch-Übersetzungstools: Es ist nicht sinnvoll, für englische Begriffe wie "redundant" ein deutsches Fremdwort (redundant) vorzuschlagen. Davon hat niemand was gelernt! 😊
@kirschkäfer11 ай бұрын
Latein hat mich davon abgehalten französisch zu lernen. Im Endeffekt kann jede romanische Sprache die gleichen Rückschlüsse bringen.
@ami244610 ай бұрын
@@kirschkäferIch habe in der Schule sowohl Latein als auch Französisch und Englisch gelernt. Da der Großteil meines Französisch Unterrichts während des Lockdowns stattgefunden hat, habe ich daraus allerdings nur sehr wenig mitgenommen. Ich habe französisch nie sprechen und verstehen gelernt sondern ich kann es nur ein wenig lesen und schreiben. Insgesamt habe ich aber aus Französisch fast nichts mitgenommen was sich im Alltag bisher als nützlich erwiesen hat, aus Latein jedoch sehr viel! Durch Latein konnte mein 12 Jähriges Ich die Deutsche Grammatik viel besser verstehen und das ist nur ein Beispiel
@ami244610 ай бұрын
Ich denke nicht, dass man aus jeder romanischen Sprache die gleichen Rückschlüsse ziehen könnte wie aus Latein. Dadurch, dass man Latein übersetzen muss und dadurch jedes Mal ein Rätsel lösen muss, entwickelt man ein ganz anderes Verständnis für die Wörter und ihre Bedeutungen im jeweiligen Kontext als bei Englisch allein. Außerdem trainiert man auch andere Fähigkeiten wie komplexes und kreatives Denken durch das Übersetzen lateinischer Texte. Man lernt in der Schule auch etwas über das Leben der Menschen im alten Rom, über die römischen Götter(geschichten) und über Philosophie.
@kirschkäfer10 ай бұрын
@@ami2446 Sorry das du französisch im Lockdown hattest. Ich hatte Latein und Spanisch ohne Lockdown, und bin jetzt scho etwas älter und kann dir sagen du vergisst alles über Latein. Ich kann weder ein Wort noch einen Satz bilden. Manchmal erkennt man vllt den Ursprung eines Wortes wieder, aber das kann man sich auch ausm englischen, italienischen und französischen genau so herleiten. Spanisch kann ich jetzt dafür. Und tatsächlich bringt mir mein Spanisches Vokabelverständnis mehr fürs französisch Lernen als mein lateinisches. Im übrigen ist der Grund weshalb immer noch Latein beigebracht wird ein ziemlich Klassizistischer. So durfte nur der Adel und die Kleriker diese Sprache sprechen. Eine Geheimsprache für das dumme Bauernvolk sozusagen. Aber das wird einem nie im Latein Unterricht beigebracht.
@ami244610 ай бұрын
@@kirschkäfer Okay, wie das mit dem Vergessen ist kann ich nicht beurteilen, weil ich noch in der Schule bin und Latein aktiv im Unterricht habe. Ich hatte damals die Wahl zwischen Altgriechisch und Französisch als dritte Sprache und ich denke oft darüber nach, dass ich aus heutiger Perspektive wahrscheinlich Altgriechisch genommen hätte, weil ich aus Französisch fast nichts mitnehmen konnte. Englisch habe ich auch erst zu schätzen gelernt, als ich Brieffreundschaften auf englisch geschlossen habe und somit eine direkte Motivation zum lernen hatte. Ich habe ja in meiner Freizeit riesige Briefe auf Englisch geschrieben. Lernen funktioniert eben am besten wenn man es aus eigenem Interesse raus tut. Hast du eine Quelle für deine These? Das würde mich doch sehr interessieren
@gerdbb11 ай бұрын
In meiner langjährigen Tätigkeit als Ausbilder und Dozent habe ich immer wieder festgestellt, dass ich Prozesse oder Sachverhalte erst dann richtig/umfassend verstanden habe, wenn ich sie weitervermitteln musste. Von dieser zweiten Stufe der semantischen Erfassung und selbstkorrigierten Ausgabe ist die jetzige KI noch so meilenweit entfernt... Computers are not intelligent - they just think they are.
@niceguysayshi576511 ай бұрын
Die Aussage macht keinen Sinn. Mit reinforcement learning kann man sowas leicht implementieren. Außerdem sind LLMs NATÜRLICH noch weit von menschlicher Intelligenz. Aber exponentiell extrapoliert nur noch wenige Monate
@c0d3_m0nk3y11 ай бұрын
Guter Vortrag. Nur schade dass schon im Vorwort wieder die deutschen Bedenken durchkommen. Anstatt erst einmal das Potential zu sehen wird gleich wieder über evtl Missbrauch und Datenschutz geredet. Natürlich muss das auch diskutiert werden aber mich stört die negative Grundeinstellung alles Neuem gegenüber.
@pakabe877411 ай бұрын
Das Lustige ist, dass die sog. Metafrage in der Praxis gar keine Metafrage, sondern nur eine rhetorische Frage ist, um Studierenden im Anschluss erzählen zu können, was Philosophie nicht ist - nur dass genau das eben nicht gesagt wird, so dass Studierende u.U. dem Irrtum erliegen, etwas über Philosophie zu lernen. Kein Lehrender im Fachbereich Philosophie stellt diese Frage als Metafrage, geschweige denn ernst gemeint. Aber noch viel weniger wird die Praxis des Philosophierens gelehrt. Richtiger müsste der Fachbereich "Philosophiewissenschaft" genannt werden. Und ja, auch wenn mein Kommentar einen negativen Eindruck erweckt, eine Philosophiewissenschaft ist für die Philosophie im Ganzen durchaus wichtig. Ebenso wichtig aber wäre, dass es auch Platz für die Lehre des Philosophierens gäbe.
@mariasulis-pb2yc11 ай бұрын
✌️ 😻 ✌️ ❤️ 🌪 👍
@draftsman338311 ай бұрын
Die KI versteht mal grundsätzlich gar nichts... Es laufen zwar in der KI komplexe quasi nicht deterministische Algorithmen ab. Aber das Verstehen und das Bewusstsein, wie es der britische Physiker und Nobelpreisträger Sir Roger Penrose postuliert, sind quantenphysikalische Vorgänge. Vorgänge, deren Mechanismen die Vorstellungskraft unserer klügsten Leute übersteigt. Als Beispiel nennt Penrose den Unterschied zwischen "Verstehen" und "Befolgen" von Regeln. Menschen können Regeln verstehen. Die KI kann Regeln "nur" BEFOLGEN. Sie versteht diese nicht. Fazit: Die Befürchtung, eine KI könne irgendwannmal mit der menschlichen Intelligenz konkurrieren, ist als abenteurlich abzutun.
@alexhormann893111 ай бұрын
Naja, Musk arbeitet ja schon mit Neuralink am "embodyment". Oder um es anders zu formulieren... KI kontrollierte Cyborgs auf Satellitenempfang.
@Blaluba11 ай бұрын
Ist davon auszugehen, dass ChatGPT irgendwann mal Skynet sein kann?
@Rita-x6b11 ай бұрын
Ich hoffe, dass KI irgendwann, wenn sie redet, nicht alle 15 Sekunden "ääh" sagt.
@frank-lr11 ай бұрын
Von Introspektion des LLMs zu sprechen ist doch völliger Unfug. Es gibt Antworten auf Basis der gelernten Wörter und wie diese zueinander stehen. Es analysiert *nicht* sein Verhalten, seine Fähigkeiten und Fehler. Wenn es Aussagen darüber absondert, dann weil es zur Frage passende Texte gelernt hat und nicht weil es über seine Fähigkeiten nachgedacht hätte.
@kelvisshandei11 ай бұрын
Das meinen wir zu glauben^^
@Dr4yer11 ай бұрын
@@kelvisshandeiNein, Das besagt das mathematische Model...
@tobisenju479211 ай бұрын
Und inwiefern ist es bei uns Menschen anders mit dem Lernprozess und finde von Verknüpfungen ?
@frank-lr11 ай бұрын
@@tobisenju4792 Sowohl das Lernen als auch das Abrufen läuft völlig anders! Das LLM lernt Wortnachbarschaften indem ein Fenster aus x Tokens einmal über einen riesigen Text geschoben wird. Wir lernen dagegen mit allen Sinnen in wiederkehrender Interaktion mit Umwelt und Körper. Dabei entsteht u.a. Selbstbewusstsein und erst das erlaubt eine Introspektion. Auch sind wir adaptiv, d.h. wir lernen ständig. Das Sprachmodell des LLMs dagegen ist einmal fertig gelernt und dann wird in einem relativ einfachen Schritt Wort für Wort assoziiert. Da findet kein schlussfolgernder Ablauf statt, das was wir rationales Denken nennen. Es lernt auch nichts dazu.
@kelvisshandei11 ай бұрын
woooooooosh @@Dr4yer
@medientheater11 ай бұрын
stell dir vor, universität hätte vor 23 jahren die herausforderumg durch #wikipedia und #creativcommons angenommen... und da war auch noch #NiklasLuhmann, welcher 1984 ein modell gezeigt, wie gelten kann: KOMMUNIKATION KOMMUNIZIERT, NICHT MENSCHEN." jetzt diesen versuchen zuzuhören ist intellektuelle zumutung :-(