Die Revolution fällt aus: Figure 01 + ChatGPT = Fake?

  Рет қаралды 4,020

Yes, AI can!

Yes, AI can!

2 ай бұрын

Mir ist in der Tech-Demo von Figure 01 etwas aufgefallen und das wollte ich euch unbedingt zeigen.
Hier geht es zur Demo: • Figure Status Update -...

Пікірлер: 43
@timbim88
@timbim88 Ай бұрын
5:06. diese Aussage hätte am Anfang von dir kommen sollen. Hätte Zeit gespart.
@masterx569
@masterx569 Ай бұрын
Die aufgabe einer ki ist es so menschlich zu wirken wie müglich Wieder mal unnötigen click bait
@berndtepe
@berndtepe 28 күн бұрын
Das Verhalten entspricht genau dem, wie sich ChatGPT normalerweise verhält: Immer mal für eine kleine Überraschung gut, zwei Mal identischer Input ergibt so gut wie nie identischen Output.
@willi8750
@willi8750 Ай бұрын
Moin das ähh ist bei ChatGPT ein neues feature wennst ChatGPT am handy aufmachst ist des da auch manchmal so den Korb schiebt er einfach nur dort hin wo er ihn her hat er wird ja den korb nicht in der Schweiz abstellen und den anderen punkt mit dem anstoßen da bin ich mir selber nicht so sicher
@IIIcR0N0sIII
@IIIcR0N0sIII Ай бұрын
Sehr schwierig, nach meiner Erfahrung macht ChatGPT leider viel zu oft mehr als es soll. Selbst wenn man expliziert schreibt, dass man etwas ganz bestimmtes sucht. Anderseits wird man auch auf Dinge aufmerksam gemacht, an die man selbst vielleicht nicht denkt und eine Rolle spielen. Somit denke ich, kann authentisch sein.🤔
@MelonBoi
@MelonBoi 21 күн бұрын
Das mit dem Müll ist einfach erklärt. Der Roboter zieht die Kiste zu sich sammelt den Müll ein und stellt die Kiste an die stelle zurück von der er sie genommen hat. Es ist effizient und einfach logisch die Kiste dort hin zu stellen wo man sie gefunden hat.
@KalleVonEi
@KalleVonEi 21 күн бұрын
Good point bin momentan eh noch skeptisch, Schade hätte mich ehrlich gefreut
@sharegreats2157
@sharegreats2157 Ай бұрын
Dieses zwecklose "Anstoßen" ist bewusst einprogrammiert genauso wie das zwecklose "uhm" als Zwischenlaut, um die Maschine in ihrem Auftreten "menschlicher" erscheinen zu lassen. Für mich war das kein Problem.
@YesAIcan
@YesAIcan Ай бұрын
Das darf jeder für sich entscheiden.
@avronaut
@avronaut Ай бұрын
Das glaube ich nicht
@Pfphfraenghck
@Pfphfraenghck Ай бұрын
Figure One/ChatGPT simuliert atmen beim Sprechen und nutzt Füllwörter. Vielleicht war der „Move“ genauso antrainiert? Interessant wird es, wenn KI „überlegt“ Dinge nicht so zu tun wie vorgemacht. Die Lernphase zu sehen wäre da aufschlussreich
@fcore-ws6kg
@fcore-ws6kg Ай бұрын
Wir haben hier eine künstliche Intelligenz die nie die gleichen Dinge macht
@Froschi2000
@Froschi2000 Ай бұрын
Interessante These! Bei dem Aufsammeln von Müll macht es Sinn den Behälter zu dem Mann zu schieben, da dies die Ausgangsposition des Behälters war. Eine andere Erklärung könnte sein, dass der Roboter vorher ein exaktes Bild gesehen hat, wie in allen Fällen der Zielzustand (Apfel in der Hand, Geschirr im Halter und Müll in der Kiste) aussieht. Dann wäre der Ausgang festgelegt, aber der Weg dorthin wäre improvisiert.
@hiklein2495
@hiklein2495 Ай бұрын
Naja, es wurde nie erwähnt oder gezeigt, dass ChatGPT genutzt wurde, es wurde nur in einem Bild gezeigt, dass der Roboter ein Open AI Model oder Engine nutzt, dazu ein neurnales Netzwerk. Es würde also schon Sinn machen, das Figure 01 logische Verknüpfungen sich anhand der Situation zusammenschließt und daran, dann ein Befehl ausführt. Durch die große Datenbank die Open AI da einfach hat, hat der Roboter einfach nen riesiges Datenpool, worauf er zugreifen kann, um menschlichte Aktionen zu verstehen und auszuführen, dazu würde halt z.B dieser Korb Schieber zählen, weil es verstehen könnte, dass es für den Menschen leichter wäre so den Korb zu nehmen. Und zu dem Chat GPT nochmal, es kann ja auch sein, dass es GPT 5 ist oder sogar nen spezialisiertes Model für Roboter, dass weiß man ja aber nicht.
@WoldMediaToday
@WoldMediaToday 14 күн бұрын
Ob alles so real dargestellt wurde ist schwer zu sagen, aber zu sagen, daß ChatGPT nicht so handeln würde ist irrelevant. Die benutzen nicht einfach GTP mit einem Robotor, natürlich ist es angepasst und systembedinkt zugeschnitten. Wie zb "warum würde er die box zu ihm hinschieben" warum nicht, es hat doch die box genommen, und dann zurück gestellt. Mit der exra bewegung hat es die Kiste zurück gestellt. Genauso ist es möglich daß die interpretation mit der aufgabe den zusammenhang hat, dem befehlgeber es zu reichen. Dieses muss man nicht genaus befehlen.
@gainsaver5972
@gainsaver5972 Ай бұрын
könnte Inconsistency sein aber das was du sagst dachte ich mir auch, logisch das die sowas machen, wie beim release vom Apple Phone XD
@Chiyo429
@Chiyo429 Ай бұрын
Warten wir nochmal 5-10 Jahre und dann gibt’s sie auf jeden Fall
@YesAIcan
@YesAIcan Ай бұрын
5-10 Wochen folgt man den Gerüchten über Q*.
@elffan6844
@elffan6844 Ай бұрын
5-10 Monate höchstens 😄 da passiert grad viel weltweit.
@alexanderrei9889
@alexanderrei9889 Ай бұрын
Ja ich finde das du da schon recht haben kannst aber ich weiß nicht ob es wirklich so ist. Es könnte auch sein das die Bewegungen so wie bei Chat GPT Texten gewisse Freiheiten haben. Und ja, die Bewegungen dürften erlernt sein. Das sind die Texte von Chat GPT auch. Finde das erstmal nicht schlecht.
@YesAIcan
@YesAIcan Ай бұрын
Ich bin ein Freund von Kennzeichnung. Bei Google Gemini kam ja auch relativ schnell heraus, dass die Vision-Funktionalität nicht "live" arbeitet, sondern ebenfalls Fotos braucht. Aus der Programmierung mit KI weiß ich, dass es solche Freiheiten eigentlich nicht gut. Es gibt höchstens Verzögerungen beim Aufbau der Verbindung und der Übertragung der Daten, die den Eindruck entstehen lassen können. Ich hätte es gut gefunden, wären sie transparent mit dem Versuchsaufbau.
@avronaut
@avronaut Ай бұрын
Das Ding hat ja nicht mal interne Kameras
@matthias1619
@matthias1619 Ай бұрын
Gibt eine etwas längere Reportage auf einem anderen Kanal auf dem zwei Kamera-Leisten ohne Helm zu sehen sind. Würde annehmen, dass diese hier über und unter dem Display sitzen. Ohne damit die weiteren Argumente aus dem Video bewerten zu wollen/können.
@kozachad_001
@kozachad_001 Ай бұрын
Nun ja vllt haben das die menschen mehrmals gemacht , paar hundert mal und die ki hat menschliche gestenbewegung analysiert
@tamobil7247
@tamobil7247 Ай бұрын
Die Gegenfrage lautet: Warum sollte ein Mensch, dessen Bewegungen "aufgenommen" wurden diese "Falschbewegungen" dazwischen schieben? Er hätte genug Zeit und Muße gehabt das "perfekt" ohne diese zusätzlichen Bewegungen hinzukriegen. Es sollte - wenn es Fake ist - doch den den Entwicklern klar sein dass jemand wie Du jetzt darauf anspringt. Ich hab übrigens vermutet dass Du bei dem dazwischen gesprochenen "Ähh.." beim Reden das auch ansprangerst. Also auf mich wirkt das Video jetzt nicht so eindrucksvoll dass man bei diesem faken müsste. Aber trotzdem interessant dass Du es ansprichst.
@YesAIcan
@YesAIcan Ай бұрын
Ich denke das ist eine Frage über die man lang und bei streiten kann. Meiner Meinung haben sie es zur "Dramaturgie" hinein genommen und es hat ja auch seine Wirkung erzielt. Ich will mich da aber auch nicht in Verschwörungstheorien versteigen. Die Sache ist nur, m.E. liefert die Technik noch nicht das, was sie da verspricht und das ist im KI-Space generell ein Problem der übersteigerten Erwartungen.
@bobweedy
@bobweedy Ай бұрын
Was wäre wenn man explizit angegeben hat, dass es menschlich Züge imitieren soll? Sonst wäre es bei der Sprache doch auch nicht so. Hier hat man bestimmt doch auch explizit Füllwörter mit aufgenommen, da es menschlicher wirkt.
@YesAIcan
@YesAIcan Ай бұрын
Das hätte ich als sehr ehrlich empfunden.
@robertbutscher6824
@robertbutscher6824 Ай бұрын
@YesAIcan - zunächst einmal vielen Dank für deine sehr aufmerksamen Beobachtungen und Kommentare. Ich könnte mir aber auch vorstellen, dass solche von dir angesprochenen Gesten auch dem Roboter absichtlich so antrainiert wurden, um ihn "menschlicher" erscheinen zu lassen. Mein erster Gedanke war tatsächlich auch, dass dieser Roboter sehr perfekt aussieht und beinahe schon Assoziationen mit einem Kampfroboter aus einem SciFi-Film weckt. So würde ihn die kleine Ungeschicklichkeit, an den Korb gestossen zu haben, menschlicher wirken lassen oder auch die Interaktion mit dem Menschen, indem er den Korb wieder dem Menschen zuschiebt. So ist auch das "Äh" einzuordnen, dieses ist in der Tat ein Feature von ChatGPT, das hat etwa auch die App - wenn man mit der Computerstimme spricht, macht dies ab und an mal Pausen und schiebt auch ein "Äh" rein, wenn es passt. Dadurch wirken die Dialoge eher typisch für eine Mensch-Mensch-Kommunikation. Gut möglich, dass die Bewegungen auch so aufgesetzt wurden, um einen solchen Effekt zu erzielen. Es kann natürlich auch sein, dass du Recht hattest und alles ist ein perfekt geskriptetes Ablaufmuster, was spontan wirken soll, aber in Wirklichkeit perfekt choreografiert wurde.
@bobweedy
@bobweedy Ай бұрын
@@robertbutscher6824 Dann hast du mich falsch verstanden. Ich denke nicht das es geskrippted ist. Ich bin auch davon überzeugt, dass es antrainiert wurde, was das ganze "Figur01" Thema auch so spannend macht.
@derzipra6597
@derzipra6597 16 күн бұрын
Mmhhh...er benutzt auch beim sprechen Füllwörter was auch eigentlich sehr menschlich ist und keinen Zweck erfüllt. Andererseits kann das bewegen des Korbes für "das" sehr wohl eine Funktion haben z.b. die Wahrscheinlichkeit den Korb versehnlich herunter zu werfen zu verringern, was wir eher ohne großes Nachdenken tun🤷‍♂️
@Z0yxx
@Z0yxx Ай бұрын
Ist es nicht geil, dass die aktuelle Generation die letzte ist, welche ohne humanoide Androiden aufwächst? Die nächste wird sich nicht vorstellen können, wie es vorher ohne war.
@YesAIcan
@YesAIcan Ай бұрын
Krasser Gedanke
@itsruben
@itsruben Ай бұрын
🙄
@sdafsdf9628
@sdafsdf9628 Ай бұрын
Es kann meiner Meinung nach nicht gehen, weil die Verarbeitung in Realtime der Daten noch nicht gehen kann, zumal Figure1 nicht an einer Serverfarm angeschlossen ist sondern an einen Rucksackcomputer? Ein Bild zu analysieren ist eine Sache, aber innerhalb einer Bewegung pro Sekunde so viele Bilder zu analysieren, dass ein Gegenstand balanciert wird ist was anderes. Einen Apfel von A nach B legen, ok. Aber ein Brett auf die Kante stellen, so dass es so umkippt, dass es an die anderen Bretter lehnt....naja. Also vorgefertigtes Szenario ok, aber als alltägliche spontane Situation sehe ich es als noch nicht bewerkstelligbar an. Wir werden potentiell von vorne bis hinten betrogen, bei der Mondlandung angefangen. (Achtung, ich sage nicht, dass da alles unecht war).
Dieser KI-Roboter kann Sprechen, Sehen und Handeln! 🤯
15:12
Niklas Kolorz
Рет қаралды 142 М.
ChatGPT’s Amazing New Model Feels Human (and it's Free)
25:02
Matt Wolfe
Рет қаралды 165 М.
Зу-зу Күлпәш. Көрінбейтін адам. (4-бөлім)
54:41
одни дома // EVA mash @TweetvilleCartoon
01:00
EVA mash
Рет қаралды 6 МЛН
когда одна дома // EVA mash
00:51
EVA mash
Рет қаралды 11 МЛН
LLaMA 3 Tested!! Yes, It’s REALLY That GREAT
15:02
Matthew Berman
Рет қаралды 194 М.
Mit der Musik-KI Udio zum Welthit auf Spotify & Co.
15:31
Yes, AI can!
Рет қаралды 1,4 М.
Figure 01: Dieser ROBOTER arbeitet bei BMW!
15:48
The Morpheus
Рет қаралды 41 М.
Figure Status Update - OpenAI Speech-to-Speech Reasoning
2:35
Figure
Рет қаралды 2,2 МЛН
NEW iPhone Siri Pro Features LEAKED | Apple's AI Secret Weapon
18:48
Индуктивность и дроссель.
1:00
Hi Dev! – Электроника
Рет қаралды 357 М.
Introducing GPT-4o
26:13
OpenAI
Рет қаралды 3 МЛН
Пленка или защитное стекло: что лучше?
0:52
Слава 100пудово!
Рет қаралды 1,6 МЛН
Вы поможете украсть ваш iPhone
0:56
Romancev768
Рет қаралды 504 М.