Plot twist die minister lassen sich die 900 Seiten von Chatgpt zusammenfassen
@pietsmietz10 ай бұрын
Bloß kann GPT nicht so lange Texte verarbeiten, bin mir gerade nicht sicher wie groß das Zeichenlimit ist, aber da müssten die das schon ordentlich staffeln😂
@GAGA0073010 ай бұрын
@@pietsmietz Also ich konnte mir bisher maximal 2 Seiten Text zusammenfassen lassen, wenn nicht sogar etwas weniger. Da würde man also ziemlich lange dran sitzen haha
@tedzards50910 ай бұрын
@@GAGA00730 Ich meine ChatGPT 3.5 hat 8k tokens und 4 32k tokens Kontext.
@user-dn1gy9uv7d10 ай бұрын
Normal in Kosovo
@Pyriold10 ай бұрын
ChatGPT-Turbo sollte genug context window haben. Wenn nicht, Claude3 verwenden, ist eh besser inzwischen.
@accidos10 ай бұрын
Darf die Werbeindustrie dann noch KI nutzen? Manipulation ist hier das Geschäftsmodell.
@brand-konto607910 ай бұрын
Gute Frage. Trift den Punkt.
@gehwissen397510 ай бұрын
KI ist die Synthese von Kapitalismus und Kommunismus. Als Unfall In einer stabilen Welt wäre das vielleicht handhabbar.
@baumwollejr10 ай бұрын
Dürfen AI Influencer noch existieren? Dürfen überhaupt AIs im Internet existieren, da sie manipulieren (können).
@Knusper-Knoppers10 ай бұрын
Rechtlich dürfen schon heute Firmen in der Werbung keine wahrheitswidrigen Aussagen machen. Inwiefern es Manipulation im Sinne der Verordnung ist, wird sicher noch Juristen beschäftigen. Die Verordnung lässt ja viel Raum für Interpretation.
@1968konrad8 ай бұрын
@@Knusper-Knoppers Womit die Kaste der Juristen ihr Geschäft gesichert hat. Niemand kann hier irgendwas Neues anfangen ohne das Risiko einer Abmahnung zum Opfer zu fallen, weil die Gesetze immer mehr Gummiparagraphen enthalten.
@Taurock10 ай бұрын
Das mit der Diskriminierung in den Originaldaten sehe ich als problematisch an... Wer entscheidet, ob eine Einstufung diskriminierend ist oder doch repräsentativ für die reale Welt ist? Soll das Modell nun rational anhand der gegebenen Aufgabe modellieren oder einer bestimmten Weltanschauung folgen? Welche Ethik/Moralvorstellungen werden angewandt, und aus welchem Land bzw zu welcher Zeit? Gesetze, Regierungen, Demografien und besonders Meinungen ändern sich rapide. Das kontinuierlich anzupassen ist technologischer Schwachsinn, besonders auch im Kontext des Stromverbrauchs zB beim neu-Training. Nicht die KIs beherrschen die Zukunft, sondern die Personengruppen, die die KIs beherrschen. Das Gegenteil von gut ist nicht böse, sondern gut gemeint, würde ich da sagen.
@RobertZimmermannAoA10 ай бұрын
Gut erkannt!
@mugnuz10 ай бұрын
noch. und ausversehen haben wir dann doch ki-overlords heuheu
@watergaming229410 ай бұрын
Ich glaube da war der Hauptgedankengang, dass nicht wie einst in der USA (meine ich) passiert, wo ein Assistensalgorithmus, bei der Bewertung von Haftstrafen allgemein längere Strafen für Schwarze vergeben hatte.
@snack71110 ай бұрын
das sehe ich weniger problematisch als du, ich denke die anonymisierung von daten kann man relativ wert- und ideologiefrei definieren.
@falcoblitz967010 ай бұрын
Wichtiger Punkt. Wenn zb Frauen in einem bestimmten Sachgebiet deutlich besser sind als Männer, dann müssen Daten oder Output gefälscht werden. Das kann es nicht sein.
@fredkombert399310 ай бұрын
Auch Gesetzgebung funktioniert nach der Regel von Versuch und Irrtum. Bei einem völlig neuen Rechtsgebiet muss sich erst zeigen, welche Regeln im Sinne von Rechtsstaatlichkeit funktionieren und welche nachgebessert werden müssen. Das die EU hier vorangeht, verdient m. E. erst einmal Anerkennung.
@L1qu1d_5h4d0w10 ай бұрын
joa 😅 für manche ist das Glas eben halb voll, für manch andere halb leer… also bei dem Thema ist mein Glas leider kaputt 💀 keiner wirds richtig machen außer vielleicht China lul 🤦♂️ das Thema Alignment wird viel zu sehr vernachlässigt (Elon Musk's leere Warnungen und Drama Szenarien sind im Endeffekt auch nur ein verzweifelter Versuch die Konkurrenz, die im Moment Meilenweit vor ist, auszubremsen… also zählt das schon mal nicht) worst case; Cyberpunk 2077 ähnliche Dystopie. KI im Würgegriff der Konzerne…
@sven252910 ай бұрын
Wieso wird China was richtig machen? Nichts für ungut, aber China hat noch nie irgendwas richtig gemacht. Deren Fortschritt und niedrige Preise sind auf Ausnutzung und Sklaverei ähnliche Zustände, sogenannte Lohnsklaven zurück zu führen. Zudem bringt KI mehr Nachteile als Vorteile, die will mur immer keiner sehen.
@FirstYokai10 ай бұрын
Der Fehler hierbei ist man Versuch in die Zukunft zu regulieren.
@brand-konto607910 ай бұрын
Ja, absolut. Aber mehr auch nicht.
@gehwissen397510 ай бұрын
@@FirstYokaiDas ist kein Fehler - das ist die Aufgabe.
@matthiaswolf447210 ай бұрын
In den Prozess hinein- und am Ergebnis herumzupfuschen ist eine ganz üble Idee. Und: Nein, es ist nicht wünschenswert, dass eine KI keinen Bias sieht, wenn in den Trainingsdaten einer ist! Identifizieren und darauf hinzuweisen würde genügen. Und im Sinne von ›wenn ein Gesetz nicht nötig ist, ist es nötig, das Gesetz nicht zu machen‹ hätte man sich darauf beschränken sollen. Wir entfernen uns immer mehr - und absichtlich und sehenden Auges! - von faktenbasierter Forschung zu wunschbasierter, man könnte auch sagen: ideologisch angetriebener. Und das ist schon mehrmals auf dramatischste und bitterste Weise in die Hosen gegangen.
@first758910 ай бұрын
Ein witziges Anschauungsbeispiel, wohin eine derartige woke Korrektur führen kann, hat uns ja bereits Googles Gemini mit seinen Bildern von "diversen" Wehrmachtssoldaten geliefert. Aber während das noch für Lacher gesorgt hat, können solche Manipulationen von AI in anderen Bereichen für gravierende Konsequenzen sorgen (falls man z.B. die Ergebnisse einer AI im Bereich der Kriminalitätsbekämpfung absichtlich verändern will, um sie "weniger rassistisch" erscheinen zu lassen). In dem Fall kann man es auch gleich bleiben lassen, wenn ohnehin nur die gewünschten Ergebnisse akzeptiert werden
@StrohHutDommi10 ай бұрын
Ja das stimmt die KI wird dann mit Lügen gefüttert und kann dann selbst nicht die Realität berechnen, es ist als würde man ihr sagen Wespen sind wunderbare Insekten, sie stechen auch nicht einfach so, sondern nur weil sie gesellschaftlich unterdrückt werden...
@vyger546210 ай бұрын
Abgesehen davon, dass es hier nicht nur um Forschung geht, kann man eben gerade nicht oder nur eingeschränkt von "faktenbasiert" sprechen, wenn die Trainingsdaten nicht repräsentativ sind.
@StrohHutDommi10 ай бұрын
@@first7589 Wir wurden schon zensiert, wenn ich das Kommentar von @matthiaswolf4472 über die Top Kommentar Ansicht aufrufe ist nur das von @vyger5462 zu sehen. Wir sind nur noch sichtbar, wenn neue Kommentare zuerst komplett runter gescrollt wird. Kritische Aussagen sind nicht mehr erwünscht.
@matthiaswolf447210 ай бұрын
@@vyger5462 Ok, das ist jetzt Wortklauberei - aber bei einem Sprachmodell muss ein wenig wortklauben gestattet sein): Doch! Es ist Fakt, dass die Trainingsdaten sind, wie sie sind. Und ich will rauskriegen, wie sie sind und nicht, wie ich (oder wer eigentlich?) mir wünsche, dass sie wären.
@djgratwanderung10 ай бұрын
Ich fande die Aussage interessant dass manche Leute aus der Wissenschaft etc. noch nicht so ganz zufrieden mit dem Entwurf waren aber das Risiko gegenüber keiner Regulierung befürwortet haben und zudem das es eine Nachregulierung geben kann. Insofern will ich noch nicht alles schwarz malen was deinen Titel betrifft aber an dieser Stelle ein Daumen hoch für gute Recherchearbeit :-)
@RalfAbbt10 ай бұрын
Ich finde im Gestz sollte vorheschrieben sein, daß die KI in der Lage sein sollte mindestens die Hälfte der EU und Regierungsbehörden wegzurationalisieren.
@KoljaWolfi10 ай бұрын
es wurde zeit, dass es mal irgendwelche regularien gibt. wenn man wartet weiß man kaum auf welcher basis man nachbessern kann, aber mit einem fehlerhaften system hat man zumindest schon mal eine grundlage die man analysieren kann.
@derBrudinger10 ай бұрын
Ich glaube wie immer werden sich viele Player nicht dran halten, gehen das Risiko ein irgendwann bestraft zu werden aber die Strafe zahlen sie gerne, weil sie weit unter dem Nutzen liegt alle Daten zu sammeln die man täglich liefert. Ähnlich wie bei WhatsApp und co die Verknüpfung war eig nicht okay aber who cares solange es Geld bringt.
@gryphonschnitzel71409 ай бұрын
Vlt sollte beim KI training mehr auf Qualität und Empirie Wert gelegt werden, als auf "Diversität".
@adolfhochhaltinger404010 ай бұрын
Damit passiert die KI-Entwicklung anderswo, aber nicht mehr in Europa.
@Vanadium10 ай бұрын
ich find sowas krass scharf aber Lieferkettengesetz Fehlanzeige ..
@luziferiii10 ай бұрын
@@VanadiumMit freundlichsten Grüßen - ihre FDP.
@Balleehuuu10 ай бұрын
Ich glaube du überschätzt die Kraft, die ungeregelte Innovation im Vergleich zur geregelten Innovation mit sich bringt. Die KI-Systeme vor allem der global Player werden sich schon wegen der Marktkraft eines Players wie der EU selbst beschränken und zumindest nach außen versuchen den geforderten Auflagen gerecht zu werden. Außerdem wird meines Erachtens zwar nur langsam dafür aber stetig die Vorteile von gerregelten Systemen für die Bürger zu einem Bewußtsein für private Sicherheit mit KI führen. Ich würde es mal damit vergleichen, wie die meisten Eltern für ihre (schutzbedürftigen) Kinder besonders hohe Qualitätsansprüche an Spielzeug und Schuhen etc. stellen und dann häufig auch auf bekanntermaßen besser regulierte EU-Produkte zurückgreifen. Insgesamt bin überzeugt, dass eine Gesellschaft/ Gemeinschaft, die sich frühzeitig auf die erkennbaren Bruchstellen zwischen Nutzen und Risiko einstellt auf lange Sicht die Nase im Umgang mit besagter Technologie vorne haben wird.
@L1qu1d_5h4d0w10 ай бұрын
ergo: die EU wird an Bedeutung verlieren… vom rest der Welt abgehängt und zurückgelassen 😂 gib ihm volle Kante 💪🏻 🤦♂️🤦♂️🤦♂️ armes Europa, noch ärmeres Deutschland 🤷🏻♂️🫡
@muysli.y185510 ай бұрын
KI ist halt Neuland
@DanNick.Daniel10 ай бұрын
Kommt gerade noch rechtzeitig für meine Seminararbeit, danke :)
@Knusper-Knoppers10 ай бұрын
Ich verfolge die Debatte um die KI-Verordnung beruflich (ohne KI-Experte zu sein) und finde sehr spannend, wie stark die Meinungen der Experten auseinander gehen. Entweder man findet es einen guten ersten Schritt oder komplett Murx.
@Chris-il2sb9 ай бұрын
Kannst du nochmal den Podcast von dem du gesprochen hast verlinken :)
@jannisgrundmann32859 ай бұрын
Sehr cooles Video & gute Recherche. Lass dich aber beim nächsten mal nochmal einen Juristen/Europarechtler drüber schauen (sind zwar keine inhaltlichen Fehler aber einige stilistische Sachen - DeliktSrecht, Brüssel-Effekt ist eigentlich gar kein Effekt sondern ein - eher abschätzig - genutzter Begriff zur Beschreibung des genannten Phönomens, dass die EU versucht „die Welt zu verbessern“)
@RedMonkeyification10 ай бұрын
Danke, dass du das alles für uns zusammengefasst hast
@antman767310 ай бұрын
Ich würde fast behaupten, dass es nicht möglich ist, Misbrauch auszuschließen. Schon alleine Agenten Systeme, also eine Art Self promoting hebelt das ganze ja komplett aus.
@L1qu1d_5h4d0w10 ай бұрын
Die erste hälfte (9/10), die zweite hälfte des Gesetzes (-1/10) 😭💀
@marie-christin678910 ай бұрын
Gibt's die Videos eigentlich auch als Podcast?
@EinfachFredhaftGaming10 ай бұрын
Eure Brockhaus Bände sind in der falschen Reihenfolge ^^
@O_Lee6910 ай бұрын
Und das Bild hängt schief.
@Harrock10 ай бұрын
Welchen kannst du empfehlen? Ich finde ja den 3. am besten aber Teil 7 ist auch nicht schlecht .. aber dazwischen ging es leider bergab … besonders Teil 6 war ein richtiger downer
@agentomat10 ай бұрын
Wikipedia ist ja als wissenschaftliche Quelle tabu... Bücher zu Physik, Mathematik, Elektrotechnik, Maschinenbau und KI wären treffend.
@O_Lee6910 ай бұрын
@@LB-qr7nv Du kennst offenbar Loriot nicht.
@LB-qr7nv10 ай бұрын
@@O_Lee69 ach, schon ewig nicht mehr geschaut ^^
@Andi_mit_E10 ай бұрын
Man sagt doch "nichts hält länger als ein Provisorium".
@AM_Architect110 ай бұрын
2 Jahre bis zur Umsetzung des Gesetzes gleichen in der aktuellen KI-Evolution eher 2 Jahrzehnten, wenn nicht 2 Jahrhunderten… Gut möglich, dass bis 2026 KI so nützlich geworden ist, dass die Regulierung ganz anders ausfallen wird.
@Flyingfrog1236310 ай бұрын
Die Europäische Bürokratie ist arrogant genug, um das zu ignorieren
@gehwissen397510 ай бұрын
@@Flyingfrog12363Du behauptest, dass sie ignorieren... WIE willst DU im Voraus Regeln für AGI aufstellen?
@Flyingfrog1236310 ай бұрын
@@gehwissen3975 Nein, arrogant genug um zu ignorieren dass die aufgestellten Regeln für den heutigen Ist stand in 2 jahren keine relevanz mehr haben wenn sie eintreten sollen.
@gehwissen397510 ай бұрын
@@Flyingfrog12363 ich dachte nur, ich wäre hier wieder dieser populistischen Dummheit begegnet, "alle Regierenden sind doof" Und es kann nicht sein, dass du das Problem unterschätzt? Nicht in technischer noch in politischer Hinsicht...?
@antjemorgenthal69459 ай бұрын
Meeega danke für den input !
@maxlbindhammer62510 ай бұрын
Huawei und Yahoo können potenziell gefähliche KI's entwickeln. Im Auge behalten!
@tore8058 ай бұрын
Super interessantes Video. Vielen Dank für die kompetenten Informationen.
@keulengnomdererste285010 ай бұрын
Kleiner Zusatz, Mistral gehört mittlerweile ebenfalls Microsoft neben "open"ai.
@danielneu913610 ай бұрын
Tatsächlich hat Microsoft lediglich eine Minderheitsbeteiligung bei beiden Firmen
@L1qu1d_5h4d0w10 ай бұрын
@@danielneu9136auf den Papieren ja… es wurden aber schon einige $ "investiert" und ein vielfaches davon wurde vorangekündigt für 2024 (ca 15 Milliarden, bis dato keine genau Zahl bekannt) und seit dem microsoft deal liegt die Valuation von openAI bei ca 80 Milliarden… Es ist nur eine frage des timings und paar regulatorischen Dingen mit der EU und dem U.S. Congress bis Microsoft sich die Mehrheit unter den Nagel reißt. Alles andere würde mich echt überraschen 😅
@keulengnomdererste285010 ай бұрын
@@danielneu9136 Offiziell, man sieht aber bei Openai sehr gut was das in der Praxis heißt... besonders seit der Sam Altman Geschichte.
@FrederikWollert9 ай бұрын
Gutes Video. Lieber jetzt einen noch nicht perfekten AI-Act als garkeinen. Genauso wie du das auch so siehst.
@d3crypt3d10 ай бұрын
Ich finde die Regelung als Informatik-Student eigentlich sehr gut, zb. dass man keinen extra Bias erstellt um diskriminierung zu bekämpfen, weil es dann kein richtiges lernen ist. Man sollte die Datensätze aber umfangreicher auswählen und auch parameter fürs kritische denken implementieren, da man vielleicht so schafft, dass die KI erkennt wann Trainingsdaten diskriminierend sind und auch mit dem "Hintergrundwissen" lernt.
@d3crypt3d10 ай бұрын
das beste ist aber die Pflicht zur Kennzeichnung von KI erstellten daten. Ich würde mich auch eigentlich gerne äussern zum gebrauch in Militärischen zwecken, aber viele würden nur "Schwarz oder Weiß" sehen und nicht das "Grau", was ich beschreiben würde.
@lukaay10 ай бұрын
Genau, das ist das größte Problem...
@ismirdochegal480410 ай бұрын
Vorallem sollte man die KI beim lernen beobachten. Es bringt überhaupt nichts, wenn am Ende kein Mensch mehr versteht, welche Schlüsse und logischen Verknüpfungen die KI aus den Trainingsdaten gezogen hat.
@gizzmoog419510 ай бұрын
@@ismirdochegal4804das geht mit den derzeitigen Modellen leider nicht so einfach. Es handelt sich im Grunde um künstliche neuronale Netze. Tiefe neuronale Netze können eine Komplexität von bis zu hundert Millionen einzelnen Parametern und zehn Milliarden Rechenoperstionen pro Eingangsdatum aufweisen. Die Interpretierbarkeit der Parameter und Erklärbarkeit des Zustandekommens der Ergebnisse ist hier nur noch eingeschränkt möglich.
@leibfriedwolfgang915510 ай бұрын
Der Computer wird niemals deine Gedanken erahnen und somit auch der Zweck deines Tuns!😅
@sikliztailbunch10 ай бұрын
Wenn jetzt eins der derzeitigen open source LLMs (z.B. mistral, viguna, claude) sich als illegal herausstellt, weil den neuen Regulierungen nicht entspricht, ich das Modell aber auf meinem Rechner lokal installiert habe, wer oder was hält mich dann davon ab, es weiter zu nutzen?. Selbiges gilt auch für Bildgeneratoren wie Stable Diffusion
@zwixx25910 ай бұрын
Ich denke, das gerade solche Dinge reguliert werden sollen, die offiziell sind. Nicht irgendwer, der auf seiner Festplatte irgendwas herumliegen hat. Das geht ja schon gar nicht.
@Savoritas9 ай бұрын
Wie siehts denn jetzt mit dem Urheberrecht aus?
@Herr_Vorragender10 ай бұрын
6:24 Fehlerhaftes Machinelearning und Flicken drauf ist keine adäquate Lösung gegen das Problem der Diskriminierung. Mit dreckigen Daten ein Machinelearning zu füttern, ist einfach eine sehr schlechte Idee. Selbst wenn man hinten dran einen Flicken drauf pappt. Die Philosophie "Move fast and break things" kann man gerne bei Spiele-Entwicklung machen. Aber bei bei derart wichtigen Systemen wie z.B. ChatGPT ist die Philosophie sehr schädlich. 10:10 Ein "das wird teuer" Argument gegen die Klassifizierung von kritischen Anwendungen, ist ein ebenfalls sehr schlechtes Argument. Preis, Qualität, Geschwindigkeit. Du kannst nur 2 davon haben. Andernfalls fliegt halt einfach mal die Tür einer Boeing raus.
@Chris-hw9vv9 ай бұрын
Bitte noch mehr auf die Kritik eingehen. Die sind mir fast am wichtigsten. Was eine Firma machen muss, ist ganz interessant. Der sozial Aspekt ist nicht zu verachten. Was bedeutet KI für uns? Wir sind als Zivilisation schon so nicht ganz "Verantwortungsbewußt" mit dem Internet unterwegs. Was stellen wir wohl mit KI an.
@Daniel_5910 ай бұрын
Die Frage ist doch, wer das überwacht und welcher Aufwand dafür betrieben wird. Ich glaube nicht nicht, dass das die EU wirklich vollständig überwachen kann. Vor Allem, da bei der zukünftigen Entwicklung permanent nachgeregelt werden muss. Eine vollständige Überwachung wäre nur wieder über eine KI möglich. Demnach fast nicht möglich, wenn man die zukünftige Entwicklung halbwegs einschätzen kann.
@aubisoka9 ай бұрын
Ja wie ist das, wenn ich ein Buch mit Hilfe der ki erstelle, aber selbst noch Inhalte ergänze oder umformuliere?
@leopoldrogner157210 ай бұрын
Mich interessiert dieses Thema. Leider muss ich mir eingestehen, dass ich bei dem Thema massiv überfordert bin.
@brand-konto607910 ай бұрын
Ich glaube es geht vielen so (mich eingeschlossen). Gibt nur keine so gerne zu.
@darkfoxx20109 ай бұрын
AI-Act ist ja ersteinmal ganz gut, man muss ihn später aber nocheinmal überarbeiten. Letztenendes liegt es am EU Land selbst, ob es das ganze weiter verschäft. Zumindest hat man eine gewisse Grundlage, auf die man sich stützen kann und es wäre nicht, das erste mal, dass sich weltweit Länder an europäischen Normen orientieren müssen. Besser als momentan keine Lösung zu haben, grad wo AI immer mehr überall Anwendung findet.
@dexnox73069 ай бұрын
Sehr interessant
@viktor484010 ай бұрын
Interessant und wichtig, danke für das Video!
@clausmeyer22359 ай бұрын
Super Video danke dafür. Mich würde mal interessieren, wer diese EU tolle sind , die kurz vor knapp Änderungen einstreuen geht ihm ganz in eine andere Richtung geben.
@Rumungtung9 ай бұрын
Bin ja gespannt welcher Maßstab bestimmt, was gute oder schlechte unterschwellige Beeinflussung ist...
@europapark099 ай бұрын
Dass mit mit den Biometrischen daten währe ja wirklich mega übel
@friederdaubenberger768810 ай бұрын
Ein guter Beitrag zu einem spannenden und wichtigen Thema. Danke dafür!
@thomashaller487610 ай бұрын
Die Regel zum Kennzeichnen von Deep Fakes find ich unterhaltsam. Hat die EU auch eine Kennzeichnungspflicht von Falschgeld erlassen ? Halten sich bestimmt viele dran.
@brand-konto607910 ай бұрын
🤣 Hat die EU auch eine Kennzeichnungspflicht von Falschgeld erlassen ? 😂😂Hut ab. Bester Kommentar. Sau gut. Lange nicht mehr so gelacht. Danke Thomas.
@tobskerk757410 ай бұрын
Die sollten auch direkt Verbrechen verbieten!
@thomashaller487610 ай бұрын
@@tobskerk7574beim Gesetz gegen "Hass im Internet", auch so ein dolles Gesetz, dachte ich auch - warum auf das Internet begrenzen ? Wir sollten einfach Hass direkt verbieten, und wenn wir schon dabei sind auch die anderen Emotionen die wir nicht mögen, Wut, Trauer, Neid, Eifersucht...
@PSDAndre10 ай бұрын
😄 Bei der Kennzeichnungspflicht für Kraftfahrzeuge funktioniert es recht gut. Bei Deep Fakes ist es ebenfalls eine Verfolgungs- und Haftungsfrage. Die mit Kennzeichnung müssen schon mal nicht auf Echtheit kontrolliert werden. Bei denen ohne ist eine Betrugsabsicht nachweisbar wenn man sie denn als Fake erkennt.
@phoenixfire3859 ай бұрын
Der unterschied hier ist, dass falschgeld verboten ist, deepfakes aber afaik nicht
@propergander850910 ай бұрын
Na herzlichen Glückwunsch. Kleine Player werden potenziell aus dem Markt gekegelt, aber für die Massenüberwachung hat man sich mit niedrigen Hürden alle Möglichkeiten offen gehalten. Dass sogar Verwaltungsbehörden biometrische KI einsetzen können und das sogar rückwirkend ist besonders verstörend. So kann man sich sicher sein, dass man früher oder später auf irgendeiner Liste geführt wird, wenn man bei einem Thema mal in Ungnade fällt und blöd genug ist, sein Demonstrationsrecht wahrzunehmen...
@wolfgangpreier916010 ай бұрын
"Dass sogar Verwaltungsbehörden biometrische KI einsetzen können und das sogar rückwirkend ist besonders verstörend." Nur wer Dreck am Stecken hat hat Angst davor.
@einstein310010 ай бұрын
Das ist Schwarzmalerei, sowas wird nicht passieren durch KI Nutzung in Behörden. Immer sagen das wir digital werden müssen, aber dann wieder schlecht reden wenn es konkreter wird. Außerdem wo lebst du, es ist nicht das Jahr 43 vor Christus in dem man auf Proscriptions Listen gesetzt wirst, sobald man nicht der Staatsline folgt.
@TK-xg8xq10 ай бұрын
Große Player sind ein großer Fan von Bürokratie, Regulation und Steuern da sie die Konkurrenzbildung verhindern und die Konzerne alle Möglichkeiten haben diese zu nutzen oder zu umgehen.
@wolfgangpreier916010 ай бұрын
@@TK-xg8xq Ich sag nur Apple, Google, VW, Tata. Gut zusammengefasst.
@ismirdochegal480410 ай бұрын
Ich würde hier zwischen technisch können und rechtlich können unterscheiden. Wenn ein die Polizei ein Verbrecher verfolgt (oder gar einen Terroranschlag verhindern möchte - wie es gerade tatsächlich gemacht wird), dann soll sie nicht vor der bürokratischen Hürde eines "wir hätten die Daten zwar, aber du darfst nicht" stehen. Auf der anderen Seite darf nicht jeder kleine Verein auf solche Überwachungsdaten zugreifen und sie auswerten dürfen.
@FrankBendler10 ай бұрын
Sobald skynet übernimmt will ich ne Summer glau als Terminator haben.
@nm-conceptfilms10 ай бұрын
Danke, könntest Du auch näher auf die Jobs eingehen, die beeinflusst werden? Was wird da reguliert?
@J0000-310 ай бұрын
KI für Kriegsführung nutzen? Was soll dabei denn Schief gehen?
@Lord666Satan66610 ай бұрын
Militär lässt sich nicht regulieren. Siehe Terminator / Skynet
@energiewende-rechnerdotde9 ай бұрын
Israel nutzt KI für die Auswahl von Zielen im Gaza Streifen. Wen die KI als ziel benennt, der ist meist noch am gleichen tag tot. Und das ist KEINE Fiktion.
@sorgenkindoo10 ай бұрын
Danke 🙏
@sikliztailbunch10 ай бұрын
2:30 in die Definition passen Bildgeneratoren nicht hinein. Die agieren nicht autonom. Da fallen alle Prompt-basierten Systeme raus.
@timedding30073 ай бұрын
Der AI Act betrifft auch die Nutzer in Unternehmen, nicht - wie du bei 3:09 sagst - nur die Hersteller von KI. KI Texte müssen z.B. gekennzeichnet werden oder gegengelesen werden. Auch hat der Arbeitgeber weitere Pflichten beim Einsatz von KI in seinem Unternehmen.
@ZackdasBohne7 ай бұрын
Das ist der Grund warum ich die EU unterstütze. Umso mehr Anforderungen man an die Union stellt, desto eher wird man natürlich auch enttäuscht. Für die Bereiche für die Union geschaffen wurde, macht sie aber respektable Arbeit, Angleichung der Vorschriften bei Wirtschaft, Umwelt, Verbraucherschutz etc. Da gibt es nicht wenige wirklich sinnvolle und nützliche Rechtsakte die mein Leben unmittelbar vereinfacht haben (AGB-Richtlinie, Kaufrecht-Richtlinie, die Rom und Brüssel Verordnungen, sowie die FluggastrechteVO)
@michaellichter409110 ай бұрын
Langsam verstehe ich warum viele Firmen aus Deutschland abwandern und nach China oder Amerika gehen, manche Sachen sind meiner Meinung nach in der EU Überreguliert.
@VolkerHett10 ай бұрын
Hier in Bremen werden Überwachungskameras auf öffentlichen Plätzen bei Demonstrationen ausgeschaltet und mit Blenden verschlossen. Dann gibt es keine Bilder die man auswerten könnte.
@energiewende-rechnerdotde9 ай бұрын
Warum wird das gemacht?
@VolkerHett9 ай бұрын
@@energiewende-rechnerdotde Datenschutz und Meinungsfreiheit.
@energiewende-rechnerdotde9 ай бұрын
@@VolkerHett Nun ja, das Demonstrationsrecht wird durch Kameras nicht eingeschränkt. Und Recht auf freie Meinungsäußerung auch nicht. Falls aber Straftaten während Demonstrationen begangen werden, könnten Kameras und KI helfen, die Täter zu fassen und natürlich auch präventiv zu wirken. Steine werfen, schießen und Pyrotechnik unter ggf. anderen, friedlichen Demonstranten entfesselt man nicht mehr so leichtfertig, wenn man weiß, dass alles aufgenommen wird. Das gilt für Straftäter unter den Demonstranten ebenso, wie unter ggf. übergriffig werdenden Ordnungskräften. Und DAS vor allem während Demonstrationen Straftaten begangen werden, ist vermutlich unstrittig.
@dinogodor72109 ай бұрын
Hi, ich weiß zwar nicht, wer du bist - ist halt in der AI-Kategorie bei KZbin bei mir aufgepoppt - aber ich hab ein paar Anmerkungen. Zunächst mal: Vielleicht ist ChatGPT selbstlernend - aber ich glaube es nicht, weil es für die Funktionalität nicht notwendig ist. KIs heutzutage sind eher in der Zeit eingefrohrene, statische Gebilde. Man hat ein fertiges Modell, das dann Anfragen bearbeitet, ohne dass es selber dabei verändert wird. Weiterhin ist eine Rechenkapazitätsgrenze zur Zeit eher schlecht, weil wir noch Grundlagen entdecken, die es erlauben, mit weniger Rechenleistung das Selbe zu erreichen. Politik funktioniert leider auf einem abstrakten Niveau, so dass nicht alles bis ganz nach unten durchdacht ist - Politiker sind oft sogar stolz darauf. Aber in diesem Fall bedeutet das, dass das ganze Gesetz an dem Problem vorbei geht - denn die ganze Technik spielt sich im Moment bevorzugt außerhalb der dem Gesetze inneliegenden Definition ab.
@knowledgelesspumpkin588710 ай бұрын
GENEVA CHECKLIST- AI EDITION
@Stormtroper1610 ай бұрын
Und wieder eine neue Behörde und Bürokratie… ich kann ja verstehen das man es regulieren muss, aber schon wieder ne komplett neue Behörde?
@thomashaller487610 ай бұрын
Ich arbeite seit 5 Jahren an einem P2P Digital Service Netzwerk - inclusive AI Services. damit können Anfragen geografisch nah verarbeitet werden. Das heisst die Peers sind ganz normale Haushalte die gerade Überschuss an PV haben, und die Hardware haben, solche Dienste zur verfüfung zu stellen. Zugegeben ist die Zielgruppe relativ klein: Im Grunde Gamer mit PV, die gerade nicht zu Hause sind, verkaufen ihre GPU Leistung. Dieses Jahr war die Vorstellung eines Prototyps und Finanzierungsphase geplant. Ich fürchte der AI Act ist der Todesstoss für das Projekt.
@brand-konto607910 ай бұрын
Ne ne. Gilt erst ab 2026. Und bis dahin noch x-mal geändert. Und sowieso lokal unterschiedlich auslegbar. Folge einfach weiter deiner guten Idee weiter.
@bibianaortner73328 ай бұрын
Nein ist es nicht. Das Gesetz ist ein ziemlich zahnloser Tiger. Die DSGVO ist schlimmer.
@muhannadmslmani279210 ай бұрын
Nur Breaking lab klärt mich auf sonst niemand
@lukas-kevynmuller669710 ай бұрын
Dann solltest du dir mehr Quellen suchen, Informationen aus nur einer Hand sind nie gut, immer mehrere
@brand-konto607910 ай бұрын
Nicht nur. Aber Jakob ist echt klasse. Besos y abrazos.
@dezenturio84989 ай бұрын
Ehrlich gesagt traue ich der EU zum virtuellen Schutz der Bürger kaum noch nach Artikel 13 damals und der aktuell angestrebten chatkontrolle..sowas hätte rigoros abgeschmettert werden müssen fürs Vertrauen der Bürger 😅
@markusdunnbier82110 ай бұрын
wir werden im Nachinein GENAU wissen, wo wir versagt haben!
@NoName-rc9qh9 ай бұрын
so ist das immer im Leben. Im Nachhinein ist man schlauer...
@az-po8nc10 ай бұрын
Wurde das neunhundertseitige Dokument mit KI erstellt?😅
@yellowflash73039 ай бұрын
Logisch, ChatGPT brauchte dafür rund 2.5 Std.
@LucaL1fe10 ай бұрын
Schön dass die EU sichergestellt hat, dass es für europäische Unternehmen quasi unmöglich wird im Rennen um die KI aufzuholen. Zukunftstechnologien ausbremsen, machen wir schon seit Jahren sehr erfolgreich, freut mich dass wir das ganze beibehalten 👍
@wernerkurzreiter837510 ай бұрын
Und ich frage wieder: wieso programmiert man den KI's nicht die drei Asimovschen Robotergesetze ein? Beispiel: Wenn ein Computer/Roboter einem Menschen nix schlechtes tun KANN, und der KI auch klargemacht wird das Worte weh tun können, wird sie von selbst draufkommen das Diskriminierung etwas schlechtes ist.
@LB-qr7nv10 ай бұрын
1.Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird. Physischen Schaden zufügen ist ohnehin verboten oder wird bewusst so programmiert, psychischer Schaden kommt wahrscheinlich durch schlechte Trainingsdaten, das wird ja reguliert. Direkt einprogrammieren: "richte keinen Schaden an" geht praktisch nicht. 2.Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen - es sei denn, ein solcher Befehl würde mit Regel eins kollidieren. Tut jede KI. 3.Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert. Wird kaum jemand anders programmieren Die Regeln sind glaube ich von einem Standpunkt aus, dass Roboter eigenständig "handeln" können und kein Werkzeug zur Datenverarbeitung und -Generierung sind
@peterlustig487510 ай бұрын
und du hast in deinem leben noch keine Zeile code geschrieben… so etwas geht nicht, da niemand weiß auf welcher Grundlage welche Entscheidung von einem Neuronalen Netz getroffen wurde.
@mugnuz10 ай бұрын
wär interessant bis Utilitarismus im sinne von am wenigsten schaden ins spiel kommt...
@Peter2132310 ай бұрын
So etwas wird bereits gemacht und es funktioniert recht gut, vor allem bei den neuen Modellen wie GPT4-t und Claude 3.
@hidicproductions484910 ай бұрын
Und wie willste autonome KI-Soldaten verkaufen, wenn die niemandem Schaden? So funktioniert die Rüstungsindustrie nicht.
@BanditenLord-dz7eg9 ай бұрын
Solche Regelwerke müssen kommen, das steht außer Frage. Ob die aktuellen Regeln das Gelbe vom Ei sind, muss die Zukunft zeigen. Bei der Komplexität solcher Gesetze ist es doch aber vollkommen normal, dass noch ganz viel nachgesteuert werden muss. Niemand kann alle Eventualitäten abschätzen. Abgesehen davon müssten diese Regeln nicht nur in der EU, sondern ausnahmslos international gelten. Wie definiert sich hier z.B. eigentlich Diskriminierung und wer legt fest, was genau diskriminierend ist? Wie werden hier - sofern gesellschaftliche Entwicklungen dies nötig machen - Anpassungen an bestehenden Systemen vorgenommen? Abgesehen davon halte ich den Begriff der KI schon für fehlgeleitet: Bislang können wir allerhöchstens von EI sprechen, von erweiterter Intelligenz. Künstliche Intelligenz wäre es aus meiner Sicht erst, wenn sie die Grenze des Ich-Bewusstseins überspringt und sich selbstständig optimieren kann. Ab dem Zeitpunkt können wir aber eh nur noch hoffen, dass die KI uns wohlgesonnen ist und die Logik der KI nicht gebietet, menschliches Leben als Gefahr oder anderweitig abzuschaffen einzustufen...
@Daniel534739 ай бұрын
Wie ist es wenn man seine Doktorarbeit damit schreibt?
@Wallo256510 ай бұрын
Wichtig ist immer Gesetze in Marathonsitzungen zu entwerfen, mit dem Ergebnis: So wollten wir es eigentlich nicht, aber jetzt ist es so! Ein Arbeiter darf nur 10 Stunden arbeiten aber in der Politik ist es anderes die können das👍
@syncRamon9 ай бұрын
super Video! :)
@SM-xc4rl10 ай бұрын
ja gut, die eu hätte gerne und das internet macht halt. Die technische Entwicklung ist der EU doch schon lange davon gelaufen
@myponyislit652910 ай бұрын
ne das internet nutzt vpn's um die EU zu umgehen ^
@Knusper-Knoppers10 ай бұрын
"Das Internet" entwickelt aber auch keine KI 😅
@myponyislit652910 ай бұрын
@@Knusper-Knoppers noch nicht.. der ceo von nvidia hat bereits öffentlich gesagt dass man nicht mehr programmieren lernen sollte. und da man von Apple & anderen Giganten dies bezüglich aktuell nur wenig hört werden die gerade an etwas arbeiten das Veränderungen kommen wie wir sie zur Einleitung der Smartphone era gesehen haben
@Qumafi10 ай бұрын
Du sagst, dass es möglich sei oder bereits Verfahren gäbe, KI-Systeme nachträglich also am Output zu dediskriminieren. Kannst du darüber etwas erzählen, wie das funktionieren soll? Bei KI-Systemen (im hier diskutierten Sinn) handelt es sich ja gerade um Systeme, bei denen man abgesehen von den Trainingsdaten nicht weiß, wie das Ergebnis zustande kommt bzw. nach welchen Kriterien. Sie funktionieren ja gerade nicht nach programmierten Regeln auf Sachebene. Schon der Versuch zu verhindern, dass KI-Systeme Kriminalitätsanleitungen generieren, ist soweit ich weiß nicht trivial. Ein hinter die KI geschaltetes Filtersystem muss ja ebenfalls die Inhalte analysieren und nach irgendwelchen Kriterien bewerten, hat also wieder das gleiche Problem wie das ursprüngliche System. Bei Upload-Filtern u. Ä. funktioniert es ja auch nicht (bzw. nur mangelhaft).
@laborsauron10 ай бұрын
"Aggesive KI Systeme ???" ist das ein Codewort für Kampfroboter ?
@prototypega82579 ай бұрын
Was ne Komplizierte definition für nen FIlter.
@FirstYokai10 ай бұрын
Hat schon einen Grund wieso man lieber in den USA ein Startup gründet anstatt in der EU
@WilliTheWing10 ай бұрын
Wenn du es hier machst, ist dir auch nicht mehr zu helfen 😂
@ismirdochegal480410 ай бұрын
Klingt polemisch. Magst du bitte den "Grund wieso man lieber in den USA ein Startup gründet anstatt in der EU" noch weiter ausführen?
@kecksbelit330010 ай бұрын
@@ismirdochegal4804es ist einfach einfacher
@lukas-kevynmuller669710 ай бұрын
@@ismirdochegal4804Was ist daran bitte polemisch? Leider ist es einfach die Wahrheit. Es gibt mehr als genug Gründe, in Deutschland beispielsweise ist es sehr viel aufwändige und nicht unbedingt nötige Bürokratie. Du kannst ja einfach mal die Zahlen vergleichen und dir wird ganz schnell ein Trend auffallen.
@ismirdochegal480410 ай бұрын
@@lukas-kevynmuller6697Ich sage ja nicht, dass ich dir nicht glaube. Ich möchte nur die Gründe erfahren. Bürokratie ist ein Grund ja. Und weitere Gründe sind...?
@dergoldeneschinken117910 ай бұрын
Also, ich denke, es wäre besser, wenn die Politik das AI-Gesetz noch einmal überprüfen würde. Wir könnten dann ohne Gesetz dastehen, und ich denke, dass dies langfristig dazu führen wird, dass sich die Tech-Unternehmen ausgebremst fühlen und sich zurückziehen. Noch gravierender ist, dass sie, wie KZbin mit den Algorithmen, Änderungen vornehmen könnten, die die Meinungs- und Versammlungsfreiheit einschränken.
@kin9810010 ай бұрын
Gehört persönlichkeit auch zu hohen riskien ist ja auch grundrecht oder nicht? Das heisst ja das alle ki die online daten verwenden ihre daten offen legen.
@Qumafi10 ай бұрын
Soweit ich gehört habe wird auch darüber diskutiert, ob KI Systeme sicherheitsrelevante Entscheidungen grundsätzlich selbst treffen können sollen oder ob immer ein Mensch "auf den Knopf" drückt. Kannst du dazu noch mehr sagen? Letzteres klingt m. E. zunächst beruhigend, aber gerade bei militärischen Anwendungen wird schnell klar, dass KI ja nicht nur Lösungen anbieten soll, auf die der Mensch nicht gekommen wäre, sondern dass sie vor allem Situationen sehr viel schneller bewerten kann, als der Mensch. Wenn man nun die Komponente Mensch aus ethischen oder Sicherheitsgründen drin lässt, verliert man diesen Geschwindigkeitsvorteil, was man sich im Krieg vermutlich nicht leisten kann. Verzichtet man aber auf die Komponente Mensch, überlässt man damit einer KI, deren Entscheidungsmechanismen man prinzipiell nicht versteht - egal wie gut sie getestet wurde - die Entscheidung über Leben und Tod. Hmm.
@justluke.271810 ай бұрын
Sehr gut das jetzt schon anzugehen
@alinaklausnitz13099 ай бұрын
Ja ich finde man sollte Ki regulieren, ich studiere Medien Design und bei uns im Studium werden, die Risiken sehr ausführlich besprochen. Und will nicht all das Geld umsonst rein gesteckt haben nur damit Kapitalistische Firmen sich eher wegen Geld Einsparungen und dadurch resultierendem höherem Umsatz für eine Maschine entscheiden.
@leibfriedwolfgang915510 ай бұрын
Da wird mit Sicherheit ein Schwarzmarkt auftauchen der unkontrollierbar sein wird! Auch Formulierungsweise einer Frage kann eine Umgehung darstellen und Infos preisgeben die eigentlich vermieden werden sollten!
@Coltan99910 ай бұрын
Niemand außer der Regierung darf die Bürger, Gesellschaft und Wirtschaft manipulieren. 😊
@SchattenZirkus10 ай бұрын
Ich freue mich auf den KI Schwarzmarkt. Wir driften immer weiter in Ghost in The Shell oder Cyberpunk 2077 ab.
@uwebludau822510 ай бұрын
Länder außerhalb der EU oder Schurkenstaaten werden sich nicht daran halten.
@WilliTheWing10 ай бұрын
Und wieder eine Regulierung die ein Schuss ins Knie ist. Wie mit diesen nervigen Cookie Bannern. Auch seltsam das sowas immer schnell geht aber das zum Beispiel in jedem Gerät der Akku austauschbar sein muss, dass zieht sich ewig hin.
@brand-konto607910 ай бұрын
Ich finden den "Jetzt Kaufen" Button ganz toll. Die Cookie Banner sind völliger Bullshit.
@stefankrause513810 ай бұрын
So aufwendig ist es, so ein Gesetzesentwurf zu verfassen?!? 🤔 kann man das nicht von ChatGPT erledigen lassen?
@Ano-Nymos9 ай бұрын
"Menschliches Verhalten unterschwellig zu beeinflussen": Und was soll daran verbietenswert sein? Beispiele? Wenn ich das als Mensch mache, ist das moralisch und rechtlich OK, wenn es eine KI macht soll es verboten sein? Wenn das generell moralisch falsch wäre, wäre es auch falsch wenn NGO und staatliche Subventionierung etc. unterschwellig Rassismus bekämpfen, indem sie z.B. Afrodeutschen als Professoren etc. in die Medien bringen, dies aber nicht im sichtbaren und erwähnten Rahmen von Rassismusbekämpfung, sondern um die Menschen unterschwellig an Dunkelhäutige zu gewöhnen, gegen Rassismus zu desensibilisieren. Also müsste man immer dann, wenn so etwas auch nur möglich sein könnte eine Art Pflicht-Einblendung (ähnlich wie bei Werbung) "Rassismusbekämpfung" machen?!? "Trainingsdaten offenlegen"?!? Das sollte dann aber auch für Journalisten, Künstler, Wissenschaftler etc. gelten. All das was sie beeinflusst hat, alle Autoren, Maler, Komponisten etc., sollten die angeben müssen. Ich glaube es war Ed Sheeran, der sagte er höre keine Musik, weil er sich nicht beeinflussen lassen will... Und was heißt bitte "repräsentativ"? Wenn 51% die AFD wählen würden, wäre deren Weltbild "repräsentativ". Da da auch noch CDU-Wähler wären, also eine rechte Partei, kämen die noch oben drauf. Natürlich darf eine rechte Partei sich eine rechte KI trainieren, damit die denen Reden etc. schreibt. Das kann man auch nicht per Gesetz verbieten. Und eine öffentlich nutzbare "AFD-KI" sollte auch erlaubt sein. Warum sollte bei einer KI verboten werden, was bei Menschen unter die Meinungsfreiheit fällt?!? Oder wenn Ich eine KI zu Themen der Parapsychologie oder Ufologie trainieren will. Da ist es doch logisch, dass wenn ich das ernsthaft mache, ich kein Material von "Debunkern" wie Gero Holm Hümmler (man sehe sich mal die 1-Stern-Bewertung seines Buches "Relativer Quantenquark" auf Amazon an...) oder Hardcore-Materialisten wie Lesch, Yogeshwar, die "Quarks Science Cops" oder gar das Magazin der Sekte "GWUP" (dazu "Das Skeptiker-Syndrom" oder von der Zeit "Grabenkämpfe" lesen) aufnehme. Das würde die KI fachlich wertlos machen. Kein seriöses Ergebnis mehr möglich sein. Da kommen nur Autoren wie Ostrander, Schröder, Leslie Kean, John B. Alexander, Illoband von Ludwiger, Karl Svozil (sein Buch wird von Springer verlegt...), Robert Fleischer, Jaques Vallee, Avi Loeb etc. in Frage. Also alles Journalisten oder Physiker die sich auch damit befasst haben, und die ganz klar keine "Esoteriker" sind. Das wäre echt nützlich so etwas nutzen zu können. Man könnte sich ein Video-Script zu einem Thema erstellen lassen, ohne aufwändige Recherche. Drüber lesen, ein paar Änderungen, und ab damit. Oder auch ein Reaction-Script auf ein Video dessen unwissenschaftliche Behauptungen (z.B. das Scam mit Kindern Video von Alicia Joester) man Fakten entgegen halten will. Das kann ich aus dem Kopf zwar schon auf einer gewissen Basis, aber mit dem Detailwissen zu Studien etc. die z.B. ein Von Ludwiger hatte, wäre das Ergebnis natürlich viel besser. Und damit die KI auch klingt wie ich, aber dennoch etwas besser, runder, gewählter, könnte die KI Texte von mir als Formulierungs-Basis erhalten. Nicht aber als Wissensbasis. Denn das was Chat-GPT mal in Tests für ein Script ausspuckte, klang mir etwas zu "ausladend", "emotional", nach "großen Worten". Ich bin LINKER, aber KIs sollten JEDE politische Ausrichtung haben dürfen. Es wird schon bekannt werden, welche Ausrichtung die KI "Adolf" oder "Rosa" hat... Und wenn die direkt bei einer Partei nutzbar sind, weiß man eh woran man ist. Was kommt als Nächstes, gibt der Gesetzgeber einen Datensatz den die Amadeo-Antonio-Stiftung, Woke etc. erstellt haben, als Trainingsbasis-Pflichtteil vor? Und natürlich muss eine KI auch mit allen Reden von Hitler, Göbbels, "Mein Kampf" etc. trainiert werden dürfen. Auch Geschichtsprofessoren dürfen diese gelesen haben. Ich sehe auch keinen Grund Frauen, Dunkelhäutige etc. zu bevorzugen. Ein weiterer Bereich in der KI könnte moralische Regeln beinhalten, so muss man keine Gruppen besser stellen, da diese auf Jeden gleich angewandt werden. Eine Kennzeichnungspflicht ist absolut inakzeptabel, und ich werde das NIEMALS machen wenn ich z.B. auf KZbin etc. aktiv würde. Auch nicht, wenn das gewerblich würde. Das ist moralisch absolut inakzeptabel. Das gilt auch für das Verkaufen von Kunst etc.. Die Kunden haben kein Recht zu erfahren, ob da ein Mensch oder eine KI das Werk erstellt hat. So wie Restaurantkunden kein moralisches Recht haben zu erfahren ob der Koch Schwarz ist. Und genau genommen haben die in 20, 30 Jahren auch kein Recht zu erfahren, ob da ein Mensch in der Küche kocht. Und heute haben die auch kein Recht zu erfahren, ob überhaupt im Haus gekocht wird., Es gibt edle Restaurants die kriegen die Speisen fertig zubereitet in Tüten verschweißt aus einer Zentralküche in der Region. Dennoch ist das Spitzengastronomie, es war auch nie gefroren und gelagert. "Deepfakes" kennzeichnen: Wenn man damit einem Menschen entgegen der Wahrheit schadet, klar. Dafür braucht es aber kein neues Recht, das wäre Verleumdung. Alles andere geht den Zuschauer nichts an. Wenn ich eine Szene spielen lasse, und die Gesichter der Spielenden durch fiktive andere Gesichter ersetze, geht das niemand etwas an. Und wenn Ich trotz Panoramafreiheit (die er mir erlaubt Fremde unverfremdet im Foto/Video zu belassen) Fremde Gesichter ersetze, dann sehe ich auch keinen Grund das anzugeben. Etc. etc. etc.. Wo kein Geschädigter ist, sollte es auch keine Kennzeichnungspflicht geben. Wenn ich streamen würde, und einen KI-Beauty-Filter einsetze, geht es die Zuschauer einen Dreck an dass ich das tue. Auch dann nicht, wenn ich eine ganz andere Person, Geschlecht oder sogar Ethnie als KI-generierte Person wähle.
@dominikh.49098 ай бұрын
2:12 Die haben sich das safe von KI generieren lassen😂
@felixschulke82999 ай бұрын
Ich bin erstmal der Meinung, dass es einen schon zu denken gibt, dass im Umgang mit KI so viel reguliert werden soll und gleichzeitig eine effektive Regulierung des menschlichen Zusammenlebens in der Praxis in eigentlich jedweder Form gefühlt fast überhaupt nicht stattfindet, obwohl das mindestens ebenso wichtig wäre. Davon abgesehen ist es natürlich sinnvoll, dass man KI reguliert. In welcher Form man das macht, ja gut, das sei mal dahingestellt. Da wird mit Sicherheit noch viel rumjustiert, entweder, weil man dann doch feststellt, dass der Arbeitsaufwand für staatliche Stellen schnell zu groß wird, oder, weil einige der Firmen und Verbände, die jetzt auf diese Regelung gepocht haben, dann doch früher oder später rausfinden, dass sie sich damit selbst ein Bein gestellt haben.
@GamingDeutschland10 ай бұрын
Aber dürfte ich z.b eine super Ki auf einen server im meinem haus laufen lassen?
@brand-konto607910 ай бұрын
Wenn sie nur in deinem Haus rum läuft ist alles ok. Aber wehe du lässt mal versehentlich die Tür auf.
@GamingDeutschland10 ай бұрын
@@brand-konto6079 hahaha bester bis jetzt xD
@saschaegal249210 ай бұрын
Dass mit der Meinungsfreiheit wird noch richtig intensiviert. Denke ich
@RobertZimmermannAoA10 ай бұрын
Unter welche Kategorie fallen X47 und Co 😅😂
@NSA.Monitored.Device10 ай бұрын
Kaum zu glauben dass ich noch miterleben darf, dass Buzzwords für pattern matching auf diesem Kanal als solche bezeichnet werden.🙄 Auf der anderen Seit scheinen die Fertigkeiten der meisten Mitmenschen auch nicht mehr als das herzugeben...
@q9a10 ай бұрын
Hä…… wenn man statistische Modelle zur fortlaufenden Schätzung bestimmter entscheidungsgrenzen verwendet wird das dann auch schon EU-Bürokratisierte AI? Die Modelle sind Open Source …… können also von jedem verwendet werden …… ist halt dann nur eine frage von "Geduld" was die Rechenleistung des Prozessors angeht. Kennzeichnung von AI Kontent ist so doch schon wieder durchsetzbar …… wenn irgendwelche versierten Aktivisten irgendwelche Content kreieren …… und da dann nochmal einen Filter drüber jagen der unterschwellige Bild- und Tonfehler einer Kamera simulieren um "forensische Echtheit" zu erzeugen. Im Grunde muss man antizipieren das alles einfach nur falsch sein kann …… und jeder "Fotobeweis" im Grunde nichts Beweist. Was auch nicht vergessen werden kann ist Moores LAW …… Prozessoren also immer schneller werden. Neuere GPUs können wegen AI Real*2 und Real*1 …… CPU's werden das sicher auch bald können, was den Speicherzugriff vereinfacht weil mit der gleichen Bandbreite doppelt respektive 4 Mal soviel gerechnet werden kann. Es gibt sogar eine Definition für Real*½. Bei so kleinen Werteräumen kann auch mit schnöden Tabellen gerechnet werden. Auch nicht übersehen werden kann, das die Ineffektivität modernerer CPUs (Flops / Transistor) durch neue Konzepte überwunden werden könnte …… Sei es das es Photonische CPU's z.B auf Licht Basis mit Tacktraten von THz anstatt GHz …… sei es das der Overhead von P-Kernen durch besser skalierende Architekturen ersetzt wird so das Waver Scale Engines die es schon heute als Parralelrechner mit sehr vielen Kernen gibt plötzlich sehr gut hoch skalieren können. Und dann gibt es ja noch die reinen Softwaredinger die nur auf dem Internet berauchen wie die Anwendungen "Seti@Home" und deren Derivate. Diese Gesetzgebung ist ein reiner Gummiparagrafenwust um eingreifen zu können -- nicht mehr und nicht weniger. Und die Sache mit der Diskriminierung ist auch so eine Sache. Wenn ein bestimmtes Merkmal mit einer Korrelation zu einer Leistungsfähigkeit oder Defizit verbunden ist dann ist das halt so. Jede wie auch immer geartete Auswertung wird das so finden. Anderes Ausgedrückt: Ich könnte mich als weißer diskriminiert fühlen weil im 100 Meter Finale der olympischen Spiele typischerweise fast ausschließlich oder ausschließlich dunkelhäutige Athleten vertreten sind …… obschon eine Stop Uhr ein an sich unbestechliches Instrument ist. Und das sogar bei den olympischen Spielen in Berlin wo auch das "politische Umfeld" eine derartige "Begünstigung" sicher nicht zugelassen hätte.
@Someoneelse_XD10 ай бұрын
Da hat die Bürokratie ja ganze Arbeit geleistet, um die Bürokratie zu erhöhen.
@mhwse9 ай бұрын
was passiert, wenn ich meine eigene KI baue oder zumindest installiere? Wer sollte das kontrollieren? Man kann vielleicht illegale Umbauten oder Geschwindigkeiten am Auto kontrollieren, die Konten/Steuern. Schon wenn eine Inselanlage/PV auf Privatgrund betrieben wird, ist das dem Grundstückeigentümer überlassen. Wenn eine KI privat betrieben wird - wer guckt, wenn die hilft, eine Waffe "Virus" zu bauen, oder eine "super KI" zu entwickeln, die nicht mehr als solche erkannt werden kann?
@patsauregurke413110 ай бұрын
Vielen Dank für deine Zusammenfassung zum AI-ACT Das beste am AI-ACT finde ich die Definition von KI Systemen und deren gefahren Stufen sowie die Dokumentation und Transparenz Pflicht damit lässt sich doch gut arbeiten Es gibt eine Anlauf Stelle Das beste Szenario finde ich jeder kann das Entwickeln was er möchte und wenn es auf dem Markt kommen soll muss es durch diese Instanz Was ich wichtig finde ist das diese Instanz selber Dokumentation und Transparenz Pflichtig ist, nicht nur aus Lobby Vertreter besteht sondern auch einen gewählten Ethikrat besitzt der immer wieder kretik äußern darf und Veto einlegen darf ich finde alles mit Gesetzen zu regulieren ziemlich mühsam
@yellowflash73039 ай бұрын
Wo kann ich Aktien von KI-Unternehmen kaufen??? (Der kleine Mann kann das natürlich wieder nicht.)
@Nemesus202410 ай бұрын
Wir brauchen dringend eine KI, die die EU reguliert.
@jardin651710 ай бұрын
Diese Regulierung führt mal wider dazu, dass der Staat alles darf aber Unternehmer nicht mit dem Fortschritt nicht EU Länder mithalten können. Unsere digitale Technologie hängt schon übel zurück :( Deutschland ist noch nicht einmal Vorreiter mehr in Maschinenbau. wie sollen wir jeh mals aufholen?
@MrGecros10 ай бұрын
Niemals...so einfach...denn, wenn die in Hybris lebenden Priesterkasten einer Gesellschaft - hier die juristisch und politisch geschulten Regulatoren - die faktische Modernisierung eben dieser Gesellschaft behindern oder gar verhindern, dann gerät diese früher oder später uneinholbar ins Hintertreffen und geht über kurz oder lang zugrunde. Bevor man eindimensional auf die EU einprügelt - Deutschland hat auf diese Bürokratie erheblichen Einfluss und hat die entscheidend mitgeprägt.
@h34dlez510 ай бұрын
geht immerhin schonmal in ne gute richtung für'n erstes generell regelndes EU-Gesetz
@h34dlez510 ай бұрын
bis dann Umsetzung und Knackpunkte mit der Zeit ausgeklügelt werden
@MrNicolaSchiavone10 ай бұрын
"Agressive Ki Systeme an aussengrenzen" Genau das ist doch das was man vermeiden sollte...
@wolfgangpreier916010 ай бұрын
@@h34dlez5 Es ist immer ein Wettrennen zwischen Hase und Igel, zwischen Hacker und Schutz, zwischen Verbrechern und Polizei zwischen neuen Technologien und Regelungen zum Schutz der Menschen vor den Auswirkungen. Etwas was unsere Groß- und Urgroßeltern bei der Einführung der fossilen Brennstoffe total verabsäumt haben.
@Andi_mit_E10 ай бұрын
Man hätte doch die KI-Verordnung von einer KI verfassen lassen. 😆
@DennisRyu10 ай бұрын
Zeigt mal wieder immer wenn es um neue Technologien geht hinkt die EU hinterher. Verstehe nicht warum man da nicht alle die damit zu tun haben mit einbezieht. Es gibt ja viele Wissenschaftler, Künstler und Unternehmen die sich mit dem Thema sehr gut auskennen. Und die betrifft das auch am meisten. Warum setzt man sich nicht mit denen zusammen und entwickelt die Regulierung gemeinsam mit denen? Klingt soch wie ein äußerst demokratischer Ansatz oder? Frag mich auch wie die aktuellen Probleme behandelt werden sollen. Z.b. selbst betroffen, von mir erstellte Kunst wurde zum Training genutzt und Unternehmen verdienen jetzt mit diesen Datensätzen Geld. Hab ich aber nie zugestimmt und wurde auch nie entschädigt.