Toch knap dat Willem Alexander deze hele aflevering heeft gepresenteerd en dat Arjen er de hele tijd in het begin op was geplakt. Leuk dat Willy meewerkte voor de laatste aflevering!
@marcvandervelsen4 жыл бұрын
Ja dat vond ik ook apart!
@betadoggo4 жыл бұрын
Wow is dat echt of was dat ook net?!?
@Skidmaster1804 жыл бұрын
Hé makker, daar was ik nog niet. Spoiler alert! en ik zie trouwens dat je profielfoto een deepfake is.
@TheRealPatrick_Star4 жыл бұрын
@@Skidmaster180 hé makker, dan moet je de video kijken en niet door de comments scrollen
@BappieFpv4 жыл бұрын
Nee klopt niet... Hij kan niet zo lang praten zonder te stotteren
@TimDutch4 жыл бұрын
Nu kan Luckytv beter functioneren dan ooit.
@dutchproxx64534 жыл бұрын
Verschil met Willie van Lucky tv is dat, dat Haagse accent juist Willie zo mooi maakt. De stemvervormer zou er juist voor zorgen dat hij de dingen op een hele formele manier brengt.
@bowiemtl4 жыл бұрын
@@dutchproxx6453 ik denk dat we het meer over deepfake video’s hebben
@dutchproxx64534 жыл бұрын
@@bowiemtl daar kunnen ze misschien wel wat mee ja, maar tegelijkertijd maakt het juist zo leuk dat je weet dat het juist een heel serieus gesprek is.
@howtodisappearcompletely6274 жыл бұрын
😂
@sxsuri4 жыл бұрын
nou denk dat luckytv dan goeie video kaart moet hebben heb namelijk verstand in deepfakes
@rbgclips99894 жыл бұрын
Plot twist: eigenlijk presenteerde Ali Bongo dit met een deepfake van Arjen
@tonywatermeloni98334 жыл бұрын
Dubbele plot twist: Ali Bongo is eigenlijk altijd al Ali B geweest met een deepfake
@sethreijnhard17774 жыл бұрын
@@tonywatermeloni9833 3 dubbele plot twist: Arjan en Ali Bongo zijn beide gedeepfaked door Ali-b
@greatmysteriesoflife84364 жыл бұрын
4 dubbele plot twist: Bokito is uit de dood opgestaan om te deepfaken dat hij Ali-b nadeed die Arjen en Ali Bongo deepfakete.
@Ludifant4 жыл бұрын
@@greatmysteriesoflife8436 dit was fake news, hoor... Deepfakes bestaan helemaal niet.
@Skoaqua4 жыл бұрын
@@Ludifant Jawel
@marijnvandenberg95764 жыл бұрын
Plottwist: het is toch Jamai
@kabouterplop55854 жыл бұрын
Je denkt het is Jamai maar het is Lubach woohoo
@chad52274 жыл бұрын
Omdat je denkt dat het jamai is is het Lubach (althans dat denk je) waardoor het eigenlijk toch Jamai is🤔🤔
@lubovlitvinova23804 жыл бұрын
Are you nuts?
@vpnconsult4 жыл бұрын
❤️Dat is lang geleden!
@abyssal_phoenix4 жыл бұрын
Je denkt het is jamai maar net is lubach, Alleen nu andersom😂
@evowarrior54 жыл бұрын
Jezus, mensen hebben nu al genoeg moeite met het concept van realiteit, nu komt dit ook nog steeds verder omhoog... Gaat leuk worden
@sasjadevries4 жыл бұрын
Dit gaat helemaal goed komen. Er kan niets gebeuren zolang onze minister van defensie de inloggegevens van een geheime conferentie niet deelt op twitt... Oh, wacht... Dit gaat inderdaad leuk worden, maar ik weet niet perse voor wie.
@Remcojohnson4 жыл бұрын
Inderdaad het woord realiteit is voor heel veel mensen al een klus om te onmvatten
@TheZettaze4 жыл бұрын
Klopt. Al die filmpjes van Joe Biden die zich racistisch uitlaat of niet uit zijn woorden komt worden straks als deepfake bestempeld. Een hele natie misleid, nu al trouwens, en de realiteit bijna niet meer aantoonbaar
@vegannegan96524 жыл бұрын
@evowarrior5 Ik zie dat je een goede muzieksmaak hebt
@furiko99894 жыл бұрын
Ik ben het eens met je verhaal, maar leuke pf
@EddyVinck4 жыл бұрын
We moeten deep fakes gebruiken om ZML oneindig te laten doorgaan.
@ceycey26484 жыл бұрын
2000 IQ
@howtodisappearcompletely6274 жыл бұрын
Perfect idee
@Roozyj4 жыл бұрын
Hopen dat een goede schrijver dat doet dan. Stel je voor dat we eindeloze kutfilmpjes krijgen die zogenaamd door Lubach gepresenteerd worden xD
@furiko99894 жыл бұрын
Genie 🤣🤣
@abyssal_phoenix4 жыл бұрын
Goed idee, maar nope. Deepfake moet verboden worden vind ik
@imineyeet9044 жыл бұрын
2020 is een Black Mirror episode
@halden30144 жыл бұрын
No cap. Ik zat gister black mirror te kijken en ik zie dit hier letterlijk in terug
@DFDAcademy.4 жыл бұрын
True
@rondleberik53374 жыл бұрын
Moest bij 14:00 meteen aan die episode denken waar die vrouw haar overleden man besteld in synthetische vorm...
@mysterym22694 жыл бұрын
@@rondleberik5337 SAME
@seedorfdinho30034 жыл бұрын
Zoiezo
@Daniel-sz7rh4 жыл бұрын
Plot: Arjen is al 4 jaar een deepfake en leeft samen met Elvis op een eiland in de oceaan
@lthecatt96674 жыл бұрын
En samen met Tupac natuurlijk
@TalaIsDarker4 жыл бұрын
Je vergeet met MJ ook ;)
@lthecatt96674 жыл бұрын
@@TalaIsDarker en XXXTentacion natuurlijk
@DarkKittycat4 жыл бұрын
heb je die helemaal zelf verzonnen?
@dansmit96924 жыл бұрын
En met Gerri Eickhof natuurlijk
@full-frameyarne4 жыл бұрын
Voor de film wereld is dit een geweldige vooruitgang maar voor de wereld is dit levens gevaarlijk
@Ludifant4 жыл бұрын
Voor games en VR wordt het ook geweldig.
@anoniemw.2224 жыл бұрын
voor de acteurs is dit een hel, waarom heb je nog een acteur, die miljoenen kost, nodig als je de computer gewoon een perfect personage voor de film kan laten maken. Wel heel leuk voor de kijker, films/series kunnen veel goedkoper worden gemaakt waardoor er meer leuke films en series komen.
@nadiar.46383 жыл бұрын
@@anoniemw.222 ik denk dat de computers altijd wel een voorbeeld acteur nodig gaan hebben om een personage om heen te bouwen. Als ze het helemaal zelf moeten gaan maken wordt het beeld waarschijnlijk snel "te perfect" en mensen voelen zich vaak ongemakkelijk als ze iemand op beeld zien die te perfect is
@anoniemw.2223 жыл бұрын
@@nadiar.4638 Waar, maar die in perfecties kan je inbouwen. Wss heb je mensen nodig zodat de bewegingen er goed blijven uitzien (zoals de apen van planets of the apes). Alleen geen super dure acteurs meer nodig, iedereen kan het goed doen!
@TomSistermans4 жыл бұрын
Ik ben wel blij dat hij op 6:03 een knop indrukt anders had ik echt gedacht dat het magie is... Als je het niet erg vind, ik ga weer even wachten tot de SGP site weer online is want het is zondag
@JeroenDoes4 жыл бұрын
Dat overleden mensen nadoen om rauwende mensen te helpen is nog well het engste wat ik hier heb gehoord. Straks zitten allemaal mensen in hun eigen wereldje te praten met spoken nooit in staat om verder te gaan of vrede te vinden met wat er is gebuerd.
@mathijsvogelezang57564 жыл бұрын
5:52 niet waar, de Nintendo DSi kon dat al en dat ding kwam uit in 2008, het zag er echter niet zo strak uit als in snapchat
@jasperschlief4 жыл бұрын
ja idd
@ariellevi87634 жыл бұрын
Nintendo DSi had ook zo'n regenboog pen bij pictochat, die technologie hebben we allang verloren
@Wasmachineman4 жыл бұрын
Fuck ik ben oud, ik heb jarenlang zo'n ding gehad. Talloze keren op de grond gestuiterd en nog bleef hij werken.
@mathijsvogelezang57564 жыл бұрын
@@Wasmachineman same, ik heb dat ding nog steeds
@tijmen1314 жыл бұрын
@@Wasmachineman die van mij is op vakantie in Oostenrijk kapot gevallen :(
@BalboaBaggins4 жыл бұрын
Deel van een rouwverwerking is juist acceptatie dat de persoon is overleden, niet doen alsof hij/zij nog leeft.
@loulousxs4 жыл бұрын
Precies hebben we geen ruggengraat meer ofzo? Afstand doen van mensen hoort bij het leven. Iedereen maakt dat mee.
@beu92454 жыл бұрын
Mij lijkt dat ook nogal ongezond
@SojournerDidimus4 жыл бұрын
Ik zou het bijna (technologische) necromancy willen noemen.
@marioluigi79874 жыл бұрын
Ik denk dat je geen mening moet hebben over hoe een ander het verlies van zijn kind verwerkt, zelfs als je daar zelf ervaring mee hebt, maar ik gok dat dat niet eens t geval is. Genoeg andere zaken waar je over kan roepen hoe jij vindt dat t hoort.
@SuspiriaX4 жыл бұрын
Er is een transitiefase vanuit de schok naar de erkenning toe. Die fase kan je geleidelijker laten verlopen door nog een beetje te doen alsof diegene er nog is. Het is heel normaal dat er een beetje gepraat wordt tegen de dode, vooral voor de plechtigheid.
@jacobras4 жыл бұрын
Ook interessant om over na te denken: nu kon journalist Daniël Verlaan laatst een "top secret" meeting joinen en het werd meteen duidelijk dat de meetinglink + pincode was uitgelekt. Straks, gewoon met een vlag op de achtergrond en een filtertje over het gezicht, wordt dat een heel ander verhaal! "I'm sorry for being late, please continue"
@cornevangulik61664 жыл бұрын
De Amish zullen zich nu wel trots voelen dat ze hier niet mee hoeven te dealen. Maar aan de andere kant, hebben ze dit waarschijnlijk niet gezien.
@hendrikdependrik18914 жыл бұрын
Ik denk dat ze er juist vatbaar voor zijn. Er hoeft maar één boze ex-Amish te zijn die een complot op internet parkeert met deepfake bewijsmateriaal erbij en dan kunnen ze hun spullen wel inpakken. Houd je de tv buiten de deur, dan zie je niet wat de buitenwereld met je van plan is, maar laat je iedereen (wel stiekem) tv kijken in de hoop goed geïnformeerd te zijn, dan leidt dit tot het geleidelijk vervagen van de Amish-cultuur of een abrupt einde, omdat de Amish tegen elkaar opgezet kunnen worden.
@goldygoldy75434 жыл бұрын
Ze mogen géén tv kijken!
@oosterhuishr4 жыл бұрын
Amish zijn minder gek dan je denkt...
@megadracosaurus3 жыл бұрын
Vroeg me af hoe het nu met de Amish gaat in deze tijd van corona en complotten.
@rationalindy50454 жыл бұрын
Kunnen we even respect tonen voor de vriendin van Arjen die speciaal voor deze aflevering naar de redactie is gegaan om "Hey!" te roepen.
@claymountain13004 жыл бұрын
Vgm werkt ze bij de redactie
@annagroenewoud49724 жыл бұрын
Klopt, zij maakt de plaatjes die elke aflevering in het scherm komen
@vincentkruithof46584 жыл бұрын
Ik denk ook dat zij de deepfake heeft uitgevonden toen ze arjen ontmoette
@alan3djoseph4 жыл бұрын
Zij IS de redactie
@user-yn4fq3ei5b4 жыл бұрын
Ze werkt bij het programma, zie yt kanaal "10e"
@navin_ds4 жыл бұрын
Black Mirror "Be right back (S2E1)" joined the chat
@basr83854 жыл бұрын
Welke was dit ookalweer?
@navin_ds4 жыл бұрын
@@basr8385 Season 2 episode 1 waar haar man overlijdt in een verkeersongeluk en ze een lichaam besteld met zijn uiterlijk en innerlijk
@kokai834 жыл бұрын
Dacht precies hetzelfde.....
@KijkNiet4 жыл бұрын
Dacht exact hetzelfde
@kentaro83354 жыл бұрын
Gvd dacht er gelijk aan en zag jouw comment.
@michiel86254 жыл бұрын
Plot twist: Arjen Lubach in deze video is eigenlijk ook een deepfake
@sevenprovinces4 жыл бұрын
Dat zeg jij nou wel heel leuk, maar hoe ben ik zeker dat jij een erudiete, waarheid vertellende penguin bent?
@marukie4 жыл бұрын
T zal me niks verbazen als hij volgende week met een filmpje komt waarin hij vertelt dat die hele zondag met lubach gedeepfaked is😂
@RQLemsjee4 жыл бұрын
@@sevenprovinces niet fucken met Ubuntu
@abbb38384 жыл бұрын
Haha dacht hetzelfde
@MusicMyLifeForLife4 жыл бұрын
Ik dacht de hele video al dat het lichaam van Tex de wit was.
@michielvandervlpen8644 жыл бұрын
Bedankt Arjen, nu heb ik weer iets extra om bang over te zijn
@gieter20544 жыл бұрын
13:56 waarom doen we alsof dit oké is? Dit is het ziekste en ongezondste idee wat ik ooit heb gehoord.
@aronkoppe4 жыл бұрын
Black Mirror S1A2
@gabberhenk4974 жыл бұрын
Ja dit ook nog helpen met een rouwprocess noemen ziek.
@VulturHS4 жыл бұрын
Had eigenlijk verwacht dat aan het einde blijkt dat het Tex de Wit is.
@vegannegan96524 жыл бұрын
Mijn favoriete karakter in ZML
@RiqueDropsBanter4 жыл бұрын
Die moet de taak van het publiek opvangen :P
@bradleyooijendijk85094 жыл бұрын
Dit is gewoon Eng...
@Pepijnisdebom4 жыл бұрын
ja dat vind ik ook. Iedereen kan nu gewoon van alles claimen en daar zelf bewijs bij fabriceren. Of het nou succesvol is of niet, het zal onze denkwijze, en dus ons gedrag, gaan beïnvloeden
@danivolente68554 жыл бұрын
En waanzinnig!
@bradleyooijendijk85094 жыл бұрын
De Toekomst is hier
@Melinmingle4 жыл бұрын
Vroeger diende foto's als bewijs... toen kwamen de photoshoppers maar hadden we altijd nog video
@vegannegan96524 жыл бұрын
Beste wat je nu kan doen is stoppen met voortplanten. Dit soort ontwikkelingen worden alleen maar erger en daarnaast krijgen we enorme klimaat problemen. De wereld op dit moment is niet geschikt om nieuwe mensen in te brengen.
@anniemal80304 жыл бұрын
Eerlijk vind ik de netflix versie realistischer, de deepfake lijkt alsof er zo’n gladde filter overheen zit die tiener meisjes gebruiken om puistjes en oneffenheden weg te werken
@MV-sn1kf4 жыл бұрын
Waar je ook rekening mee moet houden: voor de deepfake zijn de bewerkte beelden als basis gebruikt en niet de originele beelden. Daardoor is het niet echt een eerlijke vergelijking.
@kedrednael4 жыл бұрын
@@MV-sn1kf Ja dat was dubbel moeilijk. Had leuk geweest als de youtuber de oude Robert De Niro er weer terug in had gezet
@codmw2nooblet4 жыл бұрын
Maar kijk die ogen bij de netflix versie, alsof ie aan de drugs zit
@SiegfriedDeniz4 жыл бұрын
echt, ik vond die youtube versie beter hoor , veel smoother, deed me denken aan deNiro uit casino, ook de ogen ja, wat ik net las in een comment hier, net of ie aan de dope was. Ik ga nog een keer kiekn
@SiegfriedDeniz4 жыл бұрын
ja, toch de youtuber hoor!
@edinvanhamburg4 жыл бұрын
Echt genoten hiervan! Mindcontrol op zo'n level dit. Echt geniaal.
@JohnSmith-wj2wd4 жыл бұрын
Ik was ooit in discussie met mensen die het duidelijke verschil niet zagen tussen echte drone beelden en het spelletje Flight Simulator X. Dus ik ben er heilig van overtuigd dat je het gros van de mensheid makkelijk voor de gek kan houden met Deep Fakes. Zelfs als ze slecht zijn.
@Beriorn4 жыл бұрын
Arjen zat gewoon thuis toen dit werd opgenopen, het was allemaal een deepfake gemaakt door Willem-Alexander die wel eens een uitstapje wilde maken omdat hij niet meer op vakantie mocht. Op het einde viel de deepfake uit, waarschijnlijk waren de batterijen leeg.
@howtodisappearcompletely6274 жыл бұрын
Besef dat er ook nog mensen in die zaal zitten😂
@JasperPijfers4 жыл бұрын
@@howtodisappearcompletely627 er zaten geen mensen in de zaal
@howtodisappearcompletely6274 жыл бұрын
@@JasperPijfers oja hij zit nu natuurlijk in zn kantoor
@lukasthewarrior33594 жыл бұрын
Ik vraag me dus af of die vrouw van de NOS wel echt is of gewoon een deepfake?
@lukasthewarrior33594 жыл бұрын
.....
@boas_4 жыл бұрын
.....
@camtothemax4 жыл бұрын
@V held
@Lalalal-yg6ih3 жыл бұрын
Heel NOS
@Timitas_plays4 жыл бұрын
Arjen stop je echt na volgend seizoen met zondag met lubach? Jij bent mijn nieuwsbron over dingen die soms iets achter blijven liggen. Ik zou het echt geweldig vinden als je door zou gaan je doet het geweldig :)
@sheikranl39494 жыл бұрын
Nieuwsuur heeft meestal ook goede rapportages, maar daar wordt het niet zo leuk gepresenteerd als hier
@Timitas_plays4 жыл бұрын
@@sheikranl3949 ja precies dat is net het ding Haha
@pim70634 жыл бұрын
Goed dat hier aandacht voor is, een belangrijk punt is wel dat de zelfde techniek die gebruikt wordt om deepfakes te genereren ook kan worden gebruikt om deze te detecteren. Een video / plaatje / geluidsfragment kan dus in principe ook worden gecontroleerd door mensen zelf of instanties of deze fake is of niet.
@Draregkoeliekalie4 жыл бұрын
Nog wel ja .
@Ludifant4 жыл бұрын
Is alleen in de praktijk niet te doen. Nu zijn deep fakes nog relatief zeldzaam, maar het betekent ook, dat ik kan beeldbellen met het gezicht van Jack Sparrow. Dat zie ik het komende jaar wel als app verschijnen. Pak je favoriete scene uit een film en dat is genoeg info..
@Trekfolie4 жыл бұрын
Trump leek niet echt, hij was niet oranje.
@fsfbart4 жыл бұрын
Trump is 365 dagen per jaar oranje supporter
@MokokerMovies4 жыл бұрын
Zoek dat kanaal Sassy Justice is op die video is geweldig, maker van South Park.
@crushert4 жыл бұрын
Dat komt omdat computers snappen hoe een gezicht eruit hoort te zien.
@YvieT814 жыл бұрын
@@crushert 🤣
@yuniq9gaming9304 жыл бұрын
idi
@tim79tim4 жыл бұрын
Eventuele oplossing: belangrijke videos voorzien van een digitale stempel zodat authenticiteit kan worden gewaarborgd, zoals b.v. bij een digitale polis
@addsreclame32644 жыл бұрын
En hoe voorkom je dat ze die stempel niet gewoon copy pasten
@Jorissoris4 жыл бұрын
@@addsreclame3264 De stempel zou een digitale handtekening over de hash van het videobeeld kunnen bevatten
@odw324 жыл бұрын
Je zou inderdaad zeker wel een digitale signature mee kunnen geven met fotos & videos, samen met een goede browser understeuning zou dat kunnen werken. Net als een "slotje" voor beveiliging van websites, zou je onder een video een digitaal certificaat kunnen tonen waarin aangegeven wordt door wie de echtheid van de video wordt gewaarborgd -- bijvoorbeeld NOS, of de afgebeelde persoon, of de eigenaar van een KZbin kanaal. Dan kan je nog steeds voor de gek gehouden worden door de ondertekenaar, maar weet je in ieder geval dat niemand daar na er nog aan gesleuteld heeft. Bij een interviewer kan bijvoorbeeld zowel de geinterviewde als de nieuwszender ondertekenen, zodat je weet dat beiden akkoord zijn met de weergave.
@fennadikketetten19904 жыл бұрын
@@odw32 Maar als je dan iemand hebt gefilmd die iets deed of zei wat niet door de beugel kan of waar deze niet voor uit wil komen gaat die persoon natuurlijk nooit tekenen en kun je nooit op die manier bewijzen dat het diegene was Op zich wel een goed idee waar ik wel eens wat over na heb zitten denken. Ik dat er een soort van chain moet onstaan waarbij content die wordt gebruikt binnen andere content ook weer kan worden gesigneerd en herleid naar de daadwerkelijke bron. Wellicht dat camera's een soort DRM kunnen krijgen waarbij de complete array van onderdelen is gesigneerd, van lens tot sensor. Als er dan iets aan de camera wordt vervangen vervalt de DRM en is de camera niet meer "geldig". Als er dan een filmpje wordt gepost kan deze worden herleid naar de camera die het heeft gemaakt en kan uiteindelijk de echtheid worden bepaald. Vraag me alleen af of je niet simpelweg een beeldscherm kunt filmen waarmee dat valt te omzeilen, of dat dit te detecteren is..
@odw324 жыл бұрын
@@fennadikketetten1990 Inderdaad kleine kans dat een minister tekent voor een kritisch undercover stuk van Zembla of Nieuwsuur over een fraude/schandaal -- maar de kijker kan dan wel zeggen: Ik vertrouw deze omroep en journalist. Als iemand anders dan vervolgens zeer selectief knipt & plakt of AI gebruikt om beelden te wijzigen, weet de kijker in ieder geval dat het afwijkt van het origineel. Uiteindelijk is waarheid altijd lastig weer te leggen met een camera, zelfs de meest "neutrale" nieuwsbronnen maken ook keuzes in hun selectie van wat "nieuwswaardig" is, en welke zinnen ze uit een interview knippen. Wiens berichtgeving je vertrouwt is uiteindelijk aan jezelf... maar ik denk inderdaad dat een "chain of custody" voor videos/fotos wel heel erg belangrijk wordt.
@lukasthewarrior33594 жыл бұрын
Jammer dat het seizoen alweer voorbij is. Ik kijk nu al uit naar de verkiezingen in 2021 want dan is er weer een ZML seizoen Ik zie jullie dan allemaal!
@David-25014 жыл бұрын
Ik dacht dat Lubach ging stoppen? >_>
@merbaumshador75684 жыл бұрын
Dus goede betrouwbare journalistiek wordt nog weer belangrijker.
@abbb38384 жыл бұрын
Die is al jaren kwijt.......
@nieko60944 жыл бұрын
@@abbb3838 fabeltjesfuik incoming
@nieko60944 жыл бұрын
@@abbb3838 ik gok dat jij ook vrij gevoelig gaat zijn voor de deep fake
@chilanya4 жыл бұрын
terug naar de dorpsomroeper
@aramisaac42924 жыл бұрын
En een goed functionerende democratie. In NL zullen we wss minder problemen hiermee krijgen dan in India ofzo
@remyvb34944 жыл бұрын
Dit is het beste wat de mensheid nu kan overkomen. Alles op een scherm kan nep zijn en is daardoor onbetrouwbaar. Dit zal ons forceren om belangrijke dingen weer face to face te doen. Misschien worden we met zijn allen weer een beetje socialer.
@wouterdegroot50604 жыл бұрын
Deze wereld is echt naar de knoppen
@Machielovic4 жыл бұрын
En wie zit er achter de knoppen?
@Raadpensionaris4 жыл бұрын
@@Machielovic de illuminatie natuurlijk
@larss78774 жыл бұрын
@@Machielovic de elite. HELP, DE ELITE GAAT ONS VERMOORDEN. JAY Z, BEYONCÉ, KANYE WEST GAAN ONS VERMOORDEN VIA HET CORONA VACCIN VAN BILL GATES
@ThemeParkVex4 жыл бұрын
@@larss7877 ik denk dat zij ons eerder gaan vermoorden door hun muziek.
@Katamoii4 жыл бұрын
Annuleer heel de kutzooi maar
@soul154310 ай бұрын
3 jaar later, deze aflevering is gebruikt voor AI of Kamerlid 😂😂
@jojojorisjhjosef4 жыл бұрын
15:01 Computers kunnen min of meer wel nep van echt onderscheiden als wij dat niet meer kunnen, dat soort learning heet 'Generative adversarial network' waarbij twee AI's elkaars werk checken. Dus bijvoorbeeld het ene AI maakt een nep gezicht en het andere AI beoordeeld of het een nep gezicht is of niet. De twee vechtende AI's maken elkaar slimmer en leren allerlei evenhard. Alleen op willekeurige momenten zal het ene AI slimmer zijn dan de andere, maar dat heft zich tijdens het leren weer op want ze hebben elkaar nodig om te groeien.
@Ludifant4 жыл бұрын
Ja, die comment van Arjen, dat de adverasry er altijd achteraan hobbelt was onzin.
@RvEijndhoven4 жыл бұрын
Klopt wel en niet. Klopt wel dat wanneer je twee neurale netwerken tegenover elkaar zet dat dan degene die controleert of het gezicht echt is/lijkt dan prima bij blijft bij het andere neurale netwerk. Klopt niet omdat dat neurale netwerk dat controleert of het een echt gezicht is dat alleen kan herkennen bij gezichten die gemaakt zijn door diens directe tegenstander, maar gezichten gemaakt door een ander neuraal netwerk zal ie doorgaans als 'echt' bestempellen.
@beterverwijderen4 жыл бұрын
Plot twist: toen gert jan segers had gezegd dat hij 7 jaar in Egypte had gewoond was het gewoon een deep fake
@potverdorie23864 жыл бұрын
Dat betekent dat Lubach gewoon door kan gaan na dit seizoen 🤗 Lubach thuis onderuit op de bank en wij ook, als we denken naar hem te kijken 😜
@nigeldeleeuw30004 жыл бұрын
Dit is echt geweldig voor films ofzo als acteurs bijvoorbeeld overleden zijn (RIP Chadwick Boseman) waardoor die films zo gemaakt kunnen worden dat de persoon die die acteur speelt overlijdt, met iemand anders en zijn hoofd erop plakken
@LauwyDays4 жыл бұрын
Dit kan idd flink uit de hand lopen
@lynic-00914 жыл бұрын
@@Peter-ew2gq Zozo slim mannetje
@acos214 жыл бұрын
Als beeld en audio straks geen waarde meer heeft dan zijn we weer 100 jaar terug in de tijd.
@Schaapievuur4 жыл бұрын
Goed om te zien dat Lubach weer ideeën heeft, China heeft hem vorige week echt getroffen!
@bertvanbeterbed97024 жыл бұрын
Zeker een enge ontwikkeling. Hopelijk (best case-scenario) zal dit uiteindelijk leiden tot een afkoppeling tussen nieuws en politiek via social media. Dit zal helpen met het tegengaan van nepnieuws en ook verlichting brengen met de invloed van celebrities en influencers in politieke kwesties.
@joostverra91304 жыл бұрын
Leuk tijdperk gaan we in, feiten bestaan straks echt niet meer... Ben bang dat er veel ellende van gaat komen.
@aramisaac42924 жыл бұрын
Tis gwn een nieuwe vorm van propaganda. Net zoals bij alle andere nieuwe stukken tech zal het een paar jaar duren voor we eraan wennen, daarna komt het wel goed. NL heeft een sterk en betrouwbaar medialandschap, dus zolang je niet op sociale media je nieuws volgt maar via kwaliteitskranten, NOS en RTL zal het goed komen.
@joppippoj4 жыл бұрын
@@aramisaac4292 ik heb het idee dat de groep mensen die zijn 'nieuws' van social media haalt steeds groter wordt. een groep die zelfs zo'n haat op het betrouwbare medialandschap richt dat de nos de logo's van zijn voertuigen moet verwijderen. en kijk naar amerika, waar het binnen enkele jaren is gelukt om miljoenen mensen te misleiden.
@jamesdiscord36474 жыл бұрын
@@joppippoj "RTL, NOS, NU, TELEGRAAF" verspreiden allemaal desinformatie. Zij zijn niet vies van het verdraaien van context, en ook niet van het manipuleren van beeldmateriaal. Het enigste wat zij doen tegenwoordig is beeldvorming, zij publiceren dan ook allemaal ongeveer de zelfde artikelen.
@joppippoj4 жыл бұрын
@@jamesdiscord3647 zonder voorbeelden geloof ik je niet. ga naar de nos-site, rechts staan de 12 laatste artikelen, welke hiervan verspreiden desinformatie?
@acidquotient63384 жыл бұрын
@delonix regiabij de Amerikaanse verkiezingen waren ze live in een pro-biden supporters groep aan het interviewen, hoezo niet ter plekke? Oja, het is goed om van verschillende bronnen informatie te krijgen, waaronder GEEN SOCIAL MEDIA, INTERNET FORUMS, FORUM VOOR DEMOCRATIE NIEUWS, TRUMP, POETIN, KIM-JONG-UN, ALLEMAAL ZENDERS VAN MENSEN ZELF (NIET COMMERCIËLE ZENDERS, DUS GEEN ZENDERS DIE NIET VAN EEN BEDRIJF ZIJN), WIKIPEDIA, EIGENLIJK ALLES VAN HET INTERNET, ook sites van NOS zelf, want soms kan je op een 'Namaak site' terecht komen en verspreiden nepnieuws, dit waren voorbeelden waar je je INFORMATIE NIET vandaan moet halen. Nu komt informatie waar je het wel van af moet halen: NOS, RTL, SCHOOL, AD, TELEGRAAF, HET PAROOL,
@mmob31094 жыл бұрын
Op politiek niveau is dit onvermijdbaar, maar op persoonlijk niveau kan dit enorm tegengehouden worden. De AI(computer) heeft een gezicht nodig(voor training en gezichtsherkenning), dus als je iemand bent die heel veel foto's heeft op Social media, is de kans groter dat je een potentieel slachtoffer bent. Maar dit alles is natuurlijk onvermijdbaar in deze era waar iedereen MOET delen hoe die er tijdens de trip naar de supermarkt uitzag.
@niels76214 жыл бұрын
Worden ook veel goede dingen mee gedaan, denk maar aan DLSS 2.0 Helemaal top
@bomdoboy4 жыл бұрын
Dit is gewoon een samenvatting van de Sam Harris Podcast The information Apocalypse. Zelfs de termen gemeenschappelijke realiteit.
@chrisvanrooij12984 жыл бұрын
Stel je voor waar we over 40 jaar zijn, mind blown als je hier te lang over na denkt
@damienmichiels41194 жыл бұрын
Ik vind het beangstigend om mij voor te stellen hoe we er over 40 jaar bij zitten
@SpookyKillerz4 жыл бұрын
@@damienmichiels4119 wat een doom denken man. Komt allemaal goed. Dadelijk heb je gwn een AI die deepfakes kan herkennen.
@beam6644 жыл бұрын
haha geweldige afleveringen, humor was echt on point
@lukasthewarrior33594 жыл бұрын
3:10 tutorial over hoe je dit moet doen in 5 stappen! *Stap 1* zoek een afbeelding van Kim Holland op op je computer. *Stap 2* Print hem uit. *Stap 3* Loop naar je printer en pak de foto. *Stap 4* Knip de foto uit en plak hem op een houten stokje. *Stap 5* Doe er een elastiekje omheen en doe hem om je hoofd en klaar is Kees!
@lukasthewarrior33594 жыл бұрын
Houten stokje is optioneel
@rjfaber19914 жыл бұрын
Als je toch alleen maar een foto gebruikt hoef je jezelf echt niet te beperken tot de dunne zaaiiing aan porno-actrices uit Nederland, hoor... Dan kun je er niet zo goed eentje uit het buitenland pakken, eentje die er ook nog een klein beetje knap uitziet.
@Tess402 Жыл бұрын
2 jaar later en die stem deep fake is extreem goed geworden
@StepwaveMusic4 жыл бұрын
Het lijkt me goed om te zeggen dat computers niet unaniem geleerd hebben wat een gezicht is. Eigenlijk gaat het hier over leeralgoritmes (deep-learning, neural networks) die door veel onderzoekt geperfectioneerd zijn en daardoor beter werken. Heel simpel is AI gewoon beter geworden, en kunnen computers met de juiste programma's dus beter leren.
@Ludifant4 жыл бұрын
En de meeste informatie uit dit programma is ongeveer 2 jaar oud. Ondertussen kunnen we met AI´s al door je muur kijken op je wifi-reflectie en is Elon Musk bezig met het verrijken van mensen met ML door middel van zijn wizard´s hat.
@creepykoala72553 жыл бұрын
"Bier?" - Koning Willem-Alexander
@benbelgam4 жыл бұрын
Psychiatrisch patiënt met schizo-affectieve stoornis en bijhorende hallucinaties hier. Welcome to my world, all.
@STAR-LIGHT.11114 жыл бұрын
Precies wat ik ook dacht tijdens de uitzending, het is net mijn psychotische episode 😳
@benbelgam4 жыл бұрын
@@STAR-LIGHT.1111 Zoals ik al eens zeg: Het is niet omdat het technisch gezien mogelijk is dat je het ook moet doen … Dikke bal hier van die IT-ers hoor.
@mauijttewaal4 жыл бұрын
Dank!
@tonyd33414 жыл бұрын
Congratulations you've found the RIGHT PLACE HERE;-))
@freekhoek42534 жыл бұрын
Als de groei van kunstmatige intelligentie zo doorgaat ben ik benieuwd hoe we er bijzitten over 50 jaar.
@JolanRensen4 жыл бұрын
Google en wat andere bedrijven waren volgens mij bezig met een standaard voor dit soort dingen. Een soort signature die kan laten zien dat een foto of video vanaf het maken niet meer veranderd is als het uiteindelijk afgespeeld wordt. Mocht hij namelijk aangepast worden, ook al is het maar 1 pixel, dan klopt de signature niet meer en kan je dus zien dat ermee geklooid is. Lijkt mij een goede oplossing!
@rjfaber19914 жыл бұрын
Dat gaat op zichzelf niet de oplossing zijn, maar het gaat al een stuk de goede kant op, en uiteindelijk zal zoiets wel de oplossing moeten zijn.
@BasBastiaansen4 жыл бұрын
cryptografie is de oplossing hiervoor inderdaad, de originele uploader/eigenaar van de video kan het ondertekenen met een digitale handtekening (op dezelfde manier als hoe transacties van cryptocurrencies beveiligt zijn) en daarmee kan iedereen valideren of de video van bijvoorbeeld Mark Rutte echt van Mark Rutte is, zo niet, dan niet vertrouwen!
@JolanRensen4 жыл бұрын
@@BasBastiaansen exact! Uiteraard is het dan aan websites/tv om een logootje te laten zien dat iets onbewerkt is of geverifieerd met de officiële eigenaar. In mijn optiek de beste oplossing. Bonustoepassing: modellenbusiness kan een ook gecheckt worden op bewerkte foto's met deze manier. Kan helpen voorkomen dat mensen vervormde zelfbeelden krijgen door onrealistische idealen.
@MissJemen4 жыл бұрын
Kan niet lekker inkomen deze week en bedenk me nu pas waar dat door komt... Geen ZML afgelopen zondag!
@ucav60464 жыл бұрын
Niet computers houden ons voor de gek, maar de mensen die de computers bedienen. We doen het altijd zelf ....
@ramonfrancois93064 жыл бұрын
Dat is dus de grap. Kunstmatige intelligentie bestaat al, dus in principe zijn er al computers die niet meer gediend hoeven te worden. Misschien is het nog niet zo vergevorderd, maar als wij deze lijn in de toekomst doortrekken heb je in de toekomst gewoon computers die geheel zelfstandig functioneren
@stan-woods4 жыл бұрын
Heel goed dat je dit uitlegt! 👍
@chilanya4 жыл бұрын
alweer een reden waarom ik niet graag op de foto/video ga
@Luciferroy14 жыл бұрын
Ey lubag tnks da was wel ff informatief intressant
@Leonnetje.4 жыл бұрын
Ik stel voor. Terug naar 2010
@lorenzosernaprins50022 жыл бұрын
Hele goeie video, dit maakt mensen bewuster
@moviemakersnlgaming47534 жыл бұрын
1:35 ik ga stuk😅😂😂😂
@7th808s4 жыл бұрын
Ik vind dit eigenlijk een goede ontwikkeling. Iedereen weet nu dat je niks op social media serieus kan nemen. De twijfel is weg. Dus ik hoop dat dit ervoor gaat zorgen dat fake news onmogelijk wordt, omdat niemand toch meer gelooft wat op social media wordt gepost, en dat men alleen nog serieus neemt wat eerst door meerdere mensen gecontroleerd is zoals de krant of het nieuws.
@thekingoflordagames35174 жыл бұрын
Al die tijd presenteerd de koning dus gewoon al ZML
@donijvandoorn9694 жыл бұрын
Door het toepassen van Benford's Law is te achterhalen of een foto/filmpje echt is - toch? Althans dat meen ik me te herinneren van de docuserie 'Connected' (Netflix)
@glenn.grispen69464 жыл бұрын
Met dank aan dat mega server ding in Nederland ♡
@Timbotelli4 жыл бұрын
Komt er nou wel of geen volgend seizoen?
@corneknapen67174 жыл бұрын
Dat einde als Willem Alexander was echt goed🤣🤣
@BoostedMusicOfficial4 жыл бұрын
DAME DA NE... Dame yo... Dame na no yo.. Anta ga suki de suki sugite Dore dake tsuyoi osake de mo yugemanai omoide ga baka mitai.. Geen dank.
@Tinky1rs4 жыл бұрын
? Mijn romanji is niet goed genoeg hiervoor. Yugemanai? Bedoel je yumeganai (夢がない)?
@silhudepol69394 жыл бұрын
Held
@bharatmadho37424 жыл бұрын
prachtig dit
@yangj084 жыл бұрын
@@Tinky1rs "Yugamanai" (歪まない)
@mafketeltje19884 жыл бұрын
Als onzin je waarheid wordt en je waarheid onzin....benieuwd hoe we onze normen en waarden over 20 jaar dan reflecteren op maatschappelijke dingen als alles eigenlijk fake kan zijn behalve de dingen die je zelf in real life ziet ...
@koffiegast4 жыл бұрын
In de media is het ook nu al lekker makkelijk om dingen uit hun context te draaien en lekker te knippen en plakken naar gelieve. De vraag is... hoe maak je dan iets wel betrouwbaars?
@chilanya4 жыл бұрын
ehm, er zijn nog andere media dan geluid en video. bijvoorbeeld een (online) krant.
@RaphaGamerNL4 жыл бұрын
@@chilanya In een krant kan je toch net zo goed onjuiste informatie verspreiden?
@chilanya4 жыл бұрын
@@RaphaGamerNL een goede krant gebruikt journalisten die de informatie die erin komt, zorgvuldig controleren.
@kvandevelde36874 жыл бұрын
Dit is het meest dystopische nieuws dat ik ooit heb gehoord
@youkzappeij2500 Жыл бұрын
2023 en de stemmen van de presidenten spelen minecraft
@trdrenth4 жыл бұрын
Vervelend voor alle 'media-haters', want journalistiek wordt belangrijker dan ooit.
@martijn60694 жыл бұрын
8:28 toch jammer...
@smartrecovery58583 жыл бұрын
Beste Lubach Deepfakes moet een opvolging krijgen in het binnenkort informeren wat er gaande is mag zeker een deel 2 zien
@creepykoala72554 жыл бұрын
15:50 Maar ja we moeten allemaal ook wel een beetje kalm blijven. Daar drinken we op Willie!
@j.i.j.90674 жыл бұрын
Simulacra and Simulation. Een boek van een Franse filosoof uit 1984 die dit principe voorspelde. Jammer alleen dat je niet kan weten welke filosofische gedachten wanneer nou echt van toepassing zullen zijn.
@Ludifant4 жыл бұрын
Maar gelukkig kunnen we dat door een AI laten uitzoeken :)
@mika26664 жыл бұрын
Als iemand ooit zich af vraagt wat je kunt doen met wiskunde, nou dit dus, machine learning.
@mika26664 жыл бұрын
Spoiler alert: het is moeilijk
@MM-tf4xt4 жыл бұрын
Je hoeft niet zo ver te gaan om de nut van wiskunde aan eerste klassers uit te leggen. Insta, yt, smartphones, economie, onze huizen enzovoort zouden niet bestaan/heel anders zijn als op een of ander manier er geen wiskunde was
@tabularasa06064 жыл бұрын
@@mika2666 Nee hoor, het is helemaal niet moeilijk.
@ramonfrancois93064 жыл бұрын
@@MM-tf4xt In principe bestaat bijna alles in ons dagelijks leven dat ook maar een beetje met techniek te maken heeft door wiskunde/natuurkunde
@lm56084 жыл бұрын
Daten?
@BasStuurwold4 жыл бұрын
Op het einde zeg je "Er begint nu een hele rare tijd, waarin computers ons voor de gek kunnen houden, en wij mensen nog niet weten hoe we daarmee om moeten gaan." Ik ben het volledig met je eens dat er nu een hele rare tijd aan zal gaan komen, maar we moeten wel in ons achterhoofd houden dat het nooit de computers zijn die ons voor gek gaan houden. Dit blijft uiteindelijk het werk van mensen zelf. Het zal nooit zo zijn dat een computer uit eigen zinnen een deepfakevideo gaat maken. Belangrijk detail.
@tiagogreeve6854 жыл бұрын
Tenzij je een computer maakt die uit eigen zinnen een deepfakevideo gaat maken :) zo kan je ook weer computers maken die computers maken die deepfakevideos maken
@BasStuurwold4 жыл бұрын
@@tiagogreeve685 Dit blijft in opdracht van de mensen.
@wout90224 жыл бұрын
@@tiagogreeve685 Precies, maar het begint wel bij ons
@tiagogreeve6854 жыл бұрын
Maar het is punt is dat je een computer zo kan programmeren dat het dingen kan gaan doen die jij niet voorzien had
@wout90224 жыл бұрын
@@tiagogreeve685 ja zeker waar. Vrij eng.
@JCD874 жыл бұрын
Vreemd dat Arjen niet even aanhaalt dat er een serie op Netflix staat, genaamd Black Mirror. Die al deze facetten tot in zeer emotioneel vlak aankaart. Dingen die je niet kan bedenken, maar wel weer hoe social media de wereld veranderd heeft. Bijv. je stelt niks voor als je geen volgers hebt op "instagram" en daardoor zakt je score en praat niemand met je op straat. Omdat dit nu nog gek lijkt, maar het begint al een beetje te borrelen.
@xPureL4 жыл бұрын
Onwijs gevaarlijk,.... hopen dat blockchain technieken snel ontwikkeld gaan worden om dit soort beelden te scheiden van de werkelijkheid.
@cornevangulik61664 жыл бұрын
Wel makkelijk voor APA vermelding als ik me eigen bronnen kan maken.
@RealLuckyStar4 жыл бұрын
Ik weet dat het super kwalitatief uitermate teleurstellend is dat er geen publiek bij is, maar dat gegrinnik op de achtergrond is gelukkig ook wel vermakelijk 😂😂😂 Ik kan niet wachten tot volgend seizoen!
@stenbodewes67334 жыл бұрын
15:58 enge flex
@Esyr334 жыл бұрын
Eens in het debat voor een aantal maanden, nooit meer iets over horen daarna en niemand die er wat aan doet.
@wglvd444 жыл бұрын
Dit gaat er ook voor zorgen dat bronnen nog veel belangrijker worden. Je zult straks eerst de bron van een video moeten achterhalen voordat je er een oordeel over kan geven.
@MM-tf4xt4 жыл бұрын
Nieuwe kernvak op de basisscholen en erna? Bronnenkunde xD. Kan beter bij het vak nederlands anders hahaha
@KougaJ74 жыл бұрын
Wederom een ontwikkeling waar wij totaal niet klaar voor zijn, van de laagste lagen in onze samenleving, tot in de hoogste hoogtes van onze regering.
@dutchdoggo4 жыл бұрын
Terwijl 75% van de deepfakes iemand is die Baka Mitai "zingt" ofzo
@eeyorepiglet31314 жыл бұрын
Goeie aflevering van Black Mirror weer
@SanderTakens4 жыл бұрын
Analoog rocks! Papier gaat weer geld waard worden ;-)
@DutchDinosaur4 жыл бұрын
Maar printers?
@SanderTakens4 жыл бұрын
@@DutchDinosaur LOL! geheel waar. Waar word neps nieuws geboren?
@generalguilmon67194 жыл бұрын
Belangrijk onderwerp, hopelijk gaat de media er aan werken om dit goed aan te pakken. De waarheid is al een tijdje steeds minder helder aan het worden, dit is niet een stap in de goede richting
@wibbol10 ай бұрын
hee wacht eens even dat spelletje ken ik ergens van... hebben jullie dat nou van de Avondshow met Arjen Lubach gejat?
@dumpmuch4 жыл бұрын
Nu kan Gentstudent Uncensored beter functioneren dan ooit
@jeltehoekstra29524 жыл бұрын
Jammer dat je niet even iets korts heb gezegd over vocaloids toen je het had over dat computers stemmen gaan nadoen. Dat is gewoon software die kan zingen terwijl het niet eens heel nep klinkt. Ook in verschillende talen. Ondanks dit wel iemands stem als basis gebruikt.
@Ludifant4 жыл бұрын
Vocaloid is van 2000.. dus niet zo heel nieuw meer. Eigenlijk is het een beetje verouderde technologie.. Ingehaald door neurale netwerken. Sorry, Miku fans..
@jeltehoekstra29524 жыл бұрын
@@Ludifant geen idee hoe alles daar zich nu ontwikkeld. Al heel lang geen aandacht aan besteed. Weet ook niet goed hoe de software werkt om eerlijk te zijn. Verder wel coole technologie. Maar neuralle netwerken zijn nog lang niet goed consistent als die software lijkt me.
@PetervanRij4 жыл бұрын
check ook wav2lip, dat heeft zeker potentie
@ietsbram4 жыл бұрын
de memes zijn geweldig ent gaat de wereld vernietigen
@Ldokter053 жыл бұрын
Handig om een TED-Talk van over te nemen
@anoniem41364 жыл бұрын
Dat item van Donald Trump uit de vorige aflevering was ook een vorm van deep fake