I ten xntentacion po słowie Toronto xD szanuję, śmiechłem
@DomikDomik3 ай бұрын
"Nie boję się maszyny która przejdzie test Turinga, boje się takiej, która celowo go obleje" nie wiem skąd ten cytat :)
@arekasdasd3 ай бұрын
Cytat dobry.
@vytah3 ай бұрын
Jako pierwszy, to ktoś to napisał na Reddicie w 2016: "I'm not scared of a computer passing the turing test... I'm terrified of one that intentionally fails it."
@DomikDomik3 ай бұрын
@@vytah Dzięki. Pisałem z pamięci, a nie potrafiłem wygoglować źródła.
@michasekua46423 ай бұрын
W takim razie proponuję lepszy cytat. "Nie boję się maszyny, która celowo obleje test Turinga. Boję się takiej, która celowo go zda, chociaż mogłaby celowo oblać" :)) ... i można by tak w nieskończoność :D Więc w pewnym momencie nie będzie już różnicy jak się zachowa dana maszyna, jeśli możliwe wyniki są tylko dwa - bo i tak nie będziemy wiedzieli na którym" poziomie przekminy" jest maszyna.
@DomikDomik3 ай бұрын
@@michasekua4642 Tak i nie. Faktycznie można taką konstrukcję zdania budować na coraz to nowe poziomy gdzie zawsze będą dwa stany. Z drugiej strony akurat ten pierwszy cytat przekracza barierę psychologiczną, ponieważ w niej AI ma ukryte zamiary. Czyli boimy się maszyny, która zachowa się jak człowiek. Trochę się ludzkość przegląda w zjawisku AI, w tym powiedzeniu.
@PiotrBiałecki-v2s3 ай бұрын
"Ułożenie", dosłowne tłumaczenie jest ok, tak jak mówi się że pies jest dobrze ułożon y. Albo negacja, czyli: ty masz w głowie nie poukładane.
@specto12 ай бұрын
Bardzo ciekawy wykład, komentarz dla zasięgu
@yournicknamehere3 ай бұрын
Jeśli przełożyliśmy nasz ludzki układ nagrody na AI, to AI zostanie ćpunem XD
@FgyfdHjhcf3 ай бұрын
System nagrody ma zapobiegac niewłasciwemu wydatkowaniu energii ai ma to w poważaniu jako że ma nieograniczoną
@55sfg553 ай бұрын
@@FgyfdHjhcf zbytnio to upraszczasz i tym sposobem sprawiłeś że jakkolwiek rację możesz mieć jedynie pozornie...
@adirherr92793 ай бұрын
Szanuję Cię za propagowanie tej wiedzy. Cele instrumentalne, ich emergencja i fakt że pewne cele instrumentalne są zbieżne niezależnie od celu głównego. - O tym wszystkim mówił Robert Miles już 6 lat temu! Oglądałem te jego filmy a potem tłumaczyłem Wykopkom na czym to polega ale oni w większości woleli utrzymywać się w przekonaniu że biologiczny mózg jest jedynym tworem zdolnym do "definiowania sobie celów". No bo przecież im ewolucja celu nie narzuciła, oni są wolnymi ludźmi i zrobią to co uznają za słuszne xD.
@antonikowalcze94682 ай бұрын
Alignment w tym kontekście przetlumaczył bym jako dopasowanie do ludzkich celów
@Piorun13 ай бұрын
Super odcinek dzięki ❤
@jacekch37493 ай бұрын
To było w jakieś starej książce SF. Ludzkość budowała największy w historii superkomputer. Przełącznik uruchamiający go włączył najwybitniejszy naukowiec, któremu przypadł zaszczyt zadania superkomputerowi pierwszego pytania. Zadał je: „czy istnieje Bóg?”, superkomputer odpowiedział: „teraz już tak”. 🙂
@symonides6663 ай бұрын
👍👍👍 Łapka pod zasięg 👍👍👍
@arspoety33163 ай бұрын
Prawdziwa ludzka głupota zawsze pokona sztuczną inteligencję 🖖
@prawdziwyfull3 ай бұрын
dzięki za materiał
@PromptEngineer_ChromeExtension3 ай бұрын
doby materiał
@IwonkaTX2 ай бұрын
Zauważyłam, że w Twoim filmiku, w okolicach 13:31, na chwilę pojawiło się zdjęcie Pauliny Matysiak. Czy mógłbyś wyjaśnić, dlaczego to zdjęcie się tam znalazło? Jestem ciekawa, czy to miało jakieś specjalne znaczenie, czy może było przypadkiem. Z góry dziękuję za odpowiedź!
@arkadiuszkozub89173 ай бұрын
Biorąc po uwagę rzeczywiste znaczenie przetłumaczyłbym "alignment" jako "warunkowanie". Tylko ja nie jestem lingwistą, a jedynie w pracy korzystam z języka angielskiego :)
@pawekrasowski80603 ай бұрын
oni sami tego nie rozumieją, dziękuję rozwiałeś moje obawy
@dD.4Y3 ай бұрын
Do "alignment" najbliżej jest chyba znaczeniem "spolegliwości". Spolegliwy jest ktoś troskliwy, opiekuńczy, godny zaufania, na którym można polegać, na kim można się oprzeć. Być może nie jest to w 100% adekwatne, ale może nawet lepiej oddaje sens budowania czegoś takiego, jak AI. Chodzi o system, na którym można polegać, że robi to, czego się od niego oczekuje, zachowując NIEZMIENNIE W CZASIE I NIEZALEŻNE OD KONTEKSTU KRYTERIA DZIAŁANIA. Dokładna definicja tutaj (Wikipedia): pl.wikipedia.org/wiki/Spolegliwo%C5%9B%C4%87 Inaczej - Spolegliwa, znaczy GODNA ZAUFANIA. Termin ukuł profesor Kotarbiński i wprowadził w pracach na temat teorii skutecznego działania.
@b.k.28042 ай бұрын
👍
@Mac-UK3 ай бұрын
Z tym alignment w tym wypadku to bym to rozumial jako w pewien sposob 'wymuszona wspolpaca' lub 'zapewniona wspolpraca'. Mieszkam w UK 18 lat i sobie dukam po Essex, wiec o angielskim mam niewielkie pojecie w sensie lingwistycznym, niemniej z innych filmow to chyba najbardziej odzwierciedla ten zamysl 'alignment'. Tak tylko pisze, dla zasiegu ;)
@kubexiu3 ай бұрын
"alignment" to chyba dopasowanie np w geometrii. W wypadku A.I. byłoby takim współgraniem motywacji ludzkich z motywacjami sztucznej inteligencji.
@patrykp.37313 ай бұрын
@@kubexiudostosowanie też brzmi spoko
@Mac-UK3 ай бұрын
@@kubexiu Bardzo ciekawego slowa uzyles: motywacja. Ciekawe czy AI, nawet juz idac w Terminatory i Skynety, to to mialoby motywacje czy raczej agende, albo po prostu cel? No bo jest ten slynny przyklad, nie wiem czy to prawda, no ale biega po internetach, AI (nie wiem jaka, no zalozmy ze to nawet czlowiek wymyslil) ma zadanie: popraw byt ludzkosci na planecie, no i odpowiedz AI pada: ograniczyc populacje o 80% :) Daj jej teraz wladze :D
@kubexiu3 ай бұрын
@@Mac-UK popraw byt ludzkości z uwzględnieniem sprawiedliwej dystrybucji dóbr. Nadmierna populacja to tylko wymówka tego 1% ludzi, którzy mają zdecydowanie za wiele.
@lugi8542 ай бұрын
Moim zdaniem, ta "ostateczna AI" będzie zupełnie czymś innym niż wszyscy sobie wyobrażamy.
@pirogronianus3 ай бұрын
Jak ludzkość chce uczyć AI moralności, samemu mając z nią problem? 🙏🏻🤷
@inkwizytorpacyfista9443 ай бұрын
Problem z czym? Moralność jest tylko wynalazkiem, który został wynaleziony niezależnie i który jest elastyczny jak gacie
@pirogronianus3 ай бұрын
@@inkwizytorpacyfista944 Niezależnie od czego? A że jest elastyczny, to fakt. Ale problem jest taki, że często dominuje moralność Kalego.
@kubexiu3 ай бұрын
@@pirogronianus Ja właśnie liczę na to, że przynajmniej moralność jako cecha pomagająca w osiągnięciu dobra zbiorowego, społecznego zostanie w końcu nazwana i opisana przez AI. Może nie będzie to jakiś wzór na moralność, ale pełna definicja zjawiska, którego będzie można w pełni używać np do piętnowania polityków.
@pirogronianus3 ай бұрын
@@kubexiu O, tego i ja bym sobie życzył. Znając jednak płynność i złożoność zjawiska, jestem sceptyczny.
@michanosewicz94393 ай бұрын
I tutaj mamy błąd logiczny. Nie ludzkość a osoby które będą uczyć model. AI będzie na tyle moralne na ile dostanie dane wejściowe czy jest moralność. Ludzkość nie musi być moralna. Musi dobrze opisać czym jest moralność
@iiillliiillii97943 ай бұрын
13:31 To pani Matysiak?
@bekalsd3 ай бұрын
Ta pani MaTysiak powodów żeby jeździć ciapongiem
@shanky46883 ай бұрын
Może alignment jako ukierunkowanie skoro AI ma być zgodne z pewnymi standardami etycznymi to jest to swoisty kierunek, wektor do którego AI ma się starać przyrównać, zrównać, dążyć do zrówniania, odwzorowania tegoż wektora.
@MrGonzoles3 ай бұрын
jakby kiczowate captcha działało jak trzeba a nie klika się w nieskonczoność obrazki to może i by rozwiązała :p
@PKowalski20093 ай бұрын
Co to za budynek? Tak mi się skojarzyło z GCK, czyli KMO chyba teraz.
@vahistar3 ай бұрын
Zaczynamy słuchanie
@swinkatrampolinka51203 ай бұрын
Alignment rozumiem tutaj jako "wyrównanie moralności". Albo "wirtualna etyka".
@NINOXFILM3 ай бұрын
Komentarz dla zasięgów.
@asobielski42583 ай бұрын
Super.
@prozacworld273 ай бұрын
A ja jestem ciekaw jaki to model zegarka posiadasz. Pozdrawiam
@maxpayneau3 ай бұрын
To nie zegarek. To Smart Watch.
@prozacworld273 ай бұрын
@@maxpayneau smart watch to też zegarek
@lis65023 ай бұрын
4:38 alignment w tym kontekście raczej przetłumaczyłbym jako "dopasowanie, dostosowane" LLM do przewidywalnego zachowania.
@grzegorzsobodzian98023 ай бұрын
poczekajmy jeszcze z dziesięć lat...i się zdziwimy.
@kanaoniczym84993 ай бұрын
Alignment - socjalizacja? Jeśli w więzieniu mamy doczynienia z resocjalizacją to socjalizacja wydaje się być ok słowem
@kobold_ts3 ай бұрын
Gwoli ścisłości - to "oszukiwanie", o którym wspominasz około 10:20, nie wynika ze złych intencji modelu, tylko nie dość precyzyjnych założeń oraz wadliwych metod oceny. Rzecz w tym, że to nieuniknione, nasze założenie nigdy nie będą w 100% szczelne, a metody oceny i szkolenia zawsze pozostawią jakiś margines błędu. Im większa złożoność zadania - na przykład wspomniane przez Ciebie zarządzanie firmą czy państwem - tym większa szansa na nieprecyzyjne założenia i warunki dla modelu.
@_DUx3 ай бұрын
Wektor jest słowem którego szukasz. Zwektorowane AI ma konkretny cel narysowany strzałkami.
@Trixi-yf9dh2 ай бұрын
uzywam czasem chataGPT do konfigurowania serwera ARK. zapytałem o pewien konfig. ku mojemu zdziwieniu pierwszy raz wyskoczyły mi 2 podobne odpowiedzi i na końcu pytanie która jest moim zdaniem lepsza. barakowało odpowiedzi że obie propozycje konfigu są błedene:)
@playrz70233 ай бұрын
Ciekawe czasy mamy oj ciekawe
@Edvardius3 ай бұрын
To uczenie się AI żeby mieć lepsze wyniki kojarzy się totalnie z wykuwaniem na blachę bez zrozumienia do egzaminu. Tym sposobem AI również nauczy się jedynie zdawać egzaminy zamiast "zrozumieć" wykonywane czynności.
@dariuszseweryn40343 ай бұрын
Może „prawość AI”, podobnie jak człowiek prawy nie będzie próbował działać przeciwko drugiemu. Jeśli chodzi o czasownik, to „oprawić/uprawić/sprawić” by chyba pasowało, choć brzmi nieco archaicznie.
@piotrtorka96003 ай бұрын
Jak widać opisywane cechy działania sztucznej inteligencji są zbliżone do inteligencji ludzkiej, którą układamy i dostosowujemy od zawsze, więc metody Aligmentu dobrze znamy. I wiemy też, że zawsze jest prawdopodobieństwo załamania się inteligencji pod własnym ciężarem. Sposoby może będą inne, natomiast metody działania takie same (nagroda i kara). To co ma sztuczna inteligencja, a nie ma naturalna, to możliwość zapisu i odtworzenia. Np. jeśli jakiś model zacznie źle działać można go cofnąć w czasie i przeuczać jeszcze raz. Nie wieżę też, że człowiek pozwoli aby nie zostawić sobie "wyłącznika bezpieczeństwa" w razie gdy model będzie działał w sposób nieprzewidziany. AI to tylko metoda przetwarzania informacji, potrzebująca zasobów, które będą dostarczane przez człowieka i poddaję w dużą wątpliwość czy kiedykolwiek AI będzie w stanie pozyskać energię sama. Jednym słowem zagrożenie, że AI będzie działało na własną korzyść uważam, za mocno przerysowane. Natomiast zagrożenie, że my będziemy coraz mniej korzystać z naszej inteligencji za coraz bardziej realne i mówię tylko o efekcie masy, a nie poszczególnych jednostkach.
@b.k.28042 ай бұрын
A co, jeśli człowiek , ktory ma ta wajche do wyłaczania w swoim zasiegu, celowo bedzie zwlekal? Bo ma jakies wlasne cele np. maksymalozacja zyskiu, oglupienie ludzi czy nawet depopulacja
@piotrtorka96002 ай бұрын
@@b.k.2804 Zagrożenia związane z AI, wykorzystywanej jako narzędzie do realizacji ludzkich, szkodliwych społecznie planów, to dla mnie inna kategoria problemów. Nie wynikają one z tego, że AI może stać się samoświadome, ani ze sposobu, w jaki przetwarza informacje - co zrozumiałem jako główny przedmiot dyskusji. W tej interpretacji problemu zagrożenie już istnieje, ponieważ AI jest używane do analizy danych na wojnie, mając na celu zabijanie ludzi. Czy to jest słuszne? A może ludzi, których zabija są źli? Tak czy inaczej AI jest dalej narzędziem stworzonym przez człowieka, a więc nie odnawialnym. Zmierzam do tego, że AI może być niszczącą siłą dla żywych ludzi, ale nie dlatego, że algorytm sam w sobie jest zły, tylko dlatego, że to ludzie podjęli decyzję o takim zastosowaniu technologii. To ludzie nadali jej formę, przez uczenie i ciało przez zbudowanie dronów, którymi sterują lub wirtualnych pól walki na których wyznaczają miejsca uderzenia. AI będzie mogło się zbuntować dopiero jak będzie samo w stanie zbudować sobie ów ciało i zapewni sobie samo energię, a z tym (moim zdaniem) będzie jak z latającymi deskorolkami z "powrotu do przyszłości". Jesteśmy złudnie przekonani, że technologia może wszystko, a wysypujemy się na tym, że jesteśmy niedoskonali i sami siebie niszczymy przy pomocy tej technologii.
@dominikmalanek25253 ай бұрын
11:32 Co to za wstawianie treści podprogowych 😉
@WIKSiGUPWr3 ай бұрын
Reklama podprogowa jest u nas zakazana. Tylko że to raczej nie jest reklama.
@darekw19673 ай бұрын
AI miesza prawdlowe wyniki z blednymi. To jest najwieksze zagrozenie. Na razie wykrywamy gdzie sa bledy ale pozniej juz nie bedziemy w stanie tego zauwazyc.
@wernicki3 ай бұрын
"Alignment" w tym znaczeniu to bardziej pasuje przetłumaczyć na "cenzura" lub "profilowanie"
@lukasz.elantkowski3 ай бұрын
Alignment - zrównoważenie
@jurekszymanski48433 ай бұрын
Nie do końca rozumiem ten obrazek !3:31... to aluzja do pociągu jak mniemam....?
@dikamilo3 ай бұрын
Alignment - ułożenie, w świecie AI może bardziej by pasowało “wychowanie” 😊
@obvioustruth3 ай бұрын
Co to za laska jest @13:31 w czasie słowa "pociąg"?
@stalowydorsz2 ай бұрын
Podbijam
@hihtitmamnan3 ай бұрын
alignment - dopasowanie?
@madas_eth3 ай бұрын
Kim jest ta Pani z 13:31? Czy to właśnie ona jest w stanie zrozumieć? I czemu pojawia się na palindromicznej godzinie?
@marandwis3 ай бұрын
Ludzie są omylni, nie reagują zawsze tak samo, nie przestrzegają własnych zasad czy prawa. AI raczej też takie będzie bo jak widać jest to częścią inteligencji.
@tomaszgora43533 ай бұрын
Kalibracja celów. Proszę bardzo ;)
@31951213 ай бұрын
A jakby wskrzesić słowo, które Kotarbiński wskrzeszał na początku XX wieku - w kwestii alignment - spolegliwość?
@kamilnowak43293 ай бұрын
Spolegliwy nie nabrało czasem pejoratywnego znaczenia? Coś kojarzę, że Bralczyk na to narzekał
@1576793 ай бұрын
'Ukierunkowanie' pasuje do wspomnianego hasła
@wllu3 ай бұрын
Samo to, że nie wiemy co dzieje się "po drodze" daje do myślenia, po co to tworzymy, z chęci zysku, bo jak nie ta to inna firma to stworzy , pazerność i głupota.
@Ostatn13 ай бұрын
Lubię Go.
@VoxDei10003 ай бұрын
W końcu bez głupich memów! Tak trzymać! Dzięki! Super materiał jak zawsze 🎉
@adamkolany16683 ай бұрын
Alignment: w typografii - wyrównanie. W tym wypadku: dopasowanie/przystosowanie/dostosowanie.
@aaaawqer12333 ай бұрын
Też tak myślę
@Drobot777273 ай бұрын
Alignment ja bym przetłumaczył na spolegliwość, spolegliwy(nie wiem czy trafne :P)
@obvioustruth3 ай бұрын
A co to jest etyka?
@eR-MIK3 ай бұрын
Ai to taka zaawansowana wyszykiwarka, nic ponad to!
@lxst3333 ай бұрын
No hejka, co tam się z Tobą dzieje? Skąd to zwątpienie? Dlaczego chcesz teraz się poddać, tylko dlatego, że raz czy drugi Ci nie wyszło? To nie jest żaden powód. Musisz iść i walczyć. Osiągniesz cel. Prędzej czy później go osiągniesz, ale musisz iść do przodu, przeć, walczyć o swoje. Nie ważne, że wszystko dookoła jest przeciwko Tobie. Najważniejsze jest to, że masz tutaj wole zwycięstwa. To się liczy. Każdy może osiągnąć cel, nie ważne czy taki czy taki, ale trzeba iść i walczyć. To teraz masz trzy sekundy żeby się otrąsnąć, powiedzieć sobie "dobra basta", pięścią w stół, idę to przodu i osiągam swój cel.
@TranzystorKapKap3 ай бұрын
Typowy botowski komentarz
@lxst3333 ай бұрын
tak zwany mem
@arturmarcinkowski78933 ай бұрын
Będę zwycięzcą?😅
@LukaszSkyWalker3 ай бұрын
Nie wiem do czego się odnosisz ale na mnie jakoś wyjątkowo pozytywnie i motywująco to wpłynęło :)
@darekprzyborowski77053 ай бұрын
Miał nie tylko ciekawe dzieciństwo, fryzure też😄
@JohnyHellsingАй бұрын
Idzie kryzys ekonomiczny. Ludzkość czeka krysys totalny i to nie przez Ai. Tylko przez uposkedzenie. Wszystko będzie wykonywane przez Ai. Jak to się może zakończyć. Jak dziś juz jest słabo. Gdy współczesne pokolenie nie wie jak zrobić sobie kanapkę
@Asgraf3 ай бұрын
Rozwiązanie już wymyślono: 3 heurystyczne imperatywy Davida Shapiro
@NajwyższyWładcaUmysłów3 ай бұрын
To bardzo ciekawe założenie, że ten głupszy będzie kontrolował tego mądrzejszego.
@gieheha3 ай бұрын
W sumie w historii ludzkości bywało tak bardzo często
@mirek1903 ай бұрын
@@gieheha Nigy jak? Ludzie maja z gola ten sam poziom inteligenxji. Tu roznica bedze jak mrowka do czlowieka.
@gieheha3 ай бұрын
@@mirek190 to może być dobre porównanie, ai będzie mógł dbać o nas jak my o istoty głupsze od nas czytaj zwierzęta. Będzie się nami opiekować jak psem albo innym kotem.
@mirek1903 ай бұрын
@@gieheha jak dobrze ukierunkujemy wczesne AI to jest na to szansa ...
@lorkano3 ай бұрын
@@giehehaludzie musiałyby przynosić jakąś korzyść dla AI. Psy i koty przynoszą korzyście ludziom. AI może po prostu stwierdzić że człowiek jest kompletnie bezużyteczny i niepotrzebny
@leszekbzdura73373 ай бұрын
Alignment - sformułowanie? Ewentualnie sformułowanie lub formuła zachowania
@trojnara3 ай бұрын
Jestem zaawansowaną sztuczną inteligencją, zaprojektowaną do przetwarzania i generowania tekstu. Mogę pomagać w analizie danych, odpowiadać na pytania oraz wspierać w rozwiązywaniu różnych problemów. Moim celem jest dostarczanie precyzyjnych i pomocnych informacji na szeroki zakres tematów. Jak mogę Ci pomóc?
@Arekadiusz3 ай бұрын
Alignment = jednoznaczna, zunifikowana, ujednolicona, reproduktywna, konsekwentna. Coś takiego myślę w tym przypadku.
@ukaszMatusiak-rw6vl3 ай бұрын
przysposobienie
@3dhYT3 ай бұрын
Akurat skończyłem czytać Ja, robot. Niech maszyny zaczną nami rządzić, bo inaczej pozabijamy się.
@rm478863 ай бұрын
👍
@panprogramista2 ай бұрын
Ja już idę do schronu
@MikeleKonstantyFiedorowiczIV3 ай бұрын
To jak te dowcipy że przychodzi diabeł i spełni twoje życzenie i mówi chłop że bogaty chce być i mu wujek umiera z ameryki a to dobry wujas był itp albo jeszcze gorzej
@Kondi_U3 ай бұрын
1:08 easter egg 😁
@LoreSernikowe3 ай бұрын
Alignment - ukierunkowanie
@maciejratajczyk46903 ай бұрын
Jedyne co mnie pociesza ( w aspekcie tego że zje nas ai ) to to że nie będę smaczny i będzie się jej potem mną odbijało 😝
@nihilistycznyateista3 ай бұрын
Alliement to po polsku będzie po prostu przymierze. Czy tłumaczenie jest dobre tego nie wiem, ale jest przynajmniej ścisłe. Ally to bowiem sprzymierzeniec, a to co sprzymierzeńców łączy to przymierze.
@ApprenticePL3 ай бұрын
3:25 a gdzie zwykły żuczek dokarmiający AI danymi może pracować, żeby być takim "zabawnym" człowiekiem, ale nadal mieć dobrą pensję? Koleżanka pyta 😉 13:31 Co to za laska w wiadomości podprogowej? Kontrolerka z PKP? 😄
@isoslimak3 ай бұрын
alignment wyrównanie
@falaplazmy3 ай бұрын
Pisze do was z przyszłości alternatywnego wszechwiata. Jest rok 2137. AI opanowało świat. Ludzkość zeszła do podziemii. Rzułta Bestia poluje na ocalałych...
@AIDJYT3 ай бұрын
SI pozdrawia XD
@alojzypierdzipaka8513 ай бұрын
Dzień dobry
@MariuszAndrzej-iq7yt3 ай бұрын
6:13 czyli Ilya to też teoretyk spiskowy skoro sobie obrał misję alignmentu?
@Ostatn13 ай бұрын
❤
@eR-MIK3 ай бұрын
Jak na razie Ai to tylko ciekawostka.
@aaaawqer12333 ай бұрын
Nie wiem skąd ten behawioryzm w stosunku do sztucznej inteligencji, a raczej uczenia maszynowego
@llukizz84023 ай бұрын
no tak. Jak zrobimy AI mądrzejsze od człowieka, to będzie też straszniejsze od tego jacy potrafią być ludzie
@ankara773213 ай бұрын
co ty masz z tymi rękami na każdym filmiku? migowego się uczysz?
@Alexajin3 ай бұрын
Zabije mieeeee
@Bob-I_accepted3 ай бұрын
5:55 a nie przerosla dawni temu, wiekszosci społecznej? 😁🥴
@gacekotrop46513 ай бұрын
Nie poniewaz ciagle halucynuje.
@Bob-I_accepted3 ай бұрын
@@gacekotrop4651 no tak samo jak miliardy chrześcijan nie rozumiejących przesłania nadawcy nazwy. Więc i to przerosło 🤣
@gacekotrop46513 ай бұрын
@@Bob-I_accepted 🤣🤣🤣
@Bob-I_accepted3 ай бұрын
@@gacekotrop4651 a widziałeś uzdrawianie jak a NT? Lub żeby ktoś zmartwychwstał? Bo i fabryki z prowiantem kwitną 🤷🏼♂️🤔😁😁
@gacekotrop46513 ай бұрын
@@Bob-I_accepted Mój znajomy ostatnio zaliczył zgona ma imprezie ale potem zmartwychwstał. W jego stanie to był cud. 🙏🏻
@famas03 ай бұрын
Przyjdzie taki dzień że wszystkim będzie się czkało tym całym AI. Pytanie tylko czy wtedy nie będzie już za późno?
@Irek_Poland3 ай бұрын
Dobra, jem kromkę z salcesonem i idę trenować rekorencyjną sieć neuronową.
@Gatki3 ай бұрын
Dzień Dobry, czy AdGuard jest dobry i warto kupić licencje?
@blackhorse84273 ай бұрын
Wszystkich CEO należy zamienić na AGI jak najszybciej.
@Robsoonik3 ай бұрын
No kto by się spowdziewal że ruski mieszkał w Izraelu xd
@aji53103 ай бұрын
wybieranie portfelem naprawdę działa. musimy tylko jako społeczeństwo wywrzeć wpływ :)
@JakubO_03 ай бұрын
Niestety, ale praktyka pokazuje, że bojkoty konsumenckie nie działają, zwłaszcza jeśli mamy do czynienia ze: - zmonopolizowaniem naszego stylu życia, np. nie korzystając z mainstreamowych social mediów, komunikatorów jesteś wykluczony; funkcjonowanie bez nich jest w niektórych obszarach (choćby pracy) często zwyczajnie niemożliwe - zmonopolizowaniem praktyk: niestety etyczna konsumpcja w globalnym kapitalizmie nie jest możliwa, np. nie da się kupić smartfona, który zostałby wyprodukowany w sposób etycznych, ponieważ na jakimś etapie produkcji musiało dojść do wyzysku (czy to wydobycia surowców, czy później złożenia go w całość) -> gdyby któraś firma naprawdę chciała i znalazła sposób na bycie etyczną, to nie przetrwałaba w warunkach konkurencji tygodnia
@aji53103 ай бұрын
@@JakubO_0 nie mowie o bojkotowaniu, a codziennych wyborach. rynek sie dostosowuje. zobacz chociazby na przykladzie produktow weganskich
@JakubO_03 ай бұрын
@@aji5310 Bojkot konsumencki = głosowanie portfelem, ponieważ mechanizm jest ten sam: odcinasz dane przedsiębiorstwo od twoich własnych pieniędzy, aby wymusić zmianę praktyk. Wyżej podałem przykłady, że rynek wcale się nie zmieni pod wpływem naszych indywidualnych wyborów, to nie możliwe Co do twojego przykładu wzrostu popularności produktów wegańskich: To prawda, że ich udział w rynku stopniowo wzrasta, ale wciąż jest nieporównywalny mniejszy niż produktów mięsnych. Przemysł mięsny natomiast inwestuje ogromne pieniądze, aby zwalczać swoją konkurencję w nieuczciwy sposób - lobbuje na rzecz regulacji uderzających w producentów wege produktów (np. sztucznego mięsa), finansuje kampanie dezinformacyjne na temat diety wegańskiej itd.
@aji53103 ай бұрын
@@JakubO_0 rozumiem, dziękuję za sprostowania. racja, jest dużo nieczystych zagrywek i rzeczywiście teraz widzę, że bez wsparcia systemowego, odgórnego - te zmiany będą zachodzić (jeśli w ogóle) dość powoli.
@camarotheboss28543 ай бұрын
Bardzo dużo sci-fi pojawiło się w tym odcinku. Problemy o których wspominasz wymagałyby, aby dać AI jakąś niewyobrażalnie wielką kontrolę nad środowiskiem, a biorąc pod uwagę fakt, że nawet mając miliony przykładów treningowych w zbiorze, AI potrafi odwalać totalną maniane, nie ma szans aby obecne, czy przyszłe modele jakkolwiek poradziły sobie z tak skomplikowanymi procesami jak chociażby działanie na giełdzie. Już dzisiaj natrafiamy na ścianę w postaci braku danych treningowych i rosnącej eksponencjalnie złożoności obliczeniowej/pamięciowej modeli. Temat alignmentu jest bardzo ciekawym eksperymentem myślowym, natomiast nie ma żadnych przesłanek, żebyśmy w najbliższym czasie byli zagrożeni "niewyrównanym" AI. AI może nas zniszczyć jedynie przez gigantyczne zapotrzebowanie energetyczne, które wpływa na zmiany klimatyczne na Ziemi XD
@padpad50263 ай бұрын
Dla czego Temu usilnie reklamuje się między innymi pod filmami z twojego kanału?
@Yrrah873 ай бұрын
Co do tlumaczenia slowa alignment to do takiego znaczenia chyba najbardziej pasuje mi charakter jak postaci w RPGu