Hiper zrozumiałe wyjaśnienie budowy sieci konwolucyjnych.
@wiktorbabiarz67583 ай бұрын
W jaki sposób obliczany jest gradient (pochodne względem parametrów)?
@pravallikadevi3633 Жыл бұрын
do you have any github link for this
@rkons88 Жыл бұрын
Świetna prezentacja 😊
@kustyq Жыл бұрын
Niedawno trafilem na ten kanal i jako poczatkujacy w temacie sieci neuronowych jestem bardzo wdzieczny za udostepnione materialy. Dziekuje.
@AB-bp9fi Жыл бұрын
Super prezentacja. "Ship" to statek. Gdyby były jakieś studia podyplomowe zdalne w temacie ai/ machine learning to bym chętnie się zapisał. A może będzie jakiś wykład w dziedzinie analizy danych 3d?
@logos7logos7 Жыл бұрын
Piękne!
@grzegorzdudek22362 жыл бұрын
Uzupełnieniem tej prezentacji jest prezentacja nt. randomizowanych sieci neuronowych kzbin.info/www/bejne/j6XcpqyZqd2Xotk. Omawiam tam alternatywne sposoby uczenia sieci, które znacznie przyspieszają trening. Poza tym prezentacja pozwala głębiej zrozumieć sieci neuronowe.
@bartoszjagiea60232 жыл бұрын
Dziękuję za świetne wykłady. Studiuję na PCz, mam nadzieję, że kiedyś będę miał przyjemność uczestniczyć w Pana zajęciach. Pozdrawiam!
@ukaszlew62382 жыл бұрын
Genialny wykład!!!! Wszystkie wykłady powinny tak wyglądać jak Pana!
@qacperq2 жыл бұрын
W 20:44 jeśli chcemy powiedzieć jaka jest rozpatrywana liczba przypadków w drzewie to patrzymy na ilość węzłów czy ilość liści?
@grzegorzdudek22362 жыл бұрын
Nie wiem co Pan rozumie pod pojęciem przypadek. Jeśli liczbę obszarów, na które dzielona jest przestrzeń wejściowa (każdy z tych obszarów przypisywany jest do jednej z klas), to te obszary reprezentowane są przez liście (mamy więc pięć liści/obszarów), a ich granice definiują testy w węzłach (mamy cztery granice pokazane żółtymi liniami na rysunku). A jeśli przez liczbę przypadków rozumie Pan liczbę klas, albo liczbę przykładów uczących, to ze struktury drzewa nie dowiemy się ile ich jest.
@dariuszd62073 жыл бұрын
Niezwykle przejrzyście a przy tym zwięźle przedstawione zagadnienie. Bez luk pod hasłem "to przecież oczywiste' . Dziękuję za wspaniały wykład,
@dariuszd62073 жыл бұрын
Znakomity wykład, dziwne ze dopiero teraz na niego trafiłem,
@lingyi2473 жыл бұрын
Hi, Professor Dudek. Thank you for the presentation. However, it makes me confused that I have read another paper, <A comprehensive evaluation of random vector functional link networks>, which presents the opposite results. They said, " the direct link plays an important performance enhancing role in RVFL, while the bias term in the output neuron had no significant effect". Can you explain it? Thank you so much!
@grzegorzdudek22363 жыл бұрын
Hi Ling Yi. Note that I used RVFL for regression problems, while in the paper you cite they focus on classification problems. This is a substantial difference. Another difference is the method of generating random parameters. I use my own methods described in Section 3 arxiv.org/abs/2003.13090. Perform your own tests to see if direct links are necessary :)
@lingyi2473 жыл бұрын
@@grzegorzdudek2236 Thank you for your prompt reply. That really helped! :)
@juancamiloalzate14813 жыл бұрын
Thank you for the video. It helped me a lot
@kohzhewei96773 жыл бұрын
Thank you for the video!
@Robert-rp8km3 жыл бұрын
Wspaniale materialy!!!
@Robert-rp8km3 жыл бұрын
Panie Grzegorzu, SUPER material. Dziekuje :)
@marcinlampart3 жыл бұрын
Dziękuje za bardzo dobry wykład. Niestety do Częstochowy jest mi nie po drodze, ale czy można gdzieś dostać Pana wykłady w formie pisanej (książki, publikacji etc.) ?
@calaprawdaoprawdzie3 жыл бұрын
Jednak inteligencja kryje sie w wielomianach.
@hugenota14 жыл бұрын
Przedstawione zostało rozwiązanie proste, gdzie aproksymujemy funkcje. Rozumiem sposób działania algorytmu ładnie opisane i przejrzyście jednak nie potrafię go wykorzystać go do prawdziwego problemu, gdzie funkcja nie jest podana i nie sposób ją opracować. Na przykład problem chińskiego listonosza. wW jaki sposób wykorzystać taki algorytm ? Jak utworzyć chromosomy, co rozumieć przez osobniki w przypadku takiego problemu?
@annamark12654 жыл бұрын
👍
@sawomirkrynicki44924 жыл бұрын
Bardzo dobry wykład. Jeszcze nie wiem, co oznacza rząd modelu (opóźnienie) dla sieci neuronowej? Czy chodzi o podawany na wejście przebieg np. temperatury maksymalnie do chwili T(t-1) dla modelu drugiego rzędu, a dla trzeciego rzędu dla T(t-2) ? Oczywiście wraz z wartościami dla T(t-0), T(t-1) itd.
@adrianblonka5 жыл бұрын
Wspaniale opracowany materiał
@grzegorzdudek22366 жыл бұрын
Zapraszam na studia podyplomowe Data Science - Inżynieria Danych W programie: sztuczna inteligencja, uczenie maszynowe, big data, business intelligence, hurtownie danych, przetwarzanie w chmurze Więcej informacji na stronie Wydziału Elektrycznego Politechniki Częstochowskiej
@grzegorzdudek22366 жыл бұрын
Zapraszam na studia podyplomowe Data Science - Inżynieria Danych W programie: sztuczna inteligencja, uczenie maszynowe, big data, business intelligence, hurtownie danych, przetwarzanie w chmurze Więcej informacji na stronie Wydziału Elektrycznego Politechniki Częstochowskiej
@kamilfigatowski2326 жыл бұрын
Czy mogę prosić kontakt do Pana? Mam pewnien biznes związany ze startupem jaki chcemy uruchomić;)
@grzegorzdudek22366 жыл бұрын
gdudek.el.pcz.pl
@pawelczar6 жыл бұрын
Bardzo dobry wyklad i swietna prezentacja opisywanego zagadnienia. Nalepiej wytlumczane sieci neuronowe jakie do tej pory spotkalem. Chetnie objerzalbym wiecej wykladow/prezentacji na ten temat od Pana :)
@marcinwojcik34716 жыл бұрын
Dziękuję. Bardzo mi odpowiada taka forma prezentacji. Proszę o więcej!
@TheDziobak946 жыл бұрын
Bardzo przejrzyście przedstawiony materiał. Oby więcej materiałów powstało Panie Grzegorzu. Nie wiem jak to jest możliwe że tak mało osób zobaczyło tak ciekawy materiał, że sam szybciej na niego się nie natrafiłem. Pozdrawiam i dziękuję jeszcze raz za materiał