Praktyczny LLM
1:03:00
Ай бұрын
Fine-tuning LLM: fakty i mity
1:34:23
PML od środka
18:27
5 ай бұрын
DWthon - zaproszenie
7:52
3 жыл бұрын
Uczenie maszynowe - to działa!
0:30
Czy uczenie maszynowe działa?
0:30
4 жыл бұрын
NLP w Twojej firmie -  kurs online
2:33
Пікірлер
@maciej6352
@maciej6352 11 сағат бұрын
Hej, super materiał! czekam na więcej :)
@dawidapa5635
@dawidapa5635 7 күн бұрын
Ty słabo mówić po polskij xD
@lukaszaa9587
@lukaszaa9587 6 күн бұрын
Chyba żart. Gdyby nie akcent to gość mówi na poziomie native.
@dawidapa5635
@dawidapa5635 6 күн бұрын
Zna Pan jakiegoś polskiego nativa który nie ma problemów z wymową i mówi np. ,,musie", ,,wszystka", ,,nażliwosć" ? Nie wiem, może to jakaś gwara 😁
@indikom
@indikom 6 күн бұрын
Absurdalny zarzut. Przecież ten człowiek ma zasób słownictwa większy niż spora część naszego społeczeństwa.
@Zmienny
@Zmienny 6 күн бұрын
Skąd ten hejt? Autor filmu mówi po polsku bardzo dobrze, jedynie akcent mógłby być lepszy, mniej wschodni - a to już kwestia praktyki
@DataWorkshop
@DataWorkshop 6 күн бұрын
Dawid, dzięki za komentarz! Tu Vlaidmir, jeśli moja wymowa Cię uraża, to przepraszam. Naprawdę! Nagrywając odcinek o Agentach AI, na pewno nie miałem takiej intencji. Języki zawsze stanowią dla mnie wyzwanie - mam inne talenty. Swoją drogą, każdy z nas ma swoje mocne strony, a przecież nie można oczekiwać, że każdy człowiek na świecie będzie perfekcyjnie mówił po polsku - to po prostu nierealne. Jako ciekawostkę dodam, że obecnie znam całkiem dobrze 3-4 języki, w tym angielski, a teraz uczę się hiszpańskiego (nie licząc Pythona!). W każdym z nich zdarza mi się jednak popełniać błędy (chociaż w Pythonie zazwyczaj ich unikam). Może dlatego wolę spędzać więcej czasu na rozważaniach w samotności lub kodowaniu niż na rozmowach z ludźmi. W swoich myślach nie muszę używać języka - bardziej opieram się na wyobraźni i intuicji, co jest moją mocną stroną. Dla mnie mówienie (w tym po polsku) to po prostu narzędzie. Aby porozumieć się z innymi, trzeba używać języka - i na szczęście w tym przypadku LLM świetnie radzi sobie z poprawianiem pisowni w dowolnym języku, również po polsku. Wygląda więc na to, że problem jest już w dużej mierze rozwiązany. Często, gdy wpadam w "strumień myśli" i mam za dużo do powiedzenia, mój język po prostu "odmawia współpracy" - i nieważne, czy mówię po polsku, angielsku, czy innym języku. Ale uwaga: uczę się i poprawiam! Na przykład w którymś odcinku ktoś zwrócił mi uwagę, żebym nie mówił „utylizować wynik” bo to jest nie poprawnie po polsku. Super! Już tak nie mówię. Ale tu przyznam, że nie wiem, co mam poprawić - może po prostu muszę zacząć mówić wolniej i wyraźniej... Jak to mówią: ucz się przez całe życie - a ja to wziąłem na serio! 😄 Przypomniała mi się sytuacja z 2017 roku. Planowałem wtedy zacząć nagrywać podcast, ale ciągle to odkładałem, bo bałem się właśnie takich komentarzy. I wtedy Marek Jankowski z Małej Wielkiej Firmy powiedział: "Zrób to! Jak treść się broni, to reszta będzie zaakceptowana."" No i nagrywam - a merytorykę zostawiam do oceny, wymowę do poprawy, a poczucie humoru do testowania! P.S. Też warto dodać, myślę, że jest wiele innych miejsc, gdzie ludzie ładnie mówią o AI, perfekcyjnie zarówno po polsku, jak i po angielsku (lub w dowolnym innym języku)... ale często bez większego sensu. Taka opcja również zawsze jest do wyboru.
@jakubjanecki6064
@jakubjanecki6064 7 күн бұрын
All you need is love love ... 😀
@DataWorkshop
@DataWorkshop 6 күн бұрын
Tak, tak. Miłość uratuje świat, pełna zgoda! ❤
@indikom
@indikom 7 күн бұрын
W kontekście rozwoju AI działają te same mechanizmy jak w przypadku poglądów politycznych. Ktoś o poglądach lewicowych chętnie czyta o błędach prawej strony i tylko omiata wzrokiem treści krytykujące lewą stronę, podobnie jest po prawej stronie. Ludzie pasjonujący się AI chętnie zamykają się w bańkach optymistów AI i pesymistów AI ze wszystkimi tego konsekwencjami. Nie lubimy za bardzo słuchać realistów, bo rzeczywistość jest skomplikowana i trudna. Lepiej na przykład wierzyć Altmanowi, Muskowi czy Amodeiowi, że za rok, najpóźniej dwa, będzie AGI i w sumie lepiej poczekać niż uczyć się tych skomplikowanych rzeczy. 😊
@DataWorkshop
@DataWorkshop 6 күн бұрын
Trudniejsze rzeczy wymagają myślenia, a nasz mózg jest tak zaprojektowany, że zwykle stara się oszczędzać energię. Dlatego potrzebna jest większa motywacja, aby udowodnić mózgowi, że to ma sens. W sumie też nie mam ambicji, żeby kogoś przekonywać. Bardziej traktuję to jako informację dla osób, które szukają takich treści. Dziękuję za komentarz, ciekawa analogia! :) @indikom
@marcintubielewicz206
@marcintubielewicz206 9 күн бұрын
Bardzo ciekawy, merytoryczny odcinek, przyjemnie było posłuchać Waszej rozmowy ;-) Co do bielika, korzystam od niedawna i osobiście bardzo sobie chwalę ;-)
@romandmowski442
@romandmowski442 15 күн бұрын
Bardzo dobry materiał , czuć że prowadzący zna temat, także z praktycznej strony. Dzięki 👍
@DataWorkshop
@DataWorkshop 14 күн бұрын
Roman bardzo dziękuję :) @romandmowski442
@arturkmieciak3333
@arturkmieciak3333 18 күн бұрын
Umowa najmu lokalu to jedna z najprostszych i standardowych umów w kodeksie cywilnym, jeśli ma kilkadziesiąt stron to zapewne jest tam wiele waty, której przeznaczeniem jest istotnie ukryć to, co ważne. Ale pani mecenas bardzo szybko ustaliła te ważne rzeczy. Znaczy LLM nie bardzo jest tu potrzebny, bo prawnik poradzi sobie z tym nawet szybciej, bez ryzyka, halucynacji, no i jest interaktywny. Nawet bardzo złożone umowy w obrocie gospodarczym, tam gdzie ich wielkość jest uzasadniona, bazują na wypracowanych wzorach, które co najwyżej należy dostosować do okoliczności. Tu za bardzo miejsca dla LLM też nie bardzo widzę. Ale diabeł tkwi w szczegółach czyli załącznikach, szczególnie tych, które zawierają odwołania do norm technicznych, standardów, szczegółowych wymagań nałożonych przez akta prawne niższego, niż ustawa, rzędu. Tu LLMy mają pole do popisu. Albo w przypadku badania zgodności określonych systemów z normami (np. budowalnymi).
@DataWorkshop
@DataWorkshop 17 күн бұрын
Dziękuję Artur za podzielenie się swoją perspektywą :)
@ghs7233
@ghs7233 19 күн бұрын
👍
@sviatoslavdoroshenko345
@sviatoslavdoroshenko345 21 күн бұрын
Bardzo dobry odcinek, ciekawe było usłyszeć jak układać LLM pod prawnicze wymagania. Myślę podobny było by u wypadku banków. Ciekawym by było usłyszeć, jak już kontrolować poufność danych i możliwość chronienia "know-how" dla tych kto wypracuje sobie swoją metodę, wiadomo że to będzie na chwilą jak Pan mówił cały czas idzie transformacja i "świat zmienia się, szybciej czym myślisz" (c). Jeszcze raz dzięki za poświęcony czas i chęć dzielenia się swoim doświadczeniem z innymi.
@DataWorkshop
@DataWorkshop 21 күн бұрын
Tak, w bankach będzie podobne, nawet bardziej niż mniej :) Co do kontrolowanie poufności danych i możliwość chronienia "know-how". Pytanie, chronienie przed kim? Aby nie wyciekło do LLM'ów dużych graczy?
@sviatoslavdoroshenko345
@sviatoslavdoroshenko345 21 күн бұрын
@@DataWorkshop Przed LLM'ów dużych graczy albo nawet inaczej by nie wychodziły poza firmę, a czasem nawet poza granicę departamentu czy zespołu. Brzmi jako taka paranoja, ale poufność danych, a tym bardziej danych o klientach pierwszym priorytetem dla większości firm, zwalczą tych finansowych. Jak nie będzie to ustawione, to LLM będzie tylko takim efektem WOW na prototypie, w sumie Pan o tym kilka razy wspomina. Nie pracuje w LLM czy uczeniu maszynowym, ale Podcasty od Was lubię słuchać i widzę w nich wartość dodaną.
@paweswierblewski1505
@paweswierblewski1505 22 күн бұрын
Super przykłady z mentorem, egzaminem i helpdeskiem! A jak wygląda kwestia zapewnienia bezpieczeństwa używania prywatnej bazy wiedzy przez LLM? Czy są jakieś certyfikaty cybersec albo dobre praktyki, bez których w ogóle nie ma zaczynanych rozmów?
@radekm8981
@radekm8981 23 күн бұрын
!😊
@arekbochnak6956
@arekbochnak6956 Ай бұрын
Super podcast - z autopsji potwierdzam że zastosowanie dobrych praktyk programowania w świecie AI / ML znacząco podnosi jakość budowanych rozwiązań / produktów AI i zmniejsza ilość problemów na produkcji oraz skraca czas ich rozwiązania. A wracając do sedna tematu - podane kluczowe kroki wdrożenia LLM są bardzo przydatne 👏 @Vladimir - wspomniałeś także o wartościowych opracowaniach dotyczących dobrych zasad budowy Agentów, czy mógłbyś jakieś polecić ?
@DataWorkshop
@DataWorkshop Ай бұрын
Dziękuję, Arek. Widzimy się na kursie, bo decyzja z Twojej strony już podjęta. Tam dokładniej rozwinę temat, jak najlepiej podejść również do pracy z Agentami. To, co jest pewne, to fakt, że narzędzia nadal są drugorzędne. Jeśli nie uporządkujemy danych, kontroli przepływu, możliwości łatwego debugowania i usprawniania, to nikt (żadne narzędzie) za nas tego nie zrobi. Do zobaczenia na kursie! 😊 @arekbochnak6956
@fuukowatty9817
@fuukowatty9817 Ай бұрын
Fajny poradnik, może jakiś filmik nieco bardziej techniczny typu omówienie tych parametrów lub z trenowania własnych modeli w pythonie?
@DataWorkshop
@DataWorkshop Ай бұрын
Dziekuję :) Pracuję nad tym, myślę, ze najwięcej szczegółów technicznych będzie w moim kursie lokalny AI. Gdzie głębiej opowiem o parametrach, przydatnych narzędziach i jak to optymalizować. Coś więcej niż tylko Jan.ai.
@dannod2333
@dannod2333 Ай бұрын
Głupoty jakieś pokazujesz. Świadomość istnienia ChataGPT najniższa (42%) z wszystkich krajów tu ? A w Pakistanie 76% i Kenii 81 % BZDURA !!! Zweryfikuj te dane, bo to lipa. Zwłaszcza, że idąc dalej ... używa go w Polsce 40% a w Kenii 70 ! A mają 20% analfabetów. Jakieś antypolskie to zestawienie.
@fiqmiqful
@fiqmiqful Ай бұрын
Te wszystkie llm i ai są przereklamowane. Na produkcji nie dają stabilnych wyników na dodatek UE act jest zabija
@p2sobczak
@p2sobczak Ай бұрын
Nie da sie rozczarować, jeśli się nie posiada (wygórowanych) oczekiwań 🤷‍♂️
@DataWorkshop
@DataWorkshop Ай бұрын
No właśnie, o tym wspomniałem w odcinku - fala frustracji i rozczarowań będzie rosła. Co do EU Act, trzeba poczekać, jak to finalnie się ukształtuje. Na razie EU Act jest na "wakacjach". Czy to całkowicie wyłączy LLM i sprawi, że nie będzie się opłacało ich używać? W takim wypadku Europie trudno będzie konkurować z resztą świata. @fiqmiqful
@dariuszmion2764
@dariuszmion2764 Ай бұрын
Ale są idealne by namawiać firmy na płatne kursy o nich ;)
@DataWorkshop
@DataWorkshop Ай бұрын
>Na produkcji nie dają stabilnych wyników Chciałbym jeszcze raz odnieść się do tego punktu, ponieważ właśnie w tym tkwi problem: domyślne podejścia, które stały się popularne, często nie zapewniają stabilnych, powtarzalnych wyników. Szacuję, że ponad 90-95% (a może i więcej) rozwiązań poszło w kierunku uproszczeń, co, choć wygodne, nie daje wyników, na których można w pełni polegać. W DataWorkshop podchodzimy do tego inaczej. Tworzymy i wdrażamy praktyczne rozwiązania, które nie tylko zachwycają prototypami, ale też zapewniają długofalową stabilność i przewidywalność. Naszym priorytetem jest skupienie się na danych i celach biznesowych, a nie wyłącznie na narzędziach. LLM może przynieść realną wartość firmom, które zrozumieją jego mocne strony i jednocześnie z rozwagą uwzględnią jego ograniczenia. To podejście pozwala świadomie wykorzystywać technologię tam, gdzie rzeczywiście przynosi korzyści. Na koniec warto podkreślić, że nie każda firma musi inwestować w ML czy LLM. Jednak opłacalność ML w biznesie rośnie z czasem, wraz z rozwojem standardów i wiedzy na temat tego, jak efektywnie wdrażać te technologie.
Ай бұрын
Ostatnio testowaliśmy trochę te role w ChatGPT i wynik nie za bardzo się zmienia w zależności od tego co się wrzuci jako user a co jako system ;)
@DataWorkshop
@DataWorkshop Ай бұрын
Bartek, pewnie chodzi o to, że nie było znaczącej różnicy, czy wrzucić to do user, czy system. Do tego to zmierza, ale i tak warto rozdzielać te komunikaty semantycznie, bo łatwiej jest nimi zarządzać i je analizować. Na przykład, gdy trzymamy historię dialogu, od razu widać, co przyszło od użytkownika.
Ай бұрын
@@DataWorkshop No tak to jest argument. My używamy do przetwarzania dokumentów, więc w sumie sami jesteśmy jedynym useren :)
@runnerwithwolves8369
@runnerwithwolves8369 Ай бұрын
Jak zwykle bardzo ciekawy materiał. Pozdrawiam
@DataWorkshop
@DataWorkshop Ай бұрын
Dziękuję :) @runnerwithwolves8369
@MarcinWawrzyniak150
@MarcinWawrzyniak150 Ай бұрын
Super materiał. Jak już mam model na dysku, to jak go uczyć? W programie Jan nie widzę takiej opcji.
@DataWorkshop
@DataWorkshop Ай бұрын
Marcin, dziękuję za komentarz :) Dotrenowania modele nie jest takie łatwe. To wymaga sprzęt i inne rzeczy. Jan czy podobne narzędzia są do tego, aby wykorzystywać to co już jest wytrenowane. A powiedz dokładniej czego brakuje, może to jest kwestia zrobienia tego inaczej. @MarcinWawrzyniak150
@MarcinWawrzyniak150
@MarcinWawrzyniak150 Ай бұрын
@@DataWorkshop np. Jakbym robił offlinową maszynę z modelem, który ma dostęp do danych firmy.
@MarcinWawrzyniak150
@MarcinWawrzyniak150 Ай бұрын
Testuje program Msty, który ma zakładkę knowledge stacks, gdzie mogę podłączać pliki, ale ciężko to idzie, bo raczej maszyna nie daje rady: 16GB RAM, 2GB VRAM
@nemonemus6743
@nemonemus6743 Ай бұрын
Dzień dobry, wysłałem maila z moim problemem tydzień temu, prosiłbym o kontakt
@DataWorkshop
@DataWorkshop Ай бұрын
Obowiązkowa odezwiemy się, czy to było wysłane na hello@? @nemonemus6743
@sipsiup
@sipsiup Ай бұрын
Zgadzam się z Twoim spostrzeżeniem odnośnie dyskusji z klientem na temat „że dane są ważne”. Zwykle jak się temat głębiej podrąży to klient nie końca rozumie czym są dane ? Czy ufasz swoim danym ? - to są trudne pytania dla klienta. Ja się dużo nad tym zastanawiam i chyba tu chodzi o to że dane to jest „coś abstrakcyjnego” trudno sobie komuś kto w tym nie siedzi wyobrazić dane bo jest to dość abstrakcyjna materia. Przykład - idzie człowiek do sklepu i widzi słoik z dżemem - prosta sprawa widzisz słoik, dotykasz, otwierasz , wąchasz, smakujesz i jest to rzeczywiste, ale jak zrobisz reprezentację tego słoik z dżemem w danych to już nie jest takie proste do uchwycenia przez kogoś kto w tym nie siedzi. A gdybyś nigdy nie widział tego słoika z dżemem w realu ? to zrozumienie i dostrzeżenie tego słoika z samych danych jest po prostu trudne dla naszego mózgu… co o tym myślisz?
@DataWorkshop
@DataWorkshop Ай бұрын
No, ciekawa analogia! Tak, dane zdecydowanie są utworem konceptualnym, którym trzeba zarządzać. To nie ziemniaki czy dżem, które po prostu masz lub nie masz. Dzięki za ten przykład, pobudza wyobraźnię
@rafaplis
@rafaplis Ай бұрын
Dzięki za materiał.
@DataWorkshop
@DataWorkshop Ай бұрын
Dziękuję :)
@Kompas50
@Kompas50 Ай бұрын
Jeżeli chodzi o śledzenie i analizowanie dlaczego coś nie działa - to właśnie LangChain + LangSmith są świetne, bo pozwalają prześledzić całe drzewko zapytań. Szczególnie w przypadku agentów z narzędziami (tools) bardzo się to przydaje. Choć moim zdaniem LangChain jest strasznie przekomplikowany, zresztą pojawił się teraz LangGraph, który chyba jest próbą uproszczenia nieco tej biblioteki.
Ай бұрын
Jakiej najlepiej używać baz danych do przechowywania tekstów z których mają być komponowane prompty i role w LLM?
@DataWorkshop
@DataWorkshop Ай бұрын
Tu nie ma idealnej odpowiedzi, zresztą są co najmniej trzy rzeczy do rozważenia: 1. gdzie fizycznie są przechowywane dane, 2. jak są strukturyzowane (np. płaska struktura, grafy itp.), 3. sposób, w jaki będziemy je wyszukiwać (klasyczna wyszukiwarka, embeddings itp.). Do tego dochodzą jeszcze inne wymagania: - jak często będą dane aktualizowane, - jaka będzie skala (raz na dzień czy miliony zapytań, lub coś pomiędzy), - kwestie związane z prywatnością i rolami. Natomiast, jeśli chodzi o bazę wektorową, faktycznie czasami może być przydatna jako wyszukiwarka. Jednak, co podkreślam, proces wyszukiwania można zorganizować na różne sposoby, w zależności od problemu, który rozwiązujemy. Na przykład w tematach prawnych lub podobnych, gdzie precyzja jest bardzo ważna, same wektory mogą wprowadzać dużo zamieszania i niepewności.
@1972kotek
@1972kotek Ай бұрын
Jak powinno się prawidłowo przeprowadzić wdrożenie rozwiązania używającego model LLM gdzie w zapytaniach pojawiają się dane podlegające RODO a użycie modelu lokalnego jest problematyczne? Jakieś umowy z dostawcą API (OpenAI, Google) czy inaczej do tego podjeść?
@DataWorkshop
@DataWorkshop Ай бұрын
To jest już pytanie wprost dla prawników, dlatego polecam podejść do tematu od tej strony. Ważne jest, że nawet jeśli prawnik już coś przygotował komuś innemu, nie należy kopiować tego jeden do jednego. Każdy biznes jest (trochę) inny i ma swoje specyficzne potrzeby. Moja rola w tej rozmowie polega na zwracaniu uwagi na to, co jest istotne i na pytania, które prawnicy mogą zadawać, ustalając szczegóły. Natomiast nie jest prawnikiem, jestem od strony biznesowej, konceptualno-technicznej. Dla środowiska Enterprise to, co gwarantuje (prawnie) Vertex AI (Google) czy Azure (Microsoft), może być akceptowalne, ale nie zawsze. W większych chmurach, na przykład, istnieje możliwość przetwarzania danych tylko w UE (to dla RODO jest ważne), a dodatkowo zapewniają one szereg innych elementów wymaganych przez RODO. Jeszcze raz powtórzę, polecam przepracować temat RODO bezpośrednio z prawnikiem. To pewna inwestycja, ale zazwyczaj warto ją ponieść. @1972kotek
@1972kotek
@1972kotek Ай бұрын
@@DataWorkshop Temat trafi do prawników. Szukałem jakiś informacji od kogoś kto ten proces przećwiczył. OpenAI ma stronę do zgłaszania takich umów. .
@paweldremel5097
@paweldremel5097 Ай бұрын
Jedno z rozwiązań Anonimizacja danych przed wysyłką: * Wyłapujesz wrażliwe dane i zastępujesz je znacznikami (np. {imie}, {pesel}) * Oryginalne dane trzymasz bezpiecznie w pamięci lokalnej Zapytanie do modelu: * Wysyłasz zanonimizowane zapytanie * Informujesz model, żeby w odpowiedzi zachował znaczniki Obróbka odpowiedzi: * Po otrzymaniu odpowiedzi, podstawiasz z powrotem oryginalne dane za znaczniki * Usuwasz tymczasowo przechowywane dane To jedno z możliwych rozwiązań - na pewno są też inne podejścia. Warto też pamiętać o skonsultowaniu takiego rozwiązania z zespołem prawnym pod kątem pełnej zgodności z RODO.
@1972kotek
@1972kotek Ай бұрын
@@paweldremel5097 Problem w tym, że mam dane także obrazowe (skany dokumentów) i anonimizacja nie jest doskonała. OCR potrafi coś tam przepuścić tak samo jak poprawne wyłapanie NER'ów. Lepiej mieć coś podpisane z dostawcą AI (zadanie dla prawników). Może ktoś w praktyce przechodził taki proces.
@marcingendek6103
@marcingendek6103 Ай бұрын
Świetny materiał. Jest w stanie zaoszczedzić dużo czasu samemu eksperymentując z RAG.
@DataWorkshop
@DataWorkshop Ай бұрын
Dziękuję Marcin, staram się jak mogę :) jak mam kolejne dawki wiedzy, aby właśnie w tym pomóc @marcingendek6103
@romandmowski442
@romandmowski442 Ай бұрын
Bardzo fajny odcinek. Czy ma sens uruchamianie LLM na MacBooku, gdzie mozemy miec M3 Max z pamiecia VRAM nawet 128 GB. To pozwoliloby uruchamiac calkiem duze modele np. Llama 3.1 70b?
@DataWorkshop
@DataWorkshop Ай бұрын
Roman, nie wiem co dokładnie masz na myśli, ale sprzęt o którym mówisz brzmi, że Bielik będzie tam latał. U mnie na M2 Bielik i dość szybko generuję odpowiedzi: dziesiątki tokenów na sekundę :). Llama 70B też pójdzie, tam nawet prawie f16 zmieści się :D. @romandmowski442
@etaosin
@etaosin Ай бұрын
Dzięki za ten materiał. Przyznam, że o wiele lepiej rozumiem to o czym mówisz, po tym jak próbowałem na własną rękę zaprząc ML, DL i LLM do rozwiązania moich problemów, które w dużej mierze sprowadzały się do automatyzacji.
@DataWorkshop
@DataWorkshop Ай бұрын
Dzięki :) No tak, to działa. Jak już człowiek spróbuje, to szybciej "łapie" kontekst. Jeszcze lepiej, jak sam popełni błąd, który go zaboli, i usłyszy, jakie są rozwiązania. Wtedy dopiero docenia to na maksa. Takie życie :)
@fw3239
@fw3239 Ай бұрын
Świetny gość! Święte słowa, na końcu nagrania! Albo w tej rewolucji będziemy uczestniczyć jako Polska, albo będziemy klientami innych. Vladimir gratulacje kanału. Znajduje tu to czego szukam!😊
@DataWorkshop
@DataWorkshop Ай бұрын
Dziękuję :)
@alinabarcikowska4172
@alinabarcikowska4172 Ай бұрын
trafiłam pierwszy raz - bardzo fajny materiał
@DataWorkshop
@DataWorkshop Ай бұрын
Alina, bardzo dziękuję, motywuję mi to, aby działać z tym dalej :). @alinabarcikowska4172
@wojciechm521
@wojciechm521 2 ай бұрын
Świetny odcinek👍
@DataWorkshop
@DataWorkshop Ай бұрын
Dziękuję Wojtek, miło to słyszeć :) @wojciechm521
@arseniybrazhnyk648
@arseniybrazhnyk648 2 ай бұрын
Dziękuję za odcinek, jak zawsze 10/10!) Czy mógłbyś nagrać film o transformerach oraz innych architekturach które potencjalnie mogą być wykorzystywane w przyszłości?
@DataWorkshop
@DataWorkshop Ай бұрын
Dziękuję za wysoką ocenę, to mnie bardzo motywuję :) Co do transformerów, to już bardziej techniczny temat i format podcastu nie zawsze sprawdza się. Na to mam osobny kurs NLP, gdzie krok po kroku tłumaczę temat, zaczynając od kontekstu jak do tego doszło, bo to jest pewna ewolucja i to pomaga lepiej zrozumieć. Kurs NLP: tinyurl.com/4wzfzbdb Tu jest wprowadzenie do tego modułu: kzbin.info/www/bejne/noDOn6iYr9GAhrs
@arseniybrazhnyk648
@arseniybrazhnyk648 Ай бұрын
@@DataWorkshop Dziękuję, już oglądam!)
@paweswierblewski1505
@paweswierblewski1505 2 ай бұрын
Czy taki runpod, vast, lambda czy inne nadają się na produkcję?
@DataWorkshop
@DataWorkshop 2 ай бұрын
Produkcja ma różne wymagania, ale co najmniej warto rozważyć te opcje. Zwykle jestem dość sceptyczny wobec różnych rzeczy, ale w tym przypadku nie odrzucam ich domyślnie. :)
@jakubzboina7246
@jakubzboina7246 2 ай бұрын
Comtegra GPU Cloud nadaje się na produkcje :D
@paweswierblewski1505
@paweswierblewski1505 2 ай бұрын
@@DataWorkshop Dzięki! A doprecyzowując, przede wszystkim chodzi o stabilność i dostępność.
@DataWorkshop
@DataWorkshop 2 ай бұрын
@@paweswierblewski1505 na runpod gwarantuję dwie dziewiątki uptime (99.99%) Też co fajne mają różne regiony (w tym EU, i faktycznie są tam też GPU, niż tylko nazwa regionu) + secure cloud. Z mojego doświadczenie, jak potrzebuję GPU to szybko je dostaję tam. Zostawię jeszcze tego linka: www.runpod.io/compliance Z minusem w runpod, to np. teraz nie mają H200 i w górę. Natomiast H100 też często jest właśnie tym co trzeba, biorąc pod uwagę za jaką cenę oferują.
@paweswierblewski1505
@paweswierblewski1505 2 ай бұрын
@@jakubzboina7246 A jaki jest pricing?
@tomaszb9668
@tomaszb9668 2 ай бұрын
Jak zwykle istotne informacje. Dzięki. Btw kiedy ma się odbyć wspomniany meetup?
@DataWorkshop
@DataWorkshop Ай бұрын
Tomasz, wydarzenie w Nvidia już się odbyło. Natomiast na spokojnie, będę dalej szerzył i dopracowywał te materiały. :) @tomaszb9668
@tomaszb9668
@tomaszb9668 2 ай бұрын
Bardzo merytorycznie. Super. Bardzo dziękuję za przekazana wiedzę. Pozdrawiam serdecznie.
@DataWorkshop
@DataWorkshop Ай бұрын
Dziękuję Tomasz :) działam, działam
@MT-rs1ot
@MT-rs1ot 2 ай бұрын
Potrafisz zdołować ale faktycznie lepiej by na początku wiedzieć czym grozi bezsensowne dzielenie tekstu niż potem burzyć całe wioski i stawiać od nowa. Super materiał
@Nxnnznjjxnnzm2
@Nxnnznjjxnnzm2 2 ай бұрын
Juz w 2021 probowalem z Bielikiem ale co dalej ze Spichlerzem podobnie sytuacja miala miejsce w 2023 r. Czy cos sie ruszylo trudno bylo sie dogadac jesli mialem tam stare dane i informcaje lacznie z osobami
@tomaszb9668
@tomaszb9668 2 ай бұрын
Nieoceniona wiedza szczególnie dla osób jak ja, którzy zaczynają z modelami LLM. Dzieki
@DataWorkshop
@DataWorkshop Ай бұрын
Tomasz, dziękuję :) Staram się jak mogę. @tomaszb9668
@marcintubielewicz206
@marcintubielewicz206 2 ай бұрын
Świetny odcinek Vladimir, dzięki za inspirację, lokalny model już śmiga na moim komputerze ;-)
@DataWorkshop
@DataWorkshop Ай бұрын
Marcin, no to super i właśnie o to chodzi! @marcintubielewicz206
@ghs7233
@ghs7233 2 ай бұрын
👌
@DataWorkshop
@DataWorkshop Ай бұрын
Dzięki :)
2 ай бұрын
Bardzo przydatny materiał, dzięki!
@DataWorkshop
@DataWorkshop Ай бұрын
Dziękuję Bartek :)
@krucafuks123
@krucafuks123 2 ай бұрын
fajne, ale trochę się gubiłem słuchając o toolach
@DataWorkshop
@DataWorkshop Ай бұрын
Tego trochę jest, ale na spokojnie, krok po kroku :)
@wisniowabron2253
@wisniowabron2253 2 ай бұрын
Niby całki się nie pojawiają za bardzo, ale jednak na rozmowach rekrutacyjnych głównie takie pytania padają. Rozpisanie wzorów na lasso, na gradient itp ;)
@DataWorkshop
@DataWorkshop 2 ай бұрын
Mam wrażenie, że teraz to również się zmienia. Podnosi się także jakość takich rozmów :) Jednak wciąż zdarza się, że są one bardzo teoretyczne i oderwane od kontekstu. P.S. i.redd.it/9gcco4jdlc091.jpg
@cyrta
@cyrta 2 ай бұрын
Jednym z podstawowych problemów z tabelka liczb wrzucona na wejście LLM jest tokenizer. Wszystkie złe encodują długie sekwencje cyfr a zwłaszcza te z przecinkiem. Konieczne jest zmiana na poziomie tokenizera i fine tuning by to rozwiązać.
@DataWorkshop
@DataWorkshop 2 ай бұрын
Początek - super! Natomiast dalszy wniosek brzmi jak ciekawa przygoda aby spróbować, w szczególności jako fine-tuning, ale nie oczekiwałbym, że to pomoże :).
@indikom
@indikom 2 ай бұрын
Drobna uwaga językowa: bardzo często używasz słowa "utylizować". Podejrzewam, że stosujesz kalkę z angielskiego "utilize". Niestety, w języku polskim "utylizować" oznacza przetwarzanie odpadów na surowce wtórne, a nie używać czy wykorzystywać. Przepraszam, że się czepiam, ale jeśli często używasz tego słowa, to może warto zwrócić na to uwagę.
@DataWorkshop
@DataWorkshop 2 ай бұрын
Bardzo Ci dziękuję za uwagę! Super, że piszesz i to jeszcze w tak delikatny sposób :) Najśmieszniejsze w tej historii jest to, że przy współpracy w jednej z firm "nauczyli mnie tak mówić".  Masz rację, trzeba to poprawić. Będę uważał na to słowa, jak usłyszysz, że mówię "wykorzystać", to oznacza, że dzięki temu komentarzu :). Dzięki za to!
@etaosin
@etaosin Ай бұрын
Ja chyba też za długo w IT, siedzę, bo to utylizować mi jak 'apply' weszło, tak, że nawet nie zwróciłem uwagi. Dzięki
@NorbertWerblicki
@NorbertWerblicki 2 ай бұрын
Super odcinek , fajnie wytłumaczyłeś różnice między LLM i ML , i ogólnie odc jest bogaty w konkretna wiedze. Pozdrawiam.
@DataWorkshop
@DataWorkshop 2 ай бұрын
Bardzo dziękuję za miłe słowa! To prawdziwy miód na moje serce i motywacja, by działać i dzielić się jeszcze więcej - nawet jeśli robię to w wolnym czasie, na przykład w weekendy. Dziękuję, że o tym piszesz!
@NorbertWerblicki
@NorbertWerblicki 2 ай бұрын
@@DataWorkshop "Cieszę się i czekam na kolejne odcinki. Tymczasem nadrabiam oglądanie Twoich poprzednich materiałów."
@michakowalczyk9386
@michakowalczyk9386 2 ай бұрын
Właśnie ostatnio próbowałem rozwiązania gdzie wyniki z anomaly detection wprowadzałem na LLM. Celem było znalezienie interpretacji dla anomalii a także zaklasyfikowanie lub nie danych bieżących do typu anomalii - no i jak to się mawia at the end of the day chyba lepiej byłoby użyć dla interpretacji klasyfikatora na sieci neuronowej. Nie mniej jednak niektóre interpretacje LLMa były bardzo ciekawe. Zaczynająć od tego, że sam tworzył dodatkowe klasy anomalii ;) Tak że zgadzam się LLM nie wyprze klasyka.
@DataWorkshop
@DataWorkshop 2 ай бұрын
Michał, dziękuję za podzielenie się historią. Bardzo dobry wniosek na koniec - w 100% się zgadzam, na teraz i przynajmniej w najbliższym czasie będzie to aktualne.
@fw3239
@fw3239 2 ай бұрын
Ciekawy materiał. Fajna forma przekazu z zaproszeniem gościa, który podaje praktyczne przykłady użycia. Sam rozglądam się tu i tam, żeby zobaczyć jak firmy radzą sobie z wdrożeniami AI. Ogólnie teraz w dobie hype na AI wszyscy myślą, ze sztuczna inteligencja zdziała cuda i zastąpi nasze wszystkie niewydolne procesy. Niewiele się jednak mówi o tym, ze prawidłowo zaimplementowane standardowe procesy są znacznie stabilniejsze niż implementacja AI, którą trzeba potem bardzo pilnować.
@M10n8
@M10n8 2 ай бұрын
hej, wspomniałeś o szkoleniu, możesz podesłać link? pozdrawiam PS rowniez stworzylem kilka ragow ale stwierdzilem ze to nie moze dzialac. Ogladajac ten film w koncu widze swiatelko w tunelu.
@alangner65langner47
@alangner65langner47 2 ай бұрын
Przekazałeś sporo ciekawej wiedzy. Muszę poeksperymentować z Bielikiem
@DataWorkshop
@DataWorkshop Ай бұрын
Dziękuję, warto, warto :) Bo to wcale nie jest takie trudne, jak może się wydawać na początek
@dantedaante4640
@dantedaante4640 2 ай бұрын
Świetny materiał. Bardzo dobrze tłumaczysz - miło się słucha i w głowie zostaje. Brawo.
@DataWorkshop
@DataWorkshop Ай бұрын
Dziękuję :) są już nowe odcinki