Wow, Panowie, przepięknie zrealizowany tutorial. Nie dość, że "od zera do bohatera", to jeszcze nie zapomnieliście o zabezpieczeniu endpointu. I nawet cenowo ten g5.xlarge w AWS wychodzi całkiem znośnie, piątak za godzinę to uczciwa cena 🙂
@ml-workout9 күн бұрын
Dzięki 🫶🏻
9 күн бұрын
Film o polskim LLMie? Nie muszę włączać a już klikam like. POLSKA GUROM
@seitaishogun3 күн бұрын
Kibicuję! Pomyślności panowie !
@ml-workout3 күн бұрын
Dzięki ☺
@jacekmikolajczyk66615 күн бұрын
Bielik. 👍👍
@tiaamat3 күн бұрын
🎉bielik!
@sxsxryn9 күн бұрын
Super przedstawione, mega ciekawy materiał. Fajnie, że jednak coś jest w naszym ojczystym języku. Bielik!
@ml-workout9 күн бұрын
Dzięki!
@mpfmorawski9 күн бұрын
Ale idealnie trafiliście! Sam planowałem postawić Bielika w chmurze, żeby się nim pobawić (i przy okazji poduczyć, jak z technicznego punktu widzenia najlepiej to zrobić). A z Waszym filmem i materiałami będzie to o wiele prostsze! Dzięki, że robicie takie materiały :D PS: Bielik 🦅
@ml-workout9 күн бұрын
Dzięki, bardzo nam miło!
@asqu9 күн бұрын
Po co się męczyć, masz przecież LM Studio lub Jan i model skwantyzowany w formacie GGUF, uruchomisz zapewne na swoim kompie.
@ml-workout9 күн бұрын
@@asqu Do zabawy lokalnie jak najbardziej. My pokazujemy wdrożenie serwerowe.
@emiliabunko45185 күн бұрын
bielik
@inout33946 күн бұрын
Mi by się przydała wersja small Q4 np. 1B/1.5B/2B/2.5B/3B by uruchomić ją na telefonie np. w aplikacji ChatterUI
@polishmotorfan2 күн бұрын
Czy da się to uruchomić na rtx 3060 na laptopie?
@grzesiekzysk9 күн бұрын
Czy Bielika można wcześniej nakarmić danymi aby był czymś w rodzaju "bazy wiedzy"?
@ml-workout9 күн бұрын
Masz na myśli fine tuning z własnymi danymi? Raczej w tym przypadku sugerowałbym podejście typu RAG (Retrieval Augmented Generation) - czyli używasz model instruct, a swoje dane umieszczasz jako część prompta. Dane muszą być wcześniej zwektoryzowane, a ich znalezienie odbywa się przez porównanie podobieństwa wektora "zapytania" do wektora "dokumentu". Opowiadamy o tym podejściu w naszym filmiku "Zbuduj z nami Chatbota QA z LLM"
@grzesiekzysk9 күн бұрын
@@ml-workout Tak, dzięki. Juz odpalam film!
@madrag8 күн бұрын
Da sie to "obsluzyc" poprzez ollame?
@ml-workout8 күн бұрын
Da się, pamiętając o tym, że Ollama jest nastawiona bardziej na uruchomianie modeli do potrzeb lokalnych, a nie serwerowych, tak jak wykorzystany przez nas vLLM.