na zwykłym gpu też można, a dla upartych na cpu też idzie odpalić np. model językowy, tylko wtedy czekacie wieki xD
@fabiankowalski26756 ай бұрын
Super poradnik
@Piorun16 ай бұрын
Ciekawe czy te wodotryski bendą dzialac na systemie Gnu/Linux mint lmde6
@AndrzejWilkable6 ай бұрын
Tak dlss to technologia od poprawiania jakości obrazu może jeszcze sama dodaje efekty graficzne których nie przewidzieli autorzy gry? :D Dlss pogarsza jakość obrazu względem natywnej rozdzielczości, a nie poprawia, nie ma cudów, nie wciskajcie bajek, a jeśli to ignornacja to zpoznać się czym jest dlss, potem opowiadać.
@wojtekspychaa21596 ай бұрын
Widzę że poza problemami z czytaniem ze zrozumieniem pojawiają się w społeczeństwie problemy z oglądaniem ze zrozumieniem… masz na filmie pokazane jak DLSS 3.5 (Ray Reconstruction) poprawia znacznie jakość renderowanego obrazu (odbicia w kałuży, ale poza tym też ogólnie ilość zaszumienia oraz szybkość jego realizacji). Inna sprawa za samo DLSS Super Resolution (komponent tej biblioteki odpowiedzialny za upscaling) czasami faktycznie oferuje lepszy efekt od prymitywnego wygładzania TAA - zwłaszcza w przypadku bardzo wąskich obiektów - polecam doczytać sobie gdzie na ten temat.
@AndrzejWilkable6 ай бұрын
@@wojtekspychaa2159 Człowieku serio daj sobie spokój, łączysz dwie różne technologie, po pierwsze poprawia jakość śledzenia ale po włączeniu dlss, to jest potrzebne dlatego, że włączasz dlss czyli pogorszenie jakości obrazu względem ustawień natywnych, stąd nvidia udostępniła poprawę jakość śledzenia aby było to bliższe natywnej konfiguracji. To że artykuły marketignowe piszą, że to dodaje cos nowego do grafiki starej gry, że poprawia obraz natywny, to jedynie na zasadzie, że możesz ustawić teoretycznie wyższe opcje graficzne aby zachować płynność grafiki na danym gpu, ale w porównaniu do natywnych ustawień będzie to bliskie, ale gorsze, mam na myśli w stosunku do natywnej rodzielczości i SSAA. Także powtarzam, jeśli nie masz o czymś pojęcia, a swoją wiedzę czerpiesz z materiałów marketingowych, to po prostu o tym nie opowiadaj.
@AndrzejWilkable6 ай бұрын
@@wojtekspychaa2159 I jeszcze różca między SSAA a DLSS, jest taka, że ta pierwsza technika korzysta z obrazu wyższej rozdzielczości i skaluje do niższej, czyli nie oszukuje i faktycznie poprawia obraz, a ta druga działa w drugą stronę, z niższej robi wyższą rozdzielczość, siłą rzeczy pogarszając obraz, względem ustawień natywnych.
@drakouzdrowiciel9237Ай бұрын
thx
@Operator_666 ай бұрын
Ciekawe czy kiedyć na radeonach albo na Intel Arc będzie AI
@wojtekspychaa21596 ай бұрын
Jest już teraz ale jako że są to produkty nadal bardzo niszowe a do tego w takich rozwiązaniach znacznie wolniejsze to nikt specjalnie mocno nie rozwija wsparcia dla nich w takich otwartych i darmowych aplikacjach. Zwykle jedyne co można zrobić to "emulować" CUDA co oznacza jeszcze większy spadek wydajności... No i zwykle nie wszystko w takim przypadku działa. Niemniej, dedykowane jednostki mają obecnie karty wszystkich producentów.
@raven14396 ай бұрын
Bez problemu możesz używać LLM np. LLama 3 pod Windows na AMD, w tym celu można wykorzystać zmodyfikowaną wersję LM Studio, która używa ROCM.
@wojtekspychaa21596 ай бұрын
@@AndrzejWilkable pierwsza rzecz - czytanie ze zrozumieniem - nikt tu nie mówi nic o jednostkach RT (które tak jak piszesz sa na Radeonach ale są znacznie wolniejsze i w praktyce nawet Intel Arc wypada w tej kwestii lepiej). Druga rzecz - Radeony to jest produkt niszowy - poniżej 20% udziałów w rynku GPU dla graczy. Jednostki które są używane w zadaniach związanych z AI też są nie tylko liczniejsze (304 Tensory w RTX 4080 vs 192 AI Cors w RX 7900 XTX), ale również wydajniejsze i do tego faktycznie pod nie (tensory) są optymalizowane aplikacje i których mówię w filmie. Od jakiegoś czasu w moich recenzjach GPU na benchmark-pl są też testy AI gdzie dokładnie widać jak AMD się zmaga z tym tematem, nie mówiąc o tym jak dużo trzeba się namęczyć aby te aplikacje oszukać ze niby mamy Tensory bo bez tego często w ogóle nie chcą używać GPU i proces się dramatycznie wydłuża. Podobnie jest z kartami Intela. Ale oczywiście śmiało - poleć nam aplikacje, w której Radeony osiągana więcej irytacji na sekundę w przetwarzaniu AI niż karty RTX w zbliżonej cenie :) (albo nawet segment droższe bo obecnie 7900 XTX zwykle wypada na poziomie RTX 4060 Ti w kwestii np. generowania obrazów z pomocą AI po uwzględnieniu wszystkich optymalizacji dla obu kart…).
@wojtekspychaa21596 ай бұрын
@@AndrzejWilkable przekonałem autora wyżej co najwyżej że nie ma możliwości łatwiej zabawy z AI na Radeonach, co po części jest prawdą, bo nie jest to tak proste jak pokazałem na filmie na laptopie z RTX. Przestańmy mylić RT z AI. A to że Radeony mają wolniejsze jednostki AI to jest fakt - skoro posiadający mniej jednostek RTX 4060 Ti wypada szybciej lub podobnie co RX 7900 XTX w tych zastosowaniach (generowania z AI). Nie ma w tym też nic dziwnego - Nvidia AI rozwija dwa lata dłużej i przeznacza na to znacznie więcej środków.
@AndrzejWilkable6 ай бұрын
@@wojtekspychaa2159 Przekonałeś do tego co jest w tym komentarzu napisane, przeczytaj go uważnie i ze zrozumieniem.