Czy NVIDIA oszukuje na FPSach?

  Рет қаралды 62,316

moreleTV

moreleTV

Күн бұрын

Пікірлер: 276
@MoreleTV
@MoreleTV Жыл бұрын
👍 Subskrybuj moreleTV ➡ morele.tv/subskrybuj 🛒 Karty NVIDIA z serii 40 ➡ morele.tv/41K9tit ⚠ A tu znajdziecie najnowsze promocje na Morele ➡ morele.tv/3UWXYAq
@bobieplorg8830
@bobieplorg8830 Жыл бұрын
Dobrze zrobiony materiał, wszystko wyjaśnia - jak DLSS3 działa, jak zwiększa wydajność oraz porównania. Oby więcej takich filmów 👍
@TekTesters
@TekTesters Жыл бұрын
Wiadomo, u nas same dobre :D Dzięki za komentarz!
@AlphaCentauri69
@AlphaCentauri69 Жыл бұрын
Nie zwiększa wydajności tylko płynność kosztem jakości i opóźnienia.
@bobieplorg8830
@bobieplorg8830 Жыл бұрын
@@AlphaCentauri69 Zwiększa wydajność, czyli jest w stanie wygenerować więcej klatek, ale niestety tak jak powiedziałeś, mogą zawierać artefakty oraz zwiększają opoźnienie, co ma wpływ w grach e sportowych, ale w grach single to aż takiego dużego znaczenia nie ma A i tak, DLSS3 zwiększa płynność dzięki wyższej liczbie klatek
@carvideos5276
@carvideos5276 11 ай бұрын
⁠​⁠@@AlphaCentauri69Kolego mówisz chyba o AMD FSR bo DLSS 3 od nvidia nie zmniejsza efektywności w żaden sposób
@AlphaCentauri69
@AlphaCentauri69 11 ай бұрын
@@carvideos5276 O obydwu tych technikach. Zarówno DLSS jak i FSR pogarszają jakość obrazu tylko DLSS jest lepiej wykonany i mniej rozmydla obraz. Dodatkowo dodają one input laga dlatego są bezsensu do gier typu CS, Valorant, Mc itd.
@beltoru
@beltoru Жыл бұрын
hehe RTX 4070 sie nie sprzedaje??? Jak nvidia tak dobrze sobie radzi z generowanie klatek, proponuje jej wygenerowac sobie wiecej $$$. Za reszte dolozyc ramu do kart serii 40...
@Aristosek
@Aristosek Жыл бұрын
łap kciuki i leć na górę komentów
@michterion
@michterion Жыл бұрын
Nwm ja mam np 4070Ti. I działa bardzo dobrze. Płacz ludzi wynika chyba tylko z cen
@beltoru
@beltoru Жыл бұрын
@@michterion Raczej potencjalni klienci sa niezadowoleni z innego powodu. Ten "placz" moim zdaniem wynika z tego, ze wzrost ceny nie idzie w parze z wydajnoscia. Na wykresach swietnie wyglada wydajnosc, tylko szkoda ze w grach obslugujacych DLSS 3.0 (marketingowcy dzialaja pelna para 😀). Na koniec chcialem ci uzmyslowic, ze jestes beneficjentem "placzu" ludzi. Twoja karta kosztowala duzo drozej gdyby nazywala sie 4080 12gb.
@slizki5777
@slizki5777 Жыл бұрын
​@@beltoru A twój płacz wynika z posiadania Radeona xD
@beltoru
@beltoru Жыл бұрын
@@slizki5777 lol jaki placz??? Uwazasz, ze seria 4070 (oraz nizsze modele) jest udana??? AMD nie jest lepsze. Serie 7xxx uwazam tez za niewypal. BTW. twoja docinka wynika z posadania karty geforce???
@sauron2012lifad
@sauron2012lifad Жыл бұрын
Nie żałuje kupna 4070. Cyberpunk na Ultra RT w 95-110 fps to sztos. Overdrive działa w 50-60 fps. Input Lag na poziomie 60-70ms który jest prawie nieodczuwalny na monitorze 1ms 165hz. Polecam, warto było. :)
@sauron2012lifad
@sauron2012lifad Жыл бұрын
@@xanxenon1934 Gram na procesorze i5 11400f w 2560x1440 oraz podaje wartości otrzymane w centrum miasta gdzie wydajność najbardziej spada. Pewnie na i5/i7 13 generacji byłoby 130fps, ale i tak jest okej. Użycie procesora 40-50% a GPU 95-97%, także Bottlenecku nie ma. Do starszych procesorów idealna karta.
@xanxenon1934
@xanxenon1934 Жыл бұрын
@@sauron2012lifad Ok, dzięki za info. Miłego grania. :)
@KoW
@KoW Жыл бұрын
Czekaj czekaj, ale z tym input lagiem wydaje mi się, że zaszedł pewien błąd logiczny. Bo nigdzie nie jest powiedziane o input-lagu której klatki mówimy? Jeżeli jest to "lag" między prawdziwą klatką, a tą "dorabianą" to mija się to trochę z celem, ponieważ ta kolejna "prawdziwa" klatka czeka jeszcze na swoje wyświetlenie, a na niej akcja jest w teorii o 50% dalej. Stąd w grach typowo na refleks jak CS:GO będziemy widzieć o 50% mniej niż przeciwnik, a doliczając ten czas w którym zobaczymy to co faktycznie powinniśmy widzieć inputlag może wyjść o wiele większy. Tak w teorii ten inputlag powinien się zwiększyć o 1 / (ilość klatek * 2) (sekundy) o ile uznajemy klatkę "sztuczną" jako połowę "odkrycia obrazu". Jeżeli nie uznajemy jej w ogóle, to inputlag według moich obliczeń będzie wynosił dodatkowe: 1 / ilość klatek (sekundy). Zabrakło trochę moim zdaniem doprecyzowania tego co tak naprawdę mierzymy. Bo wiadomo, że klatka środkowa będzie miała szczątkowe informacje na temat tego "co się za chwilę wydarzy" bo zna niejako "przyszłość" i w czystej teorii jest wstawiana w miejsce drugiej prawdziwej klatki. Więc inputlag jaki tutaj powstaje to tylko i wyłącznie czas potrzebny na sklejenie 1 sztucznej klatki z 2 prawdziwych. Ale z drugiej strony będzie to tylko maksymalnie połowa postaci wychodzącej zza ściany niż to co byśmy widzieli przy tylko prawdziwych klatkach. Moim zdaniem było by to trzeba zmierzyć w 2 wariantach: Tak jak domyślam się, że było to zrobione w tym teście, czyli akcja - reakcja na "półklatce" i drugi wariant akcja - reakcja na prawdziwej klatce i wtedy jeszcze te dwa czasy ze sobą porównać.
@piernik987
@piernik987 Жыл бұрын
W grach typu CS:GO nie używasz tej technologii. /eot
@AK-vg6ci
@AK-vg6ci Жыл бұрын
Jeśli na wyświetlenie czeka tylko jedna prawdziwa klatka podczas gdy wyświetlana jest akurat wygenerowana to przy 200fps w csie to tak jakbyś dodał 0.5-2 do pingu (jak ktoś jest lepszy z matmy niech powie dokładnie). Gorzej jeśli algorytm nie jest tak idealny jak mówią i czasem dlss dostanie czkawki to wtedy 5-10 do pingu (uproszczając oczywiście bo wiadomo że ping nie równa się input lag) to w przypadku grania półprofesjonalnego robi różnicę.
@AK-vg6ci
@AK-vg6ci Жыл бұрын
A nie sory porąbało mi się że sekunda ma 100ms a ma 1000, to w sumie przy 200fps w cs, dzielisz sekundę na 200fps to jedną klatkę masz co 5ms. Czyli tak jakbyś dodał 5 do pingu. Plus jakaś randomowa czkawka to może i czasem wyjść 20ms input lag. W przypadku jakiegoś śmiesznego spidermana dla przedszkolaków to im nie robi różnicy ale jak grasz ćwierćfinały esla to niuja
@KoW
@KoW Жыл бұрын
@@AK-vg6ci otóż to, a do CS, gdzie mam 200 klatek raczej i tak bym nie stosował DLLS 3. Częstszym zastosowaniem tej technologii będzie sytuacja w której mamy 30-40 fps i chcemy zwiększyć tą ilość x2 do 60 fps. Wtedy czas akcja-reakcja czyli input-lag może być już naprawdę spory i na takie wyniki nastawiałem się w tym teście.
@KoW
@KoW Жыл бұрын
Pozatym, teraz sobie uświadomiłem faktycznie jakie bezcelowe wydaje się mierzenie tej wartości pomiędzy prawdziwą klatką, a najbliższą wygenerowaną. Bo teraz taki przypadek: ok, ktoś widzi zmianę w "sztucznej klatce" i chce w 100% zmienić swoją decyzję, czyli np. skręcić w lewo samochodem zamiast w prawo jak miało to miejsce między 1 a 2 prawdziwą klatką. Gracz reaguje na 1 sztuczną klatkę między 1 a 2 prawdziwą, zmienia kierunek ruchu, jednak gra wyświetla mu dalszą drogę w poprzednim kierunku (2 prawdziwa klatka) gracz widzi, że gra nie słucha jego poleceń. Dopiero kolejna wygenerowana klatka (między 2 a 3 prawdziwą) daje mu obraz tego, że jego reakcja została wczytana do gry, jednak pojawiła się z opóźnieniem. Wniosek jaki z tego wynika, inputlag przy DLLS 3 powinien być mierzony albo do najbliższej prawdziwej klatki, albo do najbliższej wygenerowanej (ale zawsze trzymać się jednego wyboru). Innymi słowy inputlag w tej sytuacji powinien być liczony do drugiej klatki wyświetlonej po zdarzeniu (np. kliknięcia), jedną klatkę powinniśmy zupełnie pominąć. I jestem ciekaw jakie będą wtedy wyniki.
@anemusek
@anemusek Жыл бұрын
Mam jakoś małe zaufanie do przeprowadzania pomiarów skuteczności rozwiązań Nvidii za pomocą softu Nvidii czy chipu Nvidii. To trochę sprzeczne z "rzetelnością naukową" Co do frame generator się nie wypowiem do póki nie zakupię karty i nie sprawdzę działania. Na to się nie zanosi ponieważ wykorzystuję karty też do dziwnych innych rzeczy i tu bardziej sprawdzają się karty AMD. Dwa razy lepiej więc celuję w RX7800XT/XTX ;) BTW Nvidia prowadzi jakąś kampanię? Jeden materiał o zaletach DLSS to ok, dwa, to robi się podejrzane, a trzy i dopiski "zawiera płatną promocje" już bardzo, bardzo podejrzane ;)
@Venom-gs4nz
@Venom-gs4nz Жыл бұрын
zycze milegooo dooktoryzowania sie w zakresie rzetenoosci dzalania technologi nv ;)
@Durzy007
@Durzy007 Жыл бұрын
Weź pod uwagę, że istnieję internet. Gdyby nvidia oszukiwałaby przy tak podstawowej sprawie jak pomiar kratek, to wszyscy by o tym wiedzieli. Ryzyko olbrzymie, zyski żadne. Zwyczajnie się nie opłaca.
@Adaśtubył
@Adaśtubył Жыл бұрын
To jest właśnie ten problem. Kiedy to najlepiej działa? Na już osiągniętych wysokich fpsach i wysokim odświeżaniu, a kiedy to faktycznie potrzebujemy? A no właśnie wtedy kiedy nam brakuje fpsów czyli na 50~60fps oraz niskim odświeżaniu. Także w skrócie dla biedaków to nie jest żaden ratunek, ficzer dla tych którzy już mają full klatek i odświeżania i chcą mieć jeszcze więcej - choć nie wiem po co skoro jest to kosztem jakości.
@matiolok2429
@matiolok2429 Жыл бұрын
DLSS rozmazuje obraz ale wystarczy w tym przypadku pobawić się suwakami ostrości tymi w sterownikach w danej grze i w samym monitorze i problem znika no chyba że jest włączony tryb ultrawydajności to z tego nie polecam korzystać tryb wydajności najniżej.
@de_iure
@de_iure Жыл бұрын
To nie jest problem, to jest niezrozumienie techniki jaką wykorzystuje ta technologia. To działa na zasadzie animacji poklatkowej, więc jeśli GPU się nie wyrabia z renderowaniem normalnych klatek, to nie ma też czasu na wysyłanie danych do CPU i z powrotem. Do tego oczywiście dochodzi zależność "im więcej danych wejściowych, tym więcej informacji = mniej artefaktów".
@Smok1125
@Smok1125 Жыл бұрын
@@de_iure Czyli całkowicie nieprzydatna i bezsensowna rzecz. Po co włączać coś co pogarsza obraz skoro do działania potrzeba, dla przykładu 100 klatek, skoro gra i tak działa dobrze?
@api3de
@api3de Жыл бұрын
bzdury totalne. włącz sobie chłopie w cyberpunku pt przy 1440p i będziesz mieć 15-20fps na rtx 4070,włącz dlss3 i fg i będzie 60-80fps właśnie twoja teoria legła w gruzach. nie mam ,nie wiem ,ale się wypowiem... ja mam ,wiem i musiałem skomentować te brednie.
@api3de
@api3de Жыл бұрын
@@matiolok2429 prawda jest taka ,że jak włączysz dlss i wyostrzanie obrazu przy przeskalowaniu w górę to wygląda to dużo lepiej niż w natywnej rozdzielczości bez przeskalowania. więc te rozmazanie obrazu to pikuś bo dopalasz obraz sharpeningiem i wygląda to bosko.
@elkikoriko
@elkikoriko Жыл бұрын
Zauważyłem tez ze youtube strasznie obniża jakość obrazu, wiec na pewno róznice jak by ktos grał na swoim komputerze bedą bardziej zauważalne pomiędzy fałszywą a prawdziwą klatką. Rożnicę można dostrzec na większym monitorze/telewizorze, ja mam 55cali i jak nie siedzę jakoś daleko Widać dużą różnicę jak oglądam jakąś gierkę, a potem uruchomię jak na swoim kompie. Tak samo granie na większym calażu siedząc dosyć blisko z właczonym dlss nie jest takie przyjemne dalsze obiekty maja strasznie słabą jakość, ale testowałem to w sumie na dosyć starym dlss prawie rok temu.
@sacek7398
@sacek7398 Жыл бұрын
jeśli 1.0 to dla mnie był nie do użytku, w Rise of the tomb raider obraz był całkowicie nieostry i rozmyty. Od razu wyłączyłem tę opcję. W Cyberpunku z 2.0. lub 3.0 ciężko mi było coś zauważyć nie tak z obrazem. Za to płynność jest dużo lepsza i gra się dużo lepiej.
@MsJaro89
@MsJaro89 Жыл бұрын
Szczerze. Mam 3080 ti i nie powiem, że teraz żałuje z przesiadki ale potrzebujemy dlls (oczywiście ja dlls 3 nie mam na tej generacji) głównie jak używamy RT. Szczerze preferuję grę bez RT i mogę sobie pozwolić na wyższą rozdzielczość nawet bez dlls na podbijanie rozdziałki. I chyba tak jest lepiej. RT rozpoczął wyścig, który moim zdaniem idzie w złym kierunku i wymaga zbyt wiele poświęceń.
@Aristosek
@Aristosek Жыл бұрын
Tytuł powinien brzmieć: 'Czy Nvidia ma problem ze sprzedaniem górek magazynowych po zawyżonych cenach'. Ewentualnie: 'Czy ma czkawkę po co\/idowo/kryptowalutowym eldorado'?
@quakeRTX
@quakeRTX Жыл бұрын
sam też testowałem to bardzo dokładnie w cyberpunku i ogólnie doszedłem do wniosku, że się opłaca mieć włączone zarówno DLSS jak i frame generation bo specyfika gry jest taka, że tych artefaktów czy poświaty aż tak nie widać zwłaszcza przy włączonym rozmyciu, które do gry akurat pasuje choć zawsze go wyłączałem.
@errr9408
@errr9408 Жыл бұрын
Konkretnie i na temat. ZMASLO pytanie do wykresów, tam gdzie masz opóźnienia pierwsze od góry NVIDIA Reflex (WYŁ) to jest opóźnienie natywne bez żadnego dlss?
@Alderkan
@Alderkan Жыл бұрын
najpierw nas oszukują na sztucznym jedzeniu, potem dostaniemy puste pieniądze dzięki inflacji, a teraz nawet klatki sztuczne xD
@koszalek
@koszalek Жыл бұрын
To tak jak z dieselami niby dobre a wyszło górze,tylko nie rozumiem ludzi czemu nabierają się na tego typu sztuczki
@Fencio_Zorza
@Fencio_Zorza Жыл бұрын
I teraz pytanie do wszystkich Czy patrzenie na gry pod 4 krotnym zoomem i analizowanie kazdej klatki jesg aby napewno konieczne. Fakt fajnje jest jak jest ladna grafika ale to gamepley sie liczy
@bartlomiejfrej1416
@bartlomiejfrej1416 Жыл бұрын
Warto było poświęcić czas aby obejrzeć. Fajny kontent na temat nowych technologii z których korzystamy i jak działają. Trzymam kciuki za kontynuację.
@inqizzo
@inqizzo Жыл бұрын
W sumie tego nikt nie używa xd
@windows11porady82
@windows11porady82 Жыл бұрын
Ja korzystam@@inqizzo
@api3de
@api3de Жыл бұрын
jako użytkownik rtx 4070 jestem zauroczony dlss+ fg+rt+sharpening+dsr całość miażdy ,cyberpunk z path tracing 1440p -> dsr przy i5 11400f to 60-80fps. szok. opóźnień nie widać ,jakość obrazu bajka. bez dzielenia włosa na czworo nie ma się do czego dowalić,można tylko psioczyć na 12gb vram,ale ogólnie technologia jest kosmiczna. fajne jest to,że im więcej dopakuje grafikę detale i rozdzielczość to procesor staje się coraz mniej znaczący,czyli przestaje być wąskim gardłem,po prostu rewelacja. przesiadka z i5 6600k + gtx 1060 to jak lot w kosmos.
@grzegorz_iwan_ivanov
@grzegorz_iwan_ivanov Жыл бұрын
Elegancko wytłumaczone wszystko :)
@pooh82wawa
@pooh82wawa Жыл бұрын
Bardzo ciekawy film. Czy można taki sam o wsparciu software'owym od AMD, czyli FSR? pozdrawiam
@Agrabelek_Michal_K
@Agrabelek_Michal_K Жыл бұрын
Oglądałem porównania i FSR robi więcej artefaktów.
@Elytra_krokiecyk
@Elytra_krokiecyk Жыл бұрын
dlss działa na hardware a fsr na software wiec na pewno bedzie troche gorzej ale i tak jest bardzo dobrze jak na czyms opartym na soft
@Agrabelek_Michal_K
@Agrabelek_Michal_K Жыл бұрын
​@@Elytra_krokiecyk prawda.
@TekTesters
@TekTesters Жыл бұрын
Będziemy robić na pewno.
@Eihei
@Eihei Жыл бұрын
Podsumowując - frame generation nie zwiększa wydajności, jest po prostu upłynniaczem obrazu. Mówiąc najprościej to interpolacja z użyciem AI. Bez reflexa to byłby dramat.
@Criisko
@Criisko Жыл бұрын
Ale jest reflex i w efekcie jest to game changer, jak ktoś raz spróbował FG to później będzie oczekiwał tego w każdej grze nie wyobrażając sobie powrotu do starszych kart.
@Eihei
@Eihei Жыл бұрын
@@Criisko no nie wiem, mnie jakoś to nie przekonuje. Z klasycznego DLSS za to korzystam.
@Criisko
@Criisko Жыл бұрын
@@Eihei Może po prostu lubisz jak Ci obraz klatkuje.
@de_iure
@de_iure Жыл бұрын
@@Eihei FG nie działa przy użyciu AI. To marketingowy bełkot NV. Jedyne co tam jest w użyciu przez Tensory, to wektory ruchu. Reszta jest klasycznie realizowana przez CPU, jak każda inna animacja poklatkowa.
@Venom-gs4nz
@Venom-gs4nz Жыл бұрын
@@de_iure przecież działanie rdzeni tensor opiera sie ich fejk ai;) panie bełkot;)
@robertjabonski2133
@robertjabonski2133 Жыл бұрын
Najlepszy duet na polskim KZbin. Pozdrawiam
@UnstoppabIe
@UnstoppabIe Жыл бұрын
Każdą wiedzę przyjmę 😊
@xW3rder
@xW3rder Жыл бұрын
Właśnie dzisiaj przyszła 4080 i jest super! Frame generation to dosłownie jakaś magia. Obawiałem się o artefakty w sztucznych klatkach ale gołym okiem nie jestem w stanie niczego zauważyć. Bardzo dobry materiał chłopaki!
@Venom-gs4nz
@Venom-gs4nz Жыл бұрын
lubisz byc oszukiwany co ? xd
@xW3rder
@xW3rder Жыл бұрын
@@Venom-gs4nz xd zazdro masz co? Xddd
@CncPiotr99
@CncPiotr99 Жыл бұрын
@@Venom-gs4nz jesli to dziala to chyba dobrze. co z tego ze chlp ma swiadomosc ze jakosc miejscami spada . Nie widac tego podczas grania , za to czuc duzy wzrost klatek . i nie projcie sie ze FG psuje opoznienie. kogo obchodzi pare milisekund. Oby FSR 3 doscignelo FG a i zeby nie bylo nie jestem fanem i fanboyem nvidi.
@miraveilyt
@miraveilyt Жыл бұрын
@@Venom-gs4nz niestety, siła marketingu robi swoje u niektórych
@dawid123pl
@dawid123pl Жыл бұрын
Jedak jednej rzeczy nie sprawdziliście jeżeli mamy włączony dlss 2.0 i generator klatek dodatkowo zablokujemy klatki na np 80k/s to gra strasznie traci na płynności. Nie każdy chce mieć ile się da klatek ja na przykład lubię sobie zablokować klatki na 80 bo po co obciążać kartę i procka na full jak na 80k/s jest mega płynna gra.
@michachmielewski9577
@michachmielewski9577 Жыл бұрын
Mam lapka z 4080 i blokada fps w riva tuner się nie sprawdza z FG ON, ale obniżam fps inaczej, zachowując płynność i ciche wentylatory, obniżam TGP karty i zamiast 120 jest 80 fps.
@blessed747
@blessed747 Жыл бұрын
;) możemy się różnić w opinkach ;) ale BRATERSTWO pecetowej krwi ;) musi być więc lajk też. Pozdrawiam
@dominikjabonski5383
@dominikjabonski5383 Жыл бұрын
Ogólnie materiał super, wszystko pięknie wytłumaczone. Chciałem tylko się czepić (bądź źle coś rozumiem) bo z tego co mi się wydawało to właśnie Frame Generation był potocznie nazywany DLSS 3, a w materiale mówisz jakby to były osobne rzeczy. I druga sprawa (którą być może też źle rozumiem) jak to czekamy na FSR jak przecież już w kilku grach go widziałem i to nawet w wersji 2.1
@Luk9105
@Luk9105 Жыл бұрын
Czekamy na FSR 3.0... Zapewne to mieli na myśli
@912itachi
@912itachi Жыл бұрын
Dopracowany film + 11:00 jak to śmiesznie brzmi ze topowy procek za 3000 zł jest wąskim gardłem
@NOno-up1mr
@NOno-up1mr Жыл бұрын
Ja to sobie policzyłem i za to szacun się należy , jak bym na swoim GTX 560 ti odpalił frame generation to bym miał w cyberpunku 21 FPS i crasha po 47 sekundach gry. Poki co szukam coś co zadziała na dx 11 czy jak to tam się zwie, bo etedy windows 10 nie wypie... mnie przez okno. A tak serio chcecie Cyberpunka na DX 10 ?
@piechcik52
@piechcik52 Жыл бұрын
W Wiedzminie w 4k + dlss + frame generation mam straszne migotanie trawy. Dopiero jak wyłączę fg to problem ustępuje. Wy też tak mieliście???
@chlebaQQ
@chlebaQQ Жыл бұрын
co z input lagiem??
@DJPatrickHarris
@DJPatrickHarris Жыл бұрын
Nie ciawki czy da sie używać dlss dla starszych kart graficznych jak moja gtx 760 bez rtx
@elkikoriko
@elkikoriko Жыл бұрын
A czy bedą jakieś testy tej nowej funkcji od nvidia? video super resolution. W opisie tej funkcji jest napisane że, odbywa się to w zasadzie bez odczuwalnego obciążenia GPU oraz wzrostu poboru energii. Ja niestety jak włączę tą opcje na zwykłym youtube na filmie w full hd to pobór karty automatycznie podskakuje do 360w w rtx 3080 i temperatury tez siegaja 74 stopni juz po 2-3 minutach. Ciekawy jestem czy tylko u mnie tak jest, a na polskim yb nic nie znalazłem.
@grajek1111111
@grajek1111111 Жыл бұрын
Hejo. Śmiga także na niższych modelach jak do tej pory czy dlss 3.0 tylko na 4xxx?
@matas91
@matas91 Жыл бұрын
17:21 Panowie, przecież poprawa 100% to 0ms. Poprawę wcześniej zmierzyliście około 50%, a nie 100% xD
@piotrbilu7037
@piotrbilu7037 Жыл бұрын
ja włączam dlss aby znacznie zmniejszyć pobó prąduu podczas grania z 140w bez dlss do 60-80w z włączoną funkcją
@stark_2991
@stark_2991 Жыл бұрын
To zadziała tylko wtedy, jeśli uzyskujesz tyle samo klatek bez DLSS i z DLSS (innymi słowy masz jakiś ogranicznik). Ale musisz chyba ustawiać jakiś niski tryb jakości?
@michachmielewski9577
@michachmielewski9577 Жыл бұрын
Kolega gra zapewne na laptopie, też tak robie. Na Legion 7 pro w 1600p mam 120 fps na RT ultra, obniżam TGP z 170 na 100 wat i mam aż 80 fps i cisze i płynność.
@dynaxd5d
@dynaxd5d Жыл бұрын
Nie. Nie korzystam z DLSS-a, bo jak ponad pół roku temu modernizowałem komputer, to najkorzystniejszym wyborem (cena/jakość) była karta RX6750. Od AMD oczywiście. Teraz trochę żałuję, że nie poczekałem trochę, ale raz już czekałem aż potanieje... Parę lat.
@dzarod3550
@dzarod3550 Жыл бұрын
Juz po samej premierze nowych kart oglądałem materiały jakiegos zagranicznego kanału i gość pokazywał, ze to badziew bo artefakty, a ja nawet ich zauważyć nie potrafiłem, musiałem mocno się przyglądać. Generalnie sam kupiłem kartę z nowej serii i jestem mega zadowolony, to generowanie klatek dla mnie to po prostu coś wspaniałego. Oczywiści do gier sieciowych pewnie bym tego nie włączył, ale do grania w jakies najnowsze gierki single player, które to wspierają, no po prostu bomba.
@grzegorzmalinowski9841
@grzegorzmalinowski9841 Жыл бұрын
Czyli jest ratunek dla mojego 2060 super 🤩 jakie ustawienia sa optymalne w takim razie ? Ustawia sie na jakość , wydajność czy pośrodku ?
@krzychu1766
@krzychu1766 Жыл бұрын
Super film chłopaki , dobrze wiedzieć takie informacje
@MichalTarach
@MichalTarach Жыл бұрын
Frame Generation w Wiedźminie 3 po około 20 minutach wywala grę do pulpitu na RTX 4070 Ti, więc w tej grze tego nie używałem.
@grzegorzryznar5101
@grzegorzryznar5101 Жыл бұрын
Super profesjonalnie zrobione! Dzięki za materiał :)
@KaZuoBeats
@KaZuoBeats Жыл бұрын
Ja odpaliłem wieszimina z generowaniem klatek to mi wywaliło opóźnienia do 250ms, na rtx 4060 z r5 3600, dramat
@KaZuoBeats
@KaZuoBeats Жыл бұрын
Dobra, odpaliłem ponownie, wcześniej były jakieś błędy, mam teraz 70ms i 55/70fps
@Blazko381
@Blazko381 Жыл бұрын
​@@KaZuoBeatsto i tak duże opóźnienie. Do multi dlss3 się by nie nadał
@Wiktox109
@Wiktox109 Жыл бұрын
Moglibyście przetestować obudowa zalman i3 neo
@MarcinGustaw
@MarcinGustaw Жыл бұрын
Kolejne testy super, zachodzę jednak w głowę, dlaczego z uporem maniaka testuje się input lag w grach w których nie ma on żadnego znaczenia. Wiedźmin, Hogwarts i Cyberpunk - wszystkie to gry RPG w których po prostu mózg potrafi się przyzwyczaić do opóźnienia a akcja toczy się powoli. OK, rozumiem, że gry esportowe czyli CSGO czy Valorant rzeczywiście powinny być z tego testu wyłączone, ale aby test był rzetelny należałoby przeprowadzić go w grach różnego rodzaju (symulatory, wyścigi, strzelanki nie esportowe), albo wyraźnie powiedzieć, że input lag wyłącznie w grach RPG z użyciem Frame Generatora nie robi różnicy a w pozostałych nie wiemy, bo nie testowaliśmy. W pozostałymi wnioskami zgadzam się w zupełności, w akcjach dynamicznych i tak przeważnie nie widać przekłamań (chociaż one potrafią wystąpić) a płynność gier jest zdecydowanie lepsza. Nadal twierdzę jednak, że te technologie (DLSS i Frame Generator) zostały źle zrozumiane przez twórców gier i zaczynają być przez nich wykorzystywane w bezczelny sposób - gra nie działa płynnie na karcie za prawie 10K? - włącz sobie generatora klatek. Pozdrawiam.
@ZMASLO
@ZMASLO Жыл бұрын
Testuje się takie gry bo w takich grach najczęściej Frame Generation się implementuje. W grach esportowych gdzie faktycznie opóźnienia mają znaczenie tej funkcji nie ma bo jak pokazałem na tym przykładzie 20:27 tam powodowałoby to większe opóźnienia gdzie nie jest to pożądane. FG jako technologia raczej nie ma sensu w grze takiej jak overwatch czy valorant.
@MarcinGustaw
@MarcinGustaw Жыл бұрын
​@@ZMASLO "Testuje się takie gry bo w takich grach najczęściej Frame Generation się implementuje" - z tym się nie zgodzę - nie tylko w RPG. Oczywiście, lista gier jak na razie nie jest jakaś imponująca, ale skoro w filmie pojawił się np F1 22 to do testów input laga byłby w sam raz, ale go nie było. Jest również np. Forza 5, NFS Unbound, Microsoft Flight Simulator.
@p.l.ren.
@p.l.ren. Жыл бұрын
Zastanawiam się czym Nvidia będzie chciała zaskoczyć graczy wydając serię 5xxx. Będą jaja jak odetną się od Dlss i objawią wszystkim nową cudowną technologie.
@xflashu8075
@xflashu8075 9 ай бұрын
Na targach computex w czerwcu mają zaprezentować 50900👀
@Commtek
@Commtek Жыл бұрын
Panowie co myślicie do grania w full hd, rtx 2080 posiadam, korci mnie intel arc 770, warto zmieniac ?
@tk-ch2zh
@tk-ch2zh Жыл бұрын
Czyli jasne jest to ze to technologia przejsciowa. Bo ma wady nie do wyeliminowania.
@wdowa94
@wdowa94 Жыл бұрын
Przy 4070Ti jest niemała różnica w funkcjonowaniu Frame Generation między B450 (PCI-E 3.0) a B550 (PCI-E 4.0)
@banc76
@banc76 Жыл бұрын
DLLS najwięcej daje jeśli karta normalnie generuje 30-40 klatek a z włączonym 60. Jak się ma 4090 to można wyłączyć. Nie mam okazji używać DLLS 3 ale praktycznie zawsze używam DLLS na mobilnym 3070. Jest płynniej.
@fabiankowalski2675
@fabiankowalski2675 Жыл бұрын
Super materiał
@Czaakki
@Czaakki Жыл бұрын
Wydaje mi się że zabrakło porównania gameplayu gry np w 120 klatach "zwykłych" vs 120 klatkach generowanych tj z włączonym DLSS3. Podobno uczucie/wrażenie braku płynności i responsywności jest gorsze z DLSS3.
@api3de
@api3de Жыл бұрын
nie ma czegoś takiego jak brak respondywności i brak płynności,to są jakieś pieprzone bzdury powielane przez radeonowców,nic takiego nie ma miejsca,a jakby było to na pewno bym to odczuł,bo jestem przewrażliwiony na tym punkcie. jedyne co może wystąpić to tearing,ale u mnie wszystko śmiga jak z vsync,wszystko super płynnie,bez rozjeżdżania się obrazu.
@micharutkowski6029
@micharutkowski6029 Жыл бұрын
​@@api3de Jak najbardziej może wystąpić jak karta nie wyrobi się w np. 10ms dla 100FPS a potem zrobi kolejne dwie w 9ms to jedna klatka jest wyświetlana 2 razy a kolejna jest pomijana. I w efekcie obrazowi brakuje płynności mimo dużej liczby FPS bo jedna klatka jest wyświetlana dłużej niż inna.
@marekchudy8893
@marekchudy8893 Жыл бұрын
Dziękuję I pozdrawiam
@marcins6071
@marcins6071 Жыл бұрын
czemu jest aż tyle filmów które dotyczą ilości wyświetlanych klatek na sekundę w komputerach?
@rafals9019
@rafals9019 Жыл бұрын
Bo wiekszość bardziej jara sie klatkami niz grami😉
@iset112
@iset112 Жыл бұрын
Używam DLSS 2 RTX 3060 póki co wystarcza i Reflex w tych grach w których jest dostępny 😀
@animatiV9
@animatiV9 Жыл бұрын
Czy to prawda że G-Sync Ultimate jeszcze bardziej obniża opóźnienia obrazu?
@Venom-gs4nz
@Venom-gs4nz Жыл бұрын
każda synchronizacja obrazu to robi ;)
@nightstar6900
@nightstar6900 Жыл бұрын
przydaje mi sie DLLS gdy gram w wymagający tytuł w 4K , RTX 3060Ti nie jest idealny do 4K ,ale z DLLS jest ponad 70 klatek np: na Battlefield 2042 Niebawem zakupie TRX 4070Ti co pozwoli mi na używanie RT dzięki DLLS 3
@Blazko381
@Blazko381 Жыл бұрын
Sprawdź czy czasem lepiej nie dołożyć do rtx4080 lub kupić AMD.
@nightstar6900
@nightstar6900 Жыл бұрын
@@Blazko381 trzeba by dołożyć 2.400 zł i musiał bym jeszcze zasilacz za 500-700 kupić. Czyli 2 x drożej niż 4070Ti który jest 2x lepszy od mojej 3060Ti
@nightstar6900
@nightstar6900 Жыл бұрын
@@Blazko381 A karty od AMD nie kupię bo lubię DLLS i raytracing
@Blazko381
@Blazko381 Жыл бұрын
@@nightstar6900 zasilacz za 700zł do takiego GPU? To ty kupujesz tylko dlatego że jest RTX i DLSS, a nie patrzysz na wydajność xD? PC to wieczna skarbonka. Zobacz sobie wymagana minimalne nowych gier. Kupujesz GPU, a już za 2 lata jest za słaby. Ray tracing lubisz bo światełka lepsze? Na AMD też jest RT, a masz też mody na AMD FSR. DLSS nie jest idealny bo to sztuczne skalowanie a nie natywny obraz. Generowanie klatek robi jeszcze większe problemy, bo tworzy zniekształcenia obrazu. Z resztą jak masz monitor z Gsync ultimate to masz mega płynny obraz nawet od 1Hz. Mimo że to lepsza technologia, to droższa i o wiele mniej popularna.
@nightstar6900
@nightstar6900 Жыл бұрын
@@Blazko381 Ja jestem bardzo zadowolony z Dlls 2 Trzeba przyznać że 4080 jest dobry,ale drogi
@ryszardzokowski812
@ryszardzokowski812 Жыл бұрын
Jeśli mam 30 klatek na dajmy na to rtx 4060 czy 4070 i podbijam je za pomocą FG do 60 to przez ten lag i tak nie ma to sensu. Ma to sens jedynie przy wyższym klatkażu, ale po co mi więcej fps w grach single, bardziej istotne by to było w grach online, ale zaś lag sprawi, że było by to niegrywalne. Więc pytanie dla kogo ta technologia?
@Criisko
@Criisko Жыл бұрын
Dla osób które z 60 fps robią 120, powyżej 60 klatek opóźnienia nie są wyczuwalne ale już "brak szarpania" przez dodatkowe klatki jak najbardziej.
@de_iure
@de_iure Жыл бұрын
@@Criisko o to to.
@sic22l
@sic22l Жыл бұрын
Nie zapomnieliście o wzmiance o materiale sponsorowanym? Bo w ciągu ostatnich 3 dni internet zalała fala materiałów o DLSS3 i tylko część redakcji uczciwie przyznała się do finansowego wkładu nVidii.
@bobieplorg8830
@bobieplorg8830 Жыл бұрын
Tutaj akurat jest nawet wiarygodnie, ale niestety jedna informacja jest fałszywa, czyli że nie zwiększa opóźnień. Otóż zwiększa, ale nie aż tak znacząco. DLSS3 z Reflexem miał 33 ms a bez dlss i bez reflexa było 26 ms, więc dużej różnicy nie ma, ale w grach e sportowych ma znaczenie
@Asus8603
@Asus8603 Жыл бұрын
Brawo, świetny materiał, w końcu ktoś omówił temat dogłębnie 💪👍
@DiJAndy
@DiJAndy Жыл бұрын
8:00 Ha! Kamil gra postacią z domu Slitherin jak ja! *CLICK* Noice!
@TekTesters
@TekTesters Жыл бұрын
tak mi wyszło :D
@DiJAndy
@DiJAndy Жыл бұрын
@@TekTesters Po 10 godzinach spędzonych na zadaniach pobocznych i eksploracji dopiero teraz ruszyłem z fabułą. Aktualnie jestem w połowie drogi do "Avada Kedavra" oraz dzisiaj siądę do misji z przyniesieniem książki do komnaty map
@vito74m
@vito74m Жыл бұрын
A pamiętacie ja nshitia "oszukiwała" w Fallout 4? zmowa z producentem gry, "sadzenie trawy" w zbiornikach na dnie, by zajechać teselacją gpu od AMD, ale na szczęście to wyciekło... + ustawienie w sterowniku teselacji na "optymalizacja amd" załatwiało ich naciąganie maniaków. Nvidia pasuje mi do PiS, tam też tylko ślepy fanatyk widzi same zalety :D I testy na YT vs real, też pokazują, że lubi mieć w internecie więcej fps jak w rzeczywistości...
@vito74m
@vito74m Жыл бұрын
"podoba mi się" jak opowiadacie, że "właściwie nie widać" z FG, a nie mówicie, że bez tej technologii nie widać, bo nic nie jest psute...
@zGRYed
@zGRYed Жыл бұрын
Obejrzałem i... kurde, nie wiem co robić. Co lepsze - 3060 czy 4050? Szukam laptopa i trochę mi to namieszało.
@przemeck6378
@przemeck6378 Жыл бұрын
Tak jest
@adamadamx5464
@adamadamx5464 Жыл бұрын
Dla mnie to z tym input lagiem to trochę nie do końca. Jeśli przy natywnym 50 fps ma input laga 120ms, a przy natywnym 100 fps input lag wynosi 60ms, a po włączeniu FG przy 50 klatkach dostaję 100 fps z input lagiem 120, to dla mnie frame generator "dodaje" dodatkowe 60ms input laga, no bo z FG mam 100 FPS z lagiem 120ms, a w natywie mam 100 fps z lagiem 60ms, i tak wiem, że to nie wina FG że ten input lag jest taki duży, bo wziął się on z niskiej bazowej ilości klatek, no ale korzystanie z tej technologii kończy się właśnie takim efektem, stąd lag w cudzysłowie przypisuję FG. No i dlatego oczywiście wolę natywne klatki od FG, który jest fajny przy sporej ilości normalnych klatek i niskim input lagu, bo ze 120 klatek zrobi 240 i nasz monitor 240 Hz zostanie w pełni wykorzystany.
@michajanicki6860
@michajanicki6860 Жыл бұрын
bełkot bzdur
@de_iure
@de_iure Жыл бұрын
Co za bełkot. 100 FPS = frametime 10 ms w uśrednieniu. Nie masz również zielonego pojęcia jak działa ta technika. EOT.
@fabiankowalski2675
@fabiankowalski2675 Жыл бұрын
Spoko poradnik
@Daper2920
@Daper2920 Жыл бұрын
To nie poradnik debilu
@micha8707
@micha8707 Жыл бұрын
Pamiętacie te czasy gdy grało się na Pegasusie albo za słabym pc. Nie liczyła się jakość a zabawa.
@keycloudfilms
@keycloudfilms Жыл бұрын
Po co jakieś technologie upscalingu czy frame generation, jak można po prostu zoptymalizować grę lub nie psuć sztucznie jej wydajności? To, co robią studia z nowo wychodzącymi grami jest jakąś komedią, niedługo będzie potrzebny komputer za 20 tysięcy żeby płynnie zagrać na najwyższych ustawieniach. To wygląda nawet na celowe psucie wydajności gry, aby tylko kupować śmieciowe karty graficzne w horrendalnych cenach.
@Furmiii
@Furmiii Жыл бұрын
dla mnie ogólnie wolę mieć obraz jak brzytwa niż multum fps z poszczępiąnym obrazem
@raffi1264
@raffi1264 Жыл бұрын
Nie korzystam z żadnych funkcji. Nie jest to nic innego jak oszukiwanie, takie jak sztucznie generowanie klatek i zmniejszenie rozdzielczości przy karcie za około 10 tyś. LOL Gratulacje dla Nvidia i AMD. Tak się robi ludzi w ....Uja
@carvideos5276
@carvideos5276 10 ай бұрын
Sztuczna inteligencja DLSS 3 zwiększa ilość fps ale niszczy jakość obrazu i ogólną jakość grafiki podczas gry. Nie wykluczam, że taka technologia to przyszłość ale jest niedopracowana.
@adamadamx5464
@adamadamx5464 Жыл бұрын
Skoro FG dubluje klatki, to czemu nie mamy x2 wzrostu liczby klatek? I czemu w niektórych tytułach sam FG daje tyle co nic? Gdzie ta co druga wygenerowana klatka się wtedy podziewa? Przecież generowana klatka jest niezależna od CPU i GPU, więc w każdym wypadku powinniśmy mieć klatki x2, czy to 20 x2 = 40, czy to 200 x2 = 400.
@de_iure
@de_iure Жыл бұрын
Bo FG nie dubluje klatek. To działa na zasadzie animacji poklatkowej i wsadza "fałszywe" klatki (te, które zostały wyrenderowane na podstawie danych wejściowych już obliczonych klatek) pomiędzy te "prawdziwe", które są obliczone klasycznym FP32.
@de_iure
@de_iure Жыл бұрын
Jako, że to działa na takiej, a nie innej zasadzie, to wiąże się z tym właśnie kilka problemów, typu większy frametime (bo klatka już wyrenderowana musi poczekać, aż CPU wsadzi "fałszywą" klatkę pomiędzy te "prawdziwe").
@adamadamx5464
@adamadamx5464 Жыл бұрын
@@de_iure No to nie wyjaśnia czemu w jednych przypadkach mieli wzrosty nawet koło 2x, a w innych marginalne. Co się w takim razie stało z tamtymi klatkami? No i skoro to działa jak opisałeś to mimo wszystko powinno prawie dublować klatki, bo dostajemy kolejno zamiast klatek 1;2;3;4 klatki 1;1,5;2;2,5;3;3,5;4 (łącznie 7, czyli prawie 2x więcej, klatki 1,5 itp. są z FG)
@de_iure
@de_iure Жыл бұрын
@@adamadamx5464 no właśnie nie powinno :) Jeszcze raz - to działa jak animacja poklatkowa. Jeśli dane wejściowe się nie różnią, to CPU najczęściej pomija renderowanie tej "falszywej" klatki. Stąd też frametime przy tej technice jest tak nierówny.
@stars23PL
@stars23PL Жыл бұрын
Moim skromnym zdaniem DLSS 3 to szansa na grę w najnowsze tytuły w wysokiej płynności i w wysokiej rozdzielczości za w miarę rozsądne pieniądze (jak na dzisiejsze realia)i mowa o karcie rtx 4070 w x-com w promocji za 2750 zł. Te UDAWANE klatki i tak są niezauważalne, za to graficzne wodotryski na przykładzie najnowszego patha w cyberpunk ju są zauważalne i to kompie który można złożyć od zera za 5000 zł. Bo rtx 4070 pozwala na oszczędność na zasilaczu wystarczy 550W z kolei procek wystarczy ryzen 5 5600 i tania płyta i stokowe chłodzeni albo i5 12 lub 13 generacji od 12400 po 13500 na tanich płytach gdzie nie zaznamy wąskiego gardła. Kończąc myśl, dzięki tej technologi nie musimy kupować rtx 4080 i zestawiać z drogimi procesorami na drogich płytach głównych żeby pograć w najbardziej wymagające tytuły ze wszystkimi bajerami graficznymi i to jest piękne ❤
@Azglahal
@Azglahal Жыл бұрын
Problem najwyraźniej był bo na zachodzie pokazują na KZbin jak wyglądają klatki w niektórych grach i nie wygląda to ciekawie. W grach pod Nividie to działa. Trzeba też powiedzieć że problem jest raczej w sofcie nie w grafice. Wy pokazujecie to wszystko na RTX 4070 Ti a powinniście na mainstreamie RTX 4060. Czy jest jakaś różnica? W sensie czy generator AI chodzi tak samo dobrze na słabszym procesorze graficznym i ogólnie obciętej grafice? Poza tym soft Nvidii jest cały czas modyfikowany i może to daje takie fajne efekty teraz. Trochę późno ten film wychodzi. Jeżeli ktoś robi Screeny z gier to może się nadziać na artefakty co wynika nawet z tego filmu. Pomijając to wszystko to nie podoba mi się AI w grafice komputera i to jest moje prywatne odczucie. Cechuje mnie brak zaufania do tej technologii. Pozdrawiam i dzięki że podjęliście ten temat.
@adamgarczarek8174
@adamgarczarek8174 Жыл бұрын
Bardzo dobry i merytoryczny film. Dla mnie, użytkownika RTXa 4070 z monitorem 144 DLSS3 robi zdecydowanie różnice. Jako dla zwykłego użytkownika jakim jestem włączenie tej funkcji zauważalnie zwiększa płynność, a w obrazie nie dostrzegam żadnej różnicy. Jedynie słabe jest to, że ta funkcja jest niezbędna na przykład do Wiedźmina 3 z Raytracingiem. Tak wiekowa gra na takiej karcie powinna płynnie działać przy każdych ustawieniach, a niestety nie robi tego.
@marcinzdunek258
@marcinzdunek258 Жыл бұрын
Uwielbiam wasza dwójkę jest wesoło i na temat :D
@jakubknyps1686
@jakubknyps1686 Жыл бұрын
Czy fsr 3 zadziała za seri rtx 2000 i 3000 ?
@siwy9671
@siwy9671 Жыл бұрын
narazie to nawet nie podali na jakich radeonach jest tylko informacja ze beda otwarci i uzytkownicy intela i nvidi beda mogli uzywac fsr 3 ale nie wiadomo na jakich kartach na kolejnej konferencji sie wszystko okaze
@de_iure
@de_iure Жыл бұрын
@@siwy9671 zanim FSR 3 wyjdzie, to Nvidia wyda już 50xx.
@siwy9671
@siwy9671 Жыл бұрын
w tym roku bedzie fsr3 xd
@de_iure
@de_iure Жыл бұрын
@@siwy9671 no tak, 31 grudnia, to też ten rok.
@owsianelatte5876
@owsianelatte5876 Жыл бұрын
4050 z DLSS3 to będzie hit, chyba że wszystkie gry w 2023 będą potrzebowały min. 12GB vramu XD
@Venom-gs4nz
@Venom-gs4nz Жыл бұрын
w fhd juz teraz sa takie co potrzebuja wiecej niz 12 ;) ale to tylko alokacja tekstur wiec co najwyżej bd mieć gorsza jakość wyświetlanych tekstur xd
@michachmielewski9577
@michachmielewski9577 Жыл бұрын
DLSS W 1080p wygląda tragicznie, chyba że na laptopie.
@micharutkowski6029
@micharutkowski6029 Жыл бұрын
​@@michachmielewski9577 Niekoniecznie. Przynajmniej w Warzone 2 DLSS/XeSS/natywne jeden pies podczas gry o ile nie podziwia się widoków tylko strzela. Chociaż to będzie zależeć od gry w którą grasz.
@Maartini007
@Maartini007 Жыл бұрын
@@michachmielewski9577 przez chwile myślałem, ze Ty to ja, a ja to Ty XD
@wdowa94
@wdowa94 Жыл бұрын
Z przyjemnością
@kaciorx
@kaciorx Жыл бұрын
Czekam na testy ze słabszymi kartami. Wtedy będzie wiadomo jak się to zestarzeje, bo czym innym będzie wzrost z 20/30 klatek a czym inym z 60. Tak to mamy jedynie brandzlowanie się do liczb
@jarosawsiedlecki3126
@jarosawsiedlecki3126 Жыл бұрын
AI tam nie ma za grosz. Generowanie klatek na bazie sieci neuronowej to nie AI. Ot sposób zgadywania wyniku. Wektory nie mają nic precyzyjnego umożliwić. Są tylko danymi zwiększającymi prawdopodobieństwo prawidłowego zgadnięcia. I nie, te algorytmy nie nazywają się algorytmami AI. Dotyczy zarówno upscalera jak i generowania klatek.
@pejawave4103
@pejawave4103 Жыл бұрын
Fajny feature, ale nie killer. Zdecydowanie niewarty swojej ceny, ale jakby Nvidia rozsądniej wyceniła karty to kto wie. Przykro jednak, że w takich podwyżkach dostajemy tragiczny wzrost wydajności w rasteryzacji, a korpo zasłania się sztuczkami si xD Zdecydowanie seria 40XD za bardzo poszła w eksperyment- jak dla mnie do zapomnienia. Tak źle nawet nie było za serii 20XX.
@kubo8200
@kubo8200 Жыл бұрын
Z dlss tak z FG nie :P moim zdaniem rtx 4070 to wielka kupa :)
@Johnlemon.89
@Johnlemon.89 Жыл бұрын
Wychodzi na to, że możliwości sprzętowe się kończą.. teraz producenci będą konkurować ze sobą zastosowanymi technologiami software'u.
@emerwian83
@emerwian83 Жыл бұрын
To jedno a drugie to ograniczenie wykorzystywania watów. Wcześniej się nikt za bardzo prądożernością nie przejmował więc Nvidia z początku chciała dać produkt (RTx 4090) pochłaniający nawet 650 watów. Zaczął się kryzys z prądem i musieli ograniczyć pobór. Póki co to wydajność=pobór prądu. Póki nie znajdą się lepsze półprzewodniki nastanie era "sztucznego" generowania fps. Jak sam zauważyłeś wiele osób różnicy nie widzi mało tego. Wiele osób myśli,że ogrywa w 4K przy DLSS nie biorąc pod uwagę tego,że to już nie jest natywna rozdzielczość. Nikogo nie krytykuje ale osobiście nie kupiłem RTx 4000(miałem ale oddałem po kilku dniach). Jeżeli karta za takie pieniądze nie jest w stanie w natywnej rasteryzacji to szkoda pieniędzy. Użytkownicy serii 4000 będą bronić,reklamodawcy DLSS też będą bronić i wszyscy zadowoleni.
@Johnlemon.89
@Johnlemon.89 Жыл бұрын
@@emerwian83 Zgadzam się. W związku z Twoją wypowiedzią i ogólną wiedzą można wyprowadzić wniosek, że fizyki nie da się oszukać, a ludzi jednak tak ;). Pozdrawiam.
@kamilklx7951
@kamilklx7951 Жыл бұрын
Mam na sprzedaż iphone 14 tzn połowę drugą zjadł pies ale tą brakującą mogę zrenderować czy też wydrukować na drukarce 3D tak mogę skomentować ten cały DLSS.
@Pieteros21
@Pieteros21 Жыл бұрын
Czekamy na fsr3 ;)
@NoisyBoyGamingGG
@NoisyBoyGamingGG Жыл бұрын
wszystko fajnie tylko czemu to kosztuje miliony monet ? Dlaczego karty z raptem jednej generacji do tyłu dzisiaj okazują się rupieciami?
@piechcik52
@piechcik52 Жыл бұрын
Nowe Maserati też kosztuje majątek, niesprawiedliwe!
@ttwinsturbo
@ttwinsturbo Жыл бұрын
Ja na moim RTX4080 z I7 13700F z DDR5 6000 mhz używam tylko w grach z wymagającym RT w 4k max detalach. W innym wypadku gram w natywnym 4k lub DLSS quality bez FG :-) ale jak bym się uparł, że chce w każdej grze 150 i więcej fps z pewnością bym włączył FG ! Jest to super technologia i ja na 55 calowym Oledzie również nie widzę, żadnych artefaktów. A chyba nie będę stopował gry i analizował klatkę po klatce xD
@Apokathelosis
@Apokathelosis Жыл бұрын
"Czy NVIDIA oszukuje?". Tak. Nie trzeba kończyć.
@piotrty1539
@piotrty1539 Жыл бұрын
Oglądając na smartfonie to nie wiem gdzie była jakaś różnica 🤪
@Daper2920
@Daper2920 Жыл бұрын
Mnie nie obchodzi jak to działa, ważne że działa. A tak serio to dobry materiał pozdrawiam.
@andrzejrad8327
@andrzejrad8327 Жыл бұрын
Zmaslo, chłopaku utyłeś......😯
@mateuszpietrzyk5301
@mateuszpietrzyk5301 Жыл бұрын
Myślałem że tylko ja zauważyłem. 😅
@bachcomp1
@bachcomp1 Жыл бұрын
DLSS 2.0 to syf i mistyfikacja. Lepiej kupić np RX 6800 niż RTX 3070, które są w podobnej cenie. DLSS ma jakiś sens dopiero z kartami 4070 lub szybszymi. Polecam zagraniczny test RTX 3070 vs RX 6800.
@TrolekAmatorek
@TrolekAmatorek Жыл бұрын
DLSS będzie fajny za kilka lat, gdy czyiś komp juz nie będzie ogarnial. Ile ja bym dal zeby pograc w RE village nawet w ujowej ale płynnej jakości.
@de_iure
@de_iure Жыл бұрын
DLSS jest fajny już teraz, bo działa najlepiej z wszystkich technik AA.
@michachmielewski9577
@michachmielewski9577 Жыл бұрын
Ile ja bym dał.. Proponuje xss za 900zl, ograć grę i sprzedać xboxa i grę, cała zabawa mniej niż cena gry na steam ale lepiej marzyć zamiast żyć po swojemu.
@MatthewDyn
@MatthewDyn Жыл бұрын
Prawdziwa pozdro
@gameshoot8571
@gameshoot8571 Жыл бұрын
dlss w warthunder daje dużo artefaktów
@siwy9671
@siwy9671 Жыл бұрын
w jaki sposob? jest w ogole dlls3 i FG w warthunder ? czy tylko dlss 2 jest
@gameshoot8571
@gameshoot8571 Жыл бұрын
​@@siwy9671 jest dlss i ogólnie to jak termowizję wyłączasz to trawa robi się brązowa przez chwilę i kiedyś z antenkami na abramsie miałem problem bo smugi za nimi były Edit: jednak jest tylko dlss2 XD
@Kiko___
@Kiko___ Жыл бұрын
Siema, mam pytanie, bo trochę tego DLSS nie ogarniam. To jest do konkretnej rozdzielczości? Czy będzie to płynnie działało i poprawiało wynik również w np 1080 lub 720? Z góry dziękuję za odpowiedź, pozdrawiam chłopaki robicie dobrą robotę 😊
@Kiko___
@Kiko___ Жыл бұрын
Bo raczej na takiej rtx 3060 nie pograsz w 4k płynnie w niektóre gry nie ogarniam zbytnio jak to się ma do rozdzielczości itp dałoby radę to jakoś wytłumacz?
@de_iure
@de_iure Жыл бұрын
@@Kiko___ DLSS to metoda supersamplingu, więc TEORETYCZNIE, może działać w każdej rozdzielczości (Nvidia nawet udostępnia możliwość modyfikowania .config z tym całym kodem), ale praktycznie, działa to w kilku najbardziej popularnych rozdzielczościach, czyli FHD, QHD i UHD, oraz pośrednich typu QHD 21:9. Masz kilka różnych trybów, które zmieniają wejściową rozdzielczość dla samplera, ale w zasadzie wszystko poza trybem Quality, wygląda jak mydło. W FHD, rozdzielczością wejściową jest 720p i zwykle przyrost klatek to około 30%. DLSS 3 natomiast, dodaje coś takiego jak Frame Generator i jest dostępny tylko na RTX 40. Ta technika akurat pre-renderuje klatki i przy użyciu samplowania poklatkowego (coś podobnego do animacji poklatkowej) wstawia "fałszywe klatki" pomiędzy te "prawdziwe". Przy czym te klatki jak najbardziej widać i technika jest tym skuteczniejsza, im więcej klatek jest w stanie GPU normalnie obliczyć (czyli tak samo jak w technice animacji poklatkowej). Generalnie używanie tego poniżej 60-70 FPS za bardzo zwiększa frametime i artefakty (bo GPU ma za mało danych wejsciowych).
@stark_2991
@stark_2991 Жыл бұрын
Oczywiście zwiększy się wtedy ilość klatek, ale im niższa rozdzielczość wejściowa, tym gorsze efekty jeśliby chodzi o jakość obrazu.
@szpynda
@szpynda Жыл бұрын
A potem jak człowiek sobie policzy w ile tytułów z DLSS grał to mu jednej dłoni wystarcza.
@mariuszdenys5963
@mariuszdenys5963 Жыл бұрын
Dzięki chłopaki wkońcu zrozumiałem że dlss nie jest mi do niczego potrzebny
@adanos4
@adanos4 Жыл бұрын
A jak to się mam do kart normalnych ludzi? Większy ludzi nie posiada ani 4070 ani 4090.
@Pyro____
@Pyro____ Жыл бұрын
Sądzę że do gier RPG jest to bardzo dobre rozwiązanie, lecz co do gier fps i competetive AI będzie mogło często zmylić profesjonalnych graczy, pewnie jest to jeden z powodów dlaczego nie ujrzymy implementacji DLSS w grach competetive. W takim dobrze zoptymalizowanym overwatchu i cs'ie nie ma to sensu, lecz w takim COD'zie jest to funkcja bez której ciężko grać przez optymalizacje.
WSZYSTKO CO MUSISZ WIEDZIEĆ O OPÓŹNIENIU
19:44
moreleTV
Рет қаралды 16 М.
IL'HAN - Qalqam | Official Music Video
03:17
Ilhan Ihsanov
Рет қаралды 700 М.
Sigma Kid Mistake #funny #sigma
00:17
CRAZY GREAPA
Рет қаралды 30 МЛН
Enceinte et en Bazard: Les Chroniques du Nettoyage ! 🚽✨
00:21
Two More French
Рет қаралды 42 МЛН
We Attempted The Impossible 😱
00:54
Topper Guild
Рет қаралды 56 МЛН
Co to jest DLSS i Antialiasing - Hardware
16:40
NRGeek
Рет қаралды 18 М.
Laptop czy Desktop?
18:04
moreleTV
Рет қаралды 57 М.
Jak wygląda BOTTLENECK?
17:56
Tek Testers
Рет қаралды 47 М.
Komputerowe FAKTY i MITY feat. @ZMASLO i @TekTesters
21:26
moreleTV
Рет қаралды 102 М.
3x WIĘCEJ FPS ZA 20 ZŁOTYCH? TO NIE ŚCIEMA!
12:34
TechLipton
Рет қаралды 214 М.
Nowe GPU NVIDIA i AMD - wszystko co wiemy
15:18
ZMASLO
Рет қаралды 58 М.
Ile TAK NAPRAWDĘ daje DLSS?
13:28
tvtech
Рет қаралды 16 М.
Komputer za 750 zł | Bitka @TekTesters vs @ZMASLO
23:27
moreleTV
Рет қаралды 204 М.
Komputer za 4000 PLN | @TekTesters kontra @ZMASLO
21:20
moreleTV
Рет қаралды 262 М.
IL'HAN - Qalqam | Official Music Video
03:17
Ilhan Ihsanov
Рет қаралды 700 М.