Es wird langsam Zeit sich auf effizient bei gleicher Leistung zu konzentrieren
@N.M4912 сағат бұрын
Das kann man selbst herbeiführen = undervolting. Meine 4080S braucht out of the BOX 315 Watt im Peak, bei niedrigstmöglicher Spannung schafft sie nahezu den Stock Takt, verbraucht aber nur noch 230 Watt bei 95% Leistung. Ich nutze sie sogar noch underclocked mit 2200MHz, womit sie nur noch knapp 180Watt braucht, aber noch immer 80%+ an Leistung liefert. Möglich sind 3045MHz mit 400 Watt.
@shadowwhite93249 сағат бұрын
Man kann Vsync nutzen lass die GPU nicht unlimitiert laufen
@AncapDudeСағат бұрын
@@shadowwhite9324Nutze RTSS. Bei vielen Games reichen mir 48fps, manchmal auch 72. Die 144 des Monitors nutze ich eigentlich nur in 2D. Ergebnis: Weniger Hitze, Krach und Verbrauch.
@gl1tch13314 сағат бұрын
Wir müssen die Realität genauer sehen: Die 5090 performt 20% in native Leistung besser als die 4090. Was bedeutet das wir für nur 20% bessere Performance 2000€ zahlen, alles andere ist nur wegen AI möglich
@sts_gaming13 сағат бұрын
Und die Entwicklung bzw. Weiterentwicklung von ki/dlss/FG kostet deiner Meinung nach nichts? Deine Rechnung passt selbst ohne das hinten und vorne nicht. Wir zahlen letzten Endes bezogen auf die UVPs 4090 zur 5090 noch keine 400 Euro mehr. Und das für 20% native Leistung mehr, für mindestens 50% bessere Ki und 8gb gddr7 vram mehr sowie pcie 5.0. Da finde ich keine 400 Euro Aufpreis absolut in Ordnung
@opafritzsche13 сағат бұрын
@@sts_gaming Ich würde mal sagen, 27% ist die rechnerische Geschwindigkeitszunahme. Dazu kommen sämtliche ai Funktionen. Man bemerkt allein in der Vorstellung schon, das sich die 5090 eher an die Creator, als an Spieler richtet. Warum sind nun alle so negativ dazu? weil sie meinen ihre ich stelle etwas dar 4090, muss so schnell bleiben wie die 5 Line. Bliebt sie aber nicht. Also wird alles niedergemacht. Gleichermaßen urteilen sie über Funktionen, die sie gar nicht kennen.Nehmen wir nun 27 % mehr Performance im Preis, kämen wir bei einer RTX 4090 auf 2700 euro. Da liegt aber die 5090 weit drunter. Hinzu kommt das die Power mehr wurde, mit 600 Watt. Was auch bedeutet, wenn es wie viel ? 70% wären ? wie viel Watt denn dann? 1000 ? Und wie bitte soll es denn weitergehen ? mit jeder Generation mehr Watt pro FPS ? Das wird nicht funktionieren. Irgendwann muss ein Umdenken her. Der Verbrauch muss runter, und die Technik höher. Aber das wollen sie weder wahr haben, noch verstehen sie es. Das herumgemoser um die 5070 ist genau so schlimm. Wenn die technische plattform passt, bringt DLSS4 da einen riesigen Zuwachs. Der Rest ist Erbsenzählen. Und für alte Spiele, reichten alte Grafikkarten, es geht um die nächsten kommenden, nicht um den alten Kram, der geht schon auf alten Karten entsprechend.
@panamera060713 сағат бұрын
@@gl1tch133 20% mehr Leistung für 27% mehr Strom
@1992zalman13 сағат бұрын
@@sts_gaming die Preise sind einfach lächerlich, solch Preise für eine Grafikkarte ist absolut krank.
@sts_gaming13 сағат бұрын
@opafritzsche Absolut. Ich verstehe das rungemoser zur 5090 auch nicht. Die 4090 hat doch genauso Ki genutzt um die volle Leistung zu haben. Die 4090 ist und bleibt eine tolle Karte und Tests werden den Vergleich zur 5070 schon noch zeigen. Ich vermute da eher die Rohleistung der 4090. Aber man sollte da doch auch mal das positive in der Entwicklung sehen. Ich kauf mir doch auch jetzt ne 5090 und bin in 2 Jahren nicht beleidigt weil die 6090 doppelt so schnell ist oder die 6070 an die Leistung dran kommt. Die 5070 wird mit ihren 12gb ja trotzdem schnell an Grenzen stoßen wogegen die 4090 da nur müde lächelt. Hat alles sein pro und Kontra aber im großen und ganzen hat nvidia erstmal auf dem Papier mit der Leistung und dem Preis abgeliefert. Keine der 4 genannten Karten hat für mich einen Haken. Die werden genau das können was man auch bezahlt. So sehe ich das
@Darkicecold15 сағат бұрын
UVP heisst nicht dass diese mit dem Preis in den Handel kommen. Ich vermute eine nochmalige Preissteigerung von 200-300 Euro im Handel.
@pausenbrotdiebdergrundschu825515 сағат бұрын
Ja ist leider fast immer so dass es richtung minimum 150-200€ geht
@Sayako-sf2bn15 сағат бұрын
Besonders die beliebten Marken: ASUS, MSI, GIGABYTE Den Rest kauft keiner. Zotac, Palit, PNY...Vielleicht Menschen die sparsam sind. Aber es "existieren" quasi nur 3 Marken für die Mehrheit der Gamer. Asus knallt eh OP obendrauf. MSi und Gigabyte sind da noch humaner unterwegs. Man schaue sich zb. Mindfactory an. Oder Caseking. Die meisten GPUs, die verkauft werden (vermutlich weil Marke UND Design) sind halt ASUS,MSI, GIGABYTE. Eben weil sie sehr schön sind. UND Power haben.
@shadowwhite93249 сағат бұрын
@@Sayako-sf2bn Zotac bis dato immer gute Custom Modelle erwischt
@KampfGolfСағат бұрын
@@Sayako-sf2bn aber warum werden die Grafikkarten von Zotac, Palit, PNY weniger verkauft? Immerhin ist doch der Chipsatz der gleiche wie Asus, Msi und co... nun das habe ich auch nie so verstanden . Der Preisunterschied ist auch manchmal etwas größer bzw günstiger. Und die Leute greifen trotzdem zur teureren Variante???🤯
@perfectpotato_eu4129Сағат бұрын
@@Sayako-sf2bn Die überzogenen Preise insbesondere bei ASUS Grafikkarten würde ich nie zahlen da mir der Mehrwert viel zu gering ist. Die letzen drei Karten von Gainward (2080, 4090) sowie PNY (3080Ti) laufen oder liefen alle problemlos. Übertakten ist bei der Grundleistung der Karten für mich ohnehin sinnfrei. Die 4090 läuft auf 75% Power Target.
@Hexenkind113 сағат бұрын
Ich sehe es schon kommen: Wir werden bald bessere KI Modelle kaufen müssen um mehr Leistung zu bekommen. Am besten noch im Abo. Das ist die Zukunft.
@SebbS8212 сағат бұрын
Das DLSS-Abo bei NVIDIA.
@zuzkuk7911 сағат бұрын
@@SebbS82 hey, nicht so laut! sonst bringt ihr die Hersteller noch auf dumme Gedanken
@Hexenkind110 сағат бұрын
@@zuzkuk79 Auf die kommen die schon ganz alleine.
@AncapDudeСағат бұрын
KI wird die Menschheit spalten in Premium Abo User und Freeloader, und das nicht nur beim Gaming.
@niasboiiiСағат бұрын
@@Hexenkind1 So wird es kommen.
@marvj1315 сағат бұрын
7:20 OMG! Das ist SO SCHÖN mal bestätigt zu wissen... Ich hatte schon seit Monaten das Gefühl, dass UE5 einfach nur ein Dumpsterfire an Ballast ist, den die Devs einfach nicht optimieren wollen, aber ich hatte noch nie so eine Bestätigung gehört... Devs müssen endlich mal lernen ihre Spiele zu optimieren und nicht alles auf die GPU abwälzen, dann könnte man auch mit älteren GPUs wieder mehr rausholen
@N.M4912 сағат бұрын
Wenn ich mir die Spiele in letzter Zeit so ansehe, dann wird bei den heutigen >nforderungen wie Alan Wake 2, Silent Hill 2 Remake, Indiana Jones oder Wukong ein ordentlicher Pixelbeschleuniger benötigt. Meine damit, ja, schon, aber zu hoffen, dass die 2080 deswegen nochmal mithalten könnte darf bezweifelt werden. Nebenbei gibt es auch andere Limitierungen wie den VRAM.
@brancomeier306014 сағат бұрын
Warum sagst du unreflektiert, dass die 5070 soviel leistet wie die 4090? Dieses Narrativ von Nvidia sollte man nicht unterstützen. OK, unter gewissen Umständen - DLSS MFG muss vom Spiel unterstützt werden - kann die 5070 wrsh ähnlich viele FPS bringen, wie die 4090 nur mit FG. Das heißt aber nicht, dass sie das selbe leistet. Dafür muss man erstmal Tests abwarten, was diese 3 generierten Frames mit der Qualität und mit dem Spielgefühl - Stichwort Latenz - macht. Gibt es mehr Artefakte? Und wenn es nur nach FPS geht, dann kann ich mir auch für 9 $ Losless Scaling kaufen und dann "leistet" meine 4080 mit 4x FG wrsh deutlich mehr als die 5090 in einem Game ohne DLSS FG.
@R-Byte-3D15 сағат бұрын
Denkt an eurem Vergangenheit-Ich vor 10 Jahren und sagt dem mal, dass wir überhaupt 4K und 240FPS schaffen heute. Und dass mit "KI" die 3 Bilder zwischen den Frames generiert, indem sie Bilder interpretiert, schärft usw. Das hätte doch niemand geglaubt. Also alle die mimimi machen, die hätten auch am Pferd festgehalten, weil man mit einem Auto damals ja nur Schrittgeschwindigkeit fahren konnte. DLSS4 ist schon ein großer Sprung, generell ist DLSS ein großer Sprung gewesen, was ist in den nächsten 5 Jahren? Aber ja ich finde es schade, dass Nvidia so Geldgeil ist und für Softwarelösungen neue Hardware verkaufen will.
@mikehaertsch13 сағат бұрын
Ich hätte gerne 120hz und bei jedem hz ein Frame=120fps die Grafikkarte soll 30frames rendern und 3 frames werden bei jedem Frame dazwischen geschoben(Grafikkarte würde ca 150watt verbrauchen) aber so ist es leider nicht. Sondern so: Die Graka rendert was soviel sie kann zb 85fps, dann macht daraus dlss4=255fps davon werden dann 120fps im hz takt des Bildschimes angezeigt? 400watt verbrauch?
@ericschulze133713 сағат бұрын
das Problem ist dass ich das jetzt immer noch nicht glaube^^ ich mit ner 4090 sehe ja wie gut das mit 1 Bild funktioniert.. 3 Bilder kann doch nicht funktionieren? und das bei gleich Kernen??
@mikehaertsch6 сағат бұрын
@@ericschulze1337 Das wird mit zwischen Bildern erreicht.Das führt aber zu einer höheren Latenz. Weil keine Echtzeit Ausgabe statt finden kann: Die Grafikkarte rendert zurest ein Frame und dann das zweite, das wird dann noch nicht ausgegeben, Sondern frame 1 wird mit 2 verglichen, die zwischenbilder dazwischen gerechnet, was viel schneller als rendern ist. Danach wird es erst Zeitversetzt(Latenter)ausgegeben. Das neue ist jetzt aber, das sie nach Frame 1 nicht mehr mit Frame 2 vergleichen, sondern die Ai durch das Vorangegange raten lassen,es wird daher das zweite gerendert wärend die Ai gleichzeitig ratend die zwischen bilder ausgibt. Da passen anscheinend 7 frames rein,bis das nächste Frame gerendert ist.
@tendoboy_viewer15 сағат бұрын
5:49 ich kann dir (leider) sagen warum: leider gottes ist es mittlerweile so, dass (aaa) spiele mit der intention entwickelt werden, dlss und co zu benutzen. so sparen sich die entwickler zeit, und vor allem geld bei der optimierung des spiels (die mit glück auch erst schleppend über jahre hinweg voran kommt, siehe cyberpunk). es gibt einfach nur noch selten bis gar keine neuen spiele, die optimiert und fertig auf den markt kommen. dlss war anfangs als eine nice addition für u.a. raytracing gedacht, damit man das spiel auch da flüssig/nutzbar spielen konnte. problem ist nur, entwickler "nutzen" diese technik aus, damit sie die spiele wie oben genannt, nicht (von anfang an) optimieren müssen. ich hoffe ich konnte das halbwegs gut darlegen.
@opafritzsche13 сағат бұрын
Ja schuld sind immer nur die Entwickler. Werde mal selbst einer!
@jiloon-ci9jl12 сағат бұрын
Woher kommt diese Annahme? Warum sollte es dazu führen weniger zu optimieren?
@tendoboy_viewer12 сағат бұрын
@@jiloon-ci9jl weil es günstiger und einfacher ist, ein feature zu implementieren, welches entweder niedrige auflösung hochskaliert oder künstliche bilder interpoliert, oder gar beides, als code aufwendig zu optimieren. siehe bspw. die UE5. die meisten, wenn nicht gar alle spiele, die auf dieser engine basieren, haben performance probleme. selbst epics eigenes spiel fortnite. einfach weil die engine so schlecht optimiert worden zu sein scheint. und das ist kein geheimnis, denn sehr viele menschen bemängeln das. außerdem gibts diese richtigen performance probleme erst, seitdem sich dlss richtig implementieren konnte, da alle gesehen haben, wie mächtig diese technologie eigentlich sein kann.
@ipadize11 сағат бұрын
@@jiloon-ci9jl Geld wird gespart
@jiloon-ci9jl10 сағат бұрын
@@ipadize Und das wäre bei mehr Rechenleistung anders?
@pcfan19863 сағат бұрын
Die Karten sind "günstiger geworden". Nur weil die 40er Serie jenseits von überteuert war. Das heißt trotzdem nicht, das P/L OK ist. Die 5070 TI kostet immer noch mehr als die absolute TOP 1080TI beim Launch.
@Exploid12 сағат бұрын
Die 5070 hat die Leistung einer 4090?? Ich kenne dich als jemand der differenziert und genau recherchiert, aber hier einfach das Marketing Blabla von Ngreedia zu übernehmen finde ich alles andere als cool…
@nexariusrex11 сағат бұрын
Er hat ja auch gesagt im zusammenhang mit DLSS4 und allem was es beinhaltet mit Multi Frame Generation.
@LeonVossi9 сағат бұрын
@@Exploid hör besser zu
@ItzMyTime___96 сағат бұрын
es kommt nicht auf die specs drauf an sondern was man raus holen kann. ist leider nunmal so versteht das doch endlich
@Exploid3 минут бұрын
@@LeonVossi Habe ich, danke. Komisch, höre Immer noch das Marketing blabla.
@Chardily37 минут бұрын
Die aktuellen Preise sind schon unverschämt. Und die neuen sind jetzt nicht wirklich besser. Ich vermisse die Zeiten wo eine GTX980 für 550 Euro als TOP Modell rausgekommen ist . Für damalige Zeiten das non + Ultra. Klar man hat die auch im SLI x3 gerne gebaut. Da biste aber immer noch unter den 2k.
@fistandante42459 сағат бұрын
Der Punkt meiner Meinung nach ist hier, dass Nvidia mittlerweile absurde Preise abruft und daher ist das Bashing mehr als gerechtfertigt...
@llRobkobll13 сағат бұрын
Ich habe überhaupt nichts gegen verbesserte Algorithmen, aber je mehr von Zusatzprogrammen dazugerechnet wird, umso größer sind nunmal zwangsläufig die Latenzen. Das kann man durch Programm-Optimierung auch nur bedingt verbessern, vorallem auch, da die Berechnungen letztlich immer durch die Hardware limitiert werden.
@Nasty1349 сағат бұрын
Vollkommen korrekt
@elmothlas537310 сағат бұрын
5070 ist mit 12 Gb bestückt. Nennt mich verrückt aber ich komme mit 16 Gb teilweise nicht aus. Was nützt DLLS 4 wenn der Speicher voll ist. Genau nichts mehr.
@germanCouchWarrior10 сағат бұрын
Was ich nicht verstehe ist, da wird sich aufgeregt, dass nicht mehr rohe Leistung durch übliche Bauteile auf der GPU erzeugt werden. Jetzt werden halt anstelle von CUDA- und Shader-Kernen die AI TOPS massiv erhöht. Meine RTX 3080 hat 238 und eine RTX 5080 hätte 1801. Das ist eine 750 Prozent Steigerung und daher kommt halt auch die Upsampling- und FrameGen-Power. Ist doch egal ob die Power aus den Bauteilen A oder B kommen, richtig? Fakt ist, ohne diese Verstärkung der KI-Komponenten wären wir von der Grafik immer noch in der PS4 Generation.
@ckay1988ck15 сағат бұрын
Im großen und Ganzen stimmt das alles leider hat NVIDIA die kleinen Karten sehr unnötig mal wieder durch VRAM gedrosselt. Was leider einem an für sich gutem Produkt ein bisschen dazu verhilft schon fast am Limit zu sein bevor es los geht 5070 hätte mit 16GB echt die nächste 1080ti für die Mittelklasse werden können denn der RAM wird ja leider auch für die ai Funktionen genutzt zumindest zum Teil wodurch die 12 gb ja eigentlich auch keine 12 sind sonst denke ich gehen die den richtigen Weg. Ich denke das ram Thema hat auch viel mit Produkt Schutz der eigenen Server und pro Hardware zu tun. Das es mit der nicht vorhandenen Spiele Optimierung nicht weiter gehen kann ist auch vollkommen klar. Manchmal habe ich das Gefühl das ältere Spiele besser liefen und nicht viel schlechter in der Grafik waren oder ohne die modernen raytracing Dinge sogar besser aussahen als aktuelle Spiele ohne da scheinbar keiner mehr Bock hat echte Software zu machen
@AHPB_lel12 сағат бұрын
6:24 is da das Rainerle vorbei gelaufen? 🤣
@zuzkuk7911 сағат бұрын
wer ist Rainer?
@AHPB_lel11 сағат бұрын
@ Drachenlord, wer ihn kennt weiß wer gemeint is..😅🤷♂️
@Bransen968 сағат бұрын
Ja der wongelt schon ganz schön!
@lasershark883315 сағат бұрын
Ich muss höchstens mal auf Toilette. P.S. Bleibe immer noch bei meiner 2080 Super und 2080 Ti, seh kein Grund zu wechseln.
@jonnygudman181515 сағат бұрын
Die meisten Spiele brauchen auch nicht viel Leistung, oder sie sind woke, oder totaler Abfall. Ich sehe das genauso.
@lasershark883314 сағат бұрын
@jonnygudman1815 Wenn ich zocken will, nehme ich meistens eh die PS5 Pro zur Hand, macht mehr Spaß auf mein 65" oled, 120hz, 4k Bildschirm.
@ChowdongsFameCrew6 сағат бұрын
du armer
@Marcus22117915 сағат бұрын
200fps sind nicht gleich 200fps, heutzutage. 4N ist wohl ausgereizt.
@Raja995mh3315 сағат бұрын
Nichts ist ausgereizt. Es wird nur schlicht vie weniger aus der Hardware rausgeholt, weil nichts mehr optimiert wird.
@Marcus22117914 сағат бұрын
@@Raja995mh33 wer lesen kann... Ich sagte "4N" ist ausgereizt. Nicht die kommenden Nodes.
@DarkSoul4545614 сағат бұрын
es kann sehr wohl das gleiche sein wenn sie es mit dlss 4 schon soweit hinbekommen das man optisch zu nativen auflösungen bis 4k und 8 facher beschleunigung sprich 8 x mehr fps wie mit der 5090 gezeigt einfach keinen unterschied mehr sieht optisch zu nativ was macht es dann für einen unterschied ob die optische qualität nativ erstellt wird oder von der ai so kann man endlich mal die 240 hz OLED bildschirme mit auflösungen ab 3440 x 1440 aufwärts anständig zum zocken nutzen
@suschygaming92929 сағат бұрын
Mich wundert etwas die Verwunderung über die Empörung. 27% mehr Rohleistung für 2340 Euro sind nicht angemessen. Und zu den Frame-Generations-Diskussionen: Du siehst mehr Frames aber du spürst die 30 FPS. Das heißt der ursprüngliche Vorteil von FPS geht komplett verloren. Ich empfehle dazu das Video von Digital Foundry. Die zeigen den Delay recht gut. Berechnet man das mit ein, finde ich die Aufregung gerechtfertigt. Gerade weil so absurd viel Geld dafür genommen wird.
@Nasty1348 сағат бұрын
Das verstehen viele Nvidia Anhänger aber leider nicht...
@matthiasheide522614 сағат бұрын
Einfach bei FullHD bleiben dann braucht man nicht überteuerten Karten.
@perpsen10 сағат бұрын
3DFX hat die CPU seinerzeits "egalisiert" Respekt für dieses Video, endlich sagt es mal jemand. Daumen hoch
@or4life8915 сағат бұрын
Das Problem sind nicht die physikalischen Grenzen sondern einfach die Menschen. Ich komme auch aus der 3dfx Zeit und freue mich über jedes plus an Leistung. Viele verstehen nichts über die Architektur von GPUs oder CPUs. Ich finde es einfach nur faszinierend und da ich als IT Techniker unterwegs bin, hab ich wahrscheinlich eh ne andere Sicht auf die Dinge aber ein Großteil der Menschen sind einfach nur noch schrecklich!
@Elabotrait14 сағат бұрын
Wie siehst du die Entwicklung für gaming GPUs in den nächsten 10 Jahren? Wird es bis dahin noch consumer grafikkarten geben? Ich würde mir wünschen, den Stromverbrauch der GPUs zu optimieren. Jedes Jahr wird mehr Strom für die Modelle gebraucht. Werden PSU mit 3000W in 10 Jahren der "Standard" sein?
@SimonBauer714 сағат бұрын
das Problem ist das die Preise einfach frech sind.
@or4life8914 сағат бұрын
@@Elabotrait woher soll den sonst solch eine brachiale Leistung kommen? Von gen zu gen ist viel Entwicklung dabei um das alles effizienter zu gestalten. Da ist der way to go einfach KI. Das wird mMn die Leistung Aufnahme in Zukunft etwas drücken aber die top Karten werden immer gut schlucken. Das war die letzten 20 Jahre so 😅 Ich sag nur 8800 ultra 😅
@or4life8914 сағат бұрын
@@SimonBauer7 Wir leben in verrückten Zeiten aber die Entwicklungsdauer und die dafür verbrauchten Ressourcen müssen ja auch irgendwie wieder rein gebracht werden 😁
@crossandblood199511 сағат бұрын
Okay, also auf deutsch übersetzt heißt das jetzt im Klartext: Wenn ich im Ernst weit über 2 Scheine für ne 5090 aufn Thresen kloppe, bezahle ich nichtmal annähernd die Hardware, und den Sprung, den sie gemacht hat, sondern eigentlich die Server für AI / DLSS, an sich zahle ich den Preis für die Software und weniger für die Hardware - denn, die ist es NICHT WERT! Das entnehme ich aus dem Video! Wenn also sowieso die Zukunft bei KI und Software liegt...tja, dann ist das wohl so!
@catdad4414 сағат бұрын
Was eher aufregt, ist dass die so am VRAM geizen
@silentwater798 сағат бұрын
Ja, geht mir genau so, da ich vor allem größere LLMs lokal laufen lassen will und da ist vor allem der VRAM ausschlaggebend. Ob die Karte jetzt ein paar Shader mehr oder weniger hat, ist mir hingegen egal.
@iamshiron6 сағат бұрын
@@silentwater79das ist leider der grund warum sie mit dem vram geizen. Sehr viele hobbyists werden sich eine 5090 nicht wegen der performance sondern den 32GB vram kaufen
@steffenschneider3266Сағат бұрын
Das Mooresches Gesetz kollidiert mit der Abbeschen Auflösungsgrenze beim EUV-Verfahren. Werden die UV-Strahlung durch Röntgenstrahlung ersetzt, könnten Transistoren noch kleiner gefertigt werden. Aktuell aber noch am Forschungsanfang, weil sich die Röntgenstrahlen nochmal anders verhalten und erzeugen lassen.
@Nikolausi2614 сағат бұрын
Ich bin überrascht, dass so eine weit verbreitete Gameengine wie die Unreal Engine 5 noch so viel Optimierung benötigt bzw. so ineffizient ist. Sollte die Optimierung die Gameengine nicht automatisch machen?
@Ransom-9 сағат бұрын
such doch einfach mal im netz danach, was optimierung von spielen eigentlich ist ;)
@Karl_Jimmy9 сағат бұрын
Wir gehen langsam aber sicher zur Grenze des Siliciums. Ob Germanium-Zinn oder Graphen oder Champignons, wir brauchen eine durchsetzbare Alternative innerhalb nächsten 15 Jahren.
@farbenjan892813 сағат бұрын
Man sollte dabei aber nicht vergessen, das beim einschalten der KI Funktionen, Die V-Sync Option nicht mehr aktiv sind. Das ist MIR persönlich wichtiger als FPS.
@ericschulze133713 сағат бұрын
echt? eigentlich nicht.. kann man alles zusätzlich noch aktivieren..
@farbenjan892812 сағат бұрын
@ lass mich gern eines besseren belehren. In allen Spielen die ich kenne werden die Optionen nach einschalten der Framegeneration ausgegraut.
@Nasty1349 сағат бұрын
Was willst du heutzutage auch noch mit V-Sync, wenn du eh deine FPS in jedem Game selbst begrenzen kannst, egal ob im Spiel selbst oder im Treiber für jedes einzelne Spiel? Du bekommst doch mittlerweile schon gute Monitor mit 144Hz und aufwärts ab teilweise 250€. Ich selbst nutze V-Sync bestimmt schon fast 10 Jahre nicht mehr...
@AncapDudeСағат бұрын
Ich hab nen 144Hz Monitor und limitiere per RTSS auf 48 oder 72 Frames. Geht auch mit DLSS.
@GameFlashDEU33 минут бұрын
Spannend, wie Nvidia mit DLSS 4.0 den Fokus von reiner Hardware-Power auf KI-gestützte Performance verlagert. Klar, physikalische Grenzen setzen der Chip-Entwicklung Limits, aber ich finde, die Kombination aus smarter Software und Hardware ist der richtige Weg in die Zukunft. Trotzdem bleibt die Frage: Warum sparen so viele Entwickler an der Optimierung? Mit besserem Code könnten wir auch aus älteren GPUs noch einiges rausholen.
@lordecke15 сағат бұрын
Das mehr über KI geht ist ja ok aber dann müssen die Preise auch niedriger sein! Die Karten sind immer noch zu teuer und wie gut dann alles mit DLSS 4 aussehen wird, müssen wir noch sehen. Ich bin auch mal gespannt, wie sich die Latenz dann mit der neuen Frame Gen ändert
@Ransom-10 сағат бұрын
warum sollten die preise dadurch günstiger werden? es ist doch ein mehraufwand da die KI technologien DAZU kommen zur klassischen gpu entwicklung. es wäre vielleicht so, wenn man die rastergrafik elemente komplett rausnehmen und nur noch auf raytracing und KI setzen würde aber dann wären 99% aller games nicht mehr kompatibel...
@Lottergeist-Beetlejuice13 сағат бұрын
Ich bleibe bei meiner 4070 Super braucht nur 165 Watt Undervoltet und reicht für WQHD völlig aus.
@pusa5pusa11 сағат бұрын
Das meine wohl ich auch habe bloß noch das ti danach, da vor 3080 s ti aber der Strom verbrauch ist stärker
@Lottergeist-Beetlejuice11 сағат бұрын
@@pusa5pusa ja das stimmt.
@pusa5pusa11 сағат бұрын
@@Lottergeist-Beetlejuice
@AncapDudeСағат бұрын
Sogar meine 3060 Mobile reicht für WQHD völlig aus.
@steffanzwerg342413 сағат бұрын
Es geht doch nicht darum, das die Hardware in der Rohleistung keine großen Spünge mehr macht. Das hatte NV schon zu Beginn der 4000 Serie gesagt. Es geht darum, das die Karten wieder Sack teuer sind, mehr Strom verbrauchen und nur mit DLSS schnell laufen und das die alten 4000 Karten z.b. kein DLSS 4.0 Support erhalten. Das ist das selbe wie mit den GSync Modulen.... Außerdem wird nie jedes Spiel ovn DLSS profitieren, es gibt zahlreiche kleine Spiele Entwickler, die keine Zeit und auch kein Geld für sowas wie Raytracing DLSS und was es nicht noch alles gibt haben. Die müssen mit ihren Geld ganz anders Haushalten. Keins der Spiele, was ich spiele, besitzt DLSS Support!
@zerosnow511012 сағат бұрын
Danke, jemand der mir von der Seele spricht. Es ist genau das was ich mir auch denke und was wahrscheinlich auch viele dran stört das man "nur" für neuen KI Support eine teure Karten kaufen muss, obwohl die Leistungsdaten fast gleich sind.
@steffanzwerg342411 сағат бұрын
@zerosnow5110 So sieht es aus, teures Software ABO System.
@markusk806812 сағат бұрын
Wir werden wieder auf multi GPU gehen.. Ihr werdet sehen.
@bp-it3ve11 сағат бұрын
nein das hatten wir doch und es war nie gut
@jonnygudman181514 сағат бұрын
Natürlich lässt sich die Leistung noch weiter steigern - das Stichwort heißt Paalellisierung, aber man will ja den Profit Maximieren. Einen anderen Grund gibt es nicht, oder ist vorgeschoben.
@iamshiron6 сағат бұрын
Wenn das so simple ist würde mans tun. Schau dir mal an wie problematisch parallelisierung auf der CPU ist und da haben wir 16 Kerne, geschweige von 21000 Kernen.
@King-Probo11 сағат бұрын
Ich denke mal in spätestens 10 Jahren wird es auch Quantenrechner geben die alles um ein mehrtausendfaches beschleunigen können mit dementsprechend entwickelter software. Gibt es jetzt schon aber noch riesig und noch nicht für den freien markt da in der Forschung.
@labrowi564311 минут бұрын
Gamer sind offenbar eine seltsame Art Mensch... Nie zufrieden, immer mehr wollend und sich an kleinen Pixelfehlern aufgeilen, die sicher 99% nie von allein sehen würden... Vielleicht mal öfter nach draußen vor die Tür gehen und die Realität genießen. Von dem, was ihr für diese Grafikmonster ausgeht, leben einige Menschen einen ganzen Monat.
@roddoubler39892 сағат бұрын
wenn sie die Transistoren nicht kleiner machen koennen warum vergrößern sie nicht die Fläche des Chips. Damit hätte man doch auch mehr Leistung oder nicht?
@AncapDudeСағат бұрын
Je größer die Chips desto mehr Probleme hast du bei der Stromversorgung und Abwärme.
@hausmaus569815 сағат бұрын
Dem kann ich so nicht ganz zustimmen. Zum einen weil "kaum" mehr Cores in den neuen Karten verbaut wurde (5090 ausgenommen und man muss die Karten mit den Super-Modellen vergleichen), zum anderen weil es einfacher und vor allem günstiger ist an einer Software herumzuschrauben. Verbesserte Produktionsprozesse gepaart mit gleichbleibende Cores bedeutet höhere Marge. Wenn es Nvidia tatsächlich um mehr Leistung gehen würde, dann hätten sie nicht die künstliche Barriere von DLSS 4 nur für die 50er Generation eingebaut.
@Ransom-10 сағат бұрын
das ist keine künstliche barriere sondern dlss ist auf die tensorcores angewiesen und diese werden mit der 50x generation mehr als verdoppelt. mit weniger cores würde so eine technologie gar nicht mehr richtig funktionieren und die fps dann eher verringern als erhöhen. genauso wie die tensorcore leistung der 30xx karten nicht ausreicht für framegeneration 1... dazu kommt, dass alle kerne und der vram auf den 50xx karten auch einer neue generation angehören und performanter und effizienter sind, als die vorgängerversionen. und das mit der höheren marge stimmt so auch nicht denn die entwicklung der deep learning software und das trainieren der KI datenbanken kommen zusätzlich zu den entwicklungskosten dazu und ist ein nie endender entwicklungsprozess. es sind also mehrkosten und keine reduzierung der kosten denn die gpu's und das kartendesign muss immer noch entwickelt und gebaut werden, genauso wie früher auch. wir können froh sein, dass man mit software neue verfahren und methoden entwickeln kann, die zb die speicherauslastung optimieren kann, so wie das nvidia mit neuen treibern für alle rtx karten bringt. genauso mit reflex2, dlss RS und dlss RR und diese neuerungen kostenlos für alle RTX karten!
@monsterduc74748 минут бұрын
bin ein absoluter Laie was Spiele Programmierung angeht, aber wenn die Optimierung den Entwicklern soviel Zeit und Geld kostet - warum kann bei einem fertigen Spiel - vor Release - nicht noch schnell die KI drüber huschen und in 3,5 Minuten das Spiel optimieren ? Gerade die KI müsste doch in diesem Umfeld zu einer riesen Revolution führen, oder nicht ? wenn ich Deinen Beitrag richtig verstanden habe muss der Endkunde mit teuren Grafikkarten den "Geiz und Faulheit" der Spieleentwickler bezahlen, korrekt ?
@CarlitoJo10 сағат бұрын
Sehr gute Zusammenfassung! Top!
@hobby-schrauber34542 сағат бұрын
Was kommt den dann als nächstes, wenn die Transistoren nicht mehr kleiner und die Software nicht mehr besser werden können, Quantenprozessoren 🤔?
@DS-tr6xn12 сағат бұрын
Buh zu nvidia. Fake ai frames zu dem preis? Ich will leistung und kein scam.
@norbertangler633514 сағат бұрын
In meinen Augen könnte Nvidia halt noch ihr gesamtes Produktprogramm zusammenziehen. So könnten sie die RTX 5090 nicht doppelt so schnell machen wie die RTX 5080, sondern nur 50% schneller und die RTX 5080 dann dementsprechend näher an die RTX 5090 ranbringen genau wie die ganzen darauf folgenden Karten dann an die 5080 ranrücken würden. So hätte man immer noch eine mit Abstand schnellste 5090, aber zugleich deutliche Leistungsgewinne bei den anderen Karten. Allerdings funktioniert diese Strategie nur einmal, weil das Topmodell ja nicht jedes mal wesentlich schneller wird. Man könnte aber halt den Abstand vom 90er Modell zum 80er Modell jedes mal um 10% verkleinern, bis man vielleicht bei 30% Unterschied ist und so 6 oder 7 Generationen lang vom Vorsprung des Topmodells zehren. Das sind aber am Ende reine Marketingentscheidungen.
@BBFPV7 сағат бұрын
Als ob du alt genug wärst für eine Voodoo 1 🤣
@N.M4912 сағат бұрын
Wieso sollte die Fertigung nicht auch im dreistelligen Angströmbereich verfeinert werden können?
@Bulletproof_Van13 сағат бұрын
Ich empfinde die Nvidia Geschichte als verarsche. Im grunde hat man nur in DLSS 4 unterstützen Spielen einen Mehrwert.
@finnaerix983713 сағат бұрын
Mittlerweile werden grafikkarte aber nicht mehr nur für die Grafik berechnung benutzt, sondern auch für Simulation physikalischer Systeme etc., wobei dieser Anwendungsbereichen kaum von KI modellen wie DLSS profitiert.
@iamshiron6 сағат бұрын
DLSS ist ne KI, just saying Klar profitiert eine KI nicht von DLSS aber ob deine Karte DLLS auf den TensorCores ausführt oder Llama ist egal
@BockworschtSoldierСағат бұрын
Ich bleibe bei meiner 3090. Mit Upscalern performt die noch gut.
@TalonRavenblade13 сағат бұрын
Die Mehrperformance von 20-30% zum gleichen Preis (außer bei der 5090) finde ich durchaus ok und wenn das DLSS4 die Schwierigkeiten mit Artefakten/Schlieren und Latenz älterer Versionen reduziert und als Bonus sogar noch deutlich mehr bringt, sehe ich auch das Problem nicht was einige Leute damit haben die meinen nur Native sei das wirklich wahre... Wenn es keine bösen Überraschung gibt wird es bei mir eine 5070TI - die muss bei dem hohen Preis dann zwar etwas länger halten, aber ich hätte mir beinah vor einem Jahr eine 4070TIS gekauft die ähnlich viel gekostet hätte aber von der Grundleistung her halt 20-30% langsamer gewesen wäre, was ein deutlich besseres FPS/€-Verhältnis bedeutet und mit DLSS4 sowieso...
@sts_gaming13 сағат бұрын
Perfekt auf den Punkt gebracht! Top 👍
@Darkstone8412 сағат бұрын
Dann dürfen wir es aber nicht mehr Leistung nennen. Das ist faktisch der falsche Begriff. Habe weiter oben gelesen Effizienz - das ist vlt der neue Maßstab. Es ist halt optimiert. Mich regt an der ganzen Sache auf, dass man durch die Darstellung unterschwellig gesagt bekommt, alle alten Karten sind Müll.
@henemann14 сағат бұрын
Geb dir völlig recht. Wäre nice, wenn Microsoft ein neues DirectX herausbringen würde und die DLSS,FSR und XeSS oder auch andere neue Features automatisch implementieren würde. Diamond Monster 3d , Bruder
@David-kn2lb13 сағат бұрын
Ja das gejammer über die geringe Rohleistung ist echt extrem nervig... KI und AI sind vorerst die Zukunft ist das denn so schwer zu verstehen???
@danielkordonski528113 сағат бұрын
Danke, ganz meiner Meinung. Mehr Transistoren auf dem Grafikchip werden kaum möglich sein, für eine reine Mehrleistung der Computergrafik. Eine Optimierung der Grafik durch zusätzliche Programme, in Verbindung mit KI, (künstliche Intelligenz) ist die einzige Möglichkeit Grafikkarten in Zukunft überhaupt eine Mehrleistung geben zu können. Ich war ja echt geschockt, als ich gelesen habe, das die Transistoren der RTX 5090 nur bei 5 Nanometer liegen. Das ist echt unglaublich 😮
@ericschulze133713 сағат бұрын
meinste?? klar.. stapeln oder mehr Chips.. wir hatten vor 15 Jahren schon Karten die aus meheren bestanden..
@axwellwow818 сағат бұрын
Bei dern CPU's müssen endlich die alten Lasten abgeworfen werden, x86 ist einfach nicht mehr Zeitgemäß. Klar das wäre für die Branche ungemütlich und das hält auch die CPU Hersteller zurück. Aber nur so könnte man wirklich riesen Sprünge machen. Wenn man überlegt das Apple mit der ARM Architektur mit einem drittel der Stromabnahme und daher fast ohne Kühlung mehr Leistung rausholt in Anwendungen als zb. aktuelle Gaming CPU's? Klar das würde bedeuten das ohne neu Kompilierung alter Spiele diese nicht mehr Funktionieren würden ohne Emulation, aber sollte das die ganze Branche zurückhalten?
@elalemanpaisa11 сағат бұрын
Jeeein... Wir werden schon weiterhin grosse spruenge machen - das was du beschreibst wird eher ein Problem RISC sein, denn in Zukunft wird es viel mehr auf custom circuits (befehlsaetze) gehen sowie co processoren die keine general cpus mehr sind. Beispiele sind zB AES, GPUs und co.. CPUs sind einfach in allem schlecht, weil sie immer sehr ineffizient sind, aber halt einfach zu programmieren - wo brauchen wir denn mehr leistung? es sind immer sehr spezielle bereiche.
@benjaminreis50419 сағат бұрын
Bin der Meinung das, Natives Gaming einfach schöner ist, ich habe generell DLSS aus. Das sind so Bildverschlimmbesserer wie man in AV Cinema Kreisen es nennt. Wenn die Grafikkarten die Leistung nicht bringen um damit auf 4K zu zocken mit 60FPS, naja dann sind sie einfach zu schwach auf der Brust und wir müssen uns damit abfinden. Eventuell stellt man sich mal die Frage ob X86 noch die richtige Architektur ist und man nicht in Richtung ARM geht, wenn es bei einem Betriebssystem möglich ist dann vielleicht auch bei einem Game? Immer mehr Leistung ist nicht immer der richtige weg.
@bigbillyone11 сағат бұрын
Man muss gar nichts. Man muss auch nicht immer alles mitmachen. Nvidia kennt die Kundschaft sehr gut. Dem gemeinen " Gamer " kann man alles verkaufen.
@ipadize11 сағат бұрын
aber der Sprung von 2 Nanometer auf 1 Nanometer würde eine theoretische verdopplung der Leistung bedeuten oder nicht?
@mikehaertsch5 сағат бұрын
Ja, Genau wie von 4 auf 2(was ja voerst erfolgreich beim lithografieren bei TSMC gelang ). Aber 1nm ist noch Illusion
@iamshiron6 сағат бұрын
Find DLSS super, leider nutzen es AAA firmen aus. Finde wir sind bei Spielen am Ende der Grafik angekommen. Was ich hoffe ist richtiges gameplay. Kein boring 5v5 "tac" shooter. Kein neuen hero shooter, kein story game wo man von A nach B lauft. Jetzt ist gameplay gefordert
@NoName-p2u4q14 сағат бұрын
Alle 4 Jahre 659 Euro für eine GPU in einem 1300 Euro Rechner werde ich mir Irgendwo schon abzwacken , das doppelte definitiv halt nicht. DLSS ist da halt nur ein Feature von vielen die Haltbarkeit der Komponenten & Kompatibilität nicht für die Ewigkeit ausgelegt.
@Latsch828 сағат бұрын
FRAGE: Es ist wirklich so, dass aktuelle Spiele einfach nicht ausreichend optimiert sind. Kann man denn genau für diesen Optimierungsprozess keine KI trainieren welche sowas zukünftig übernimmt?
@oldseabear11 сағат бұрын
Solange die Software der Hardware angepasst wird, ist das ja auch okay. Leider sind die aktuellen Spiele ja noch nicht mal auf die höheren Auflösungen optimiert, sage nur Final Fantasy XVI, dass da die Community mit Mods ran darf/ muss, ist nicht zu entschuldigen. Größe Sprünge habe ich nicht erwartet, dachte mir schon das DLSS eine neue Version bekommt, bin mal gespannt was an Strom aus der Steckdose gezogen wird. Da ich erst eine 4080 Super erstanden habe, hatte ich noch keine Lust mir die neuen Specs anzusehen. Warte auf eine Zusammenfassung in einem Magazin. Die RAM-Bestückung bei der 5090 soll ja höher ausfallen, wenn ich richtig gelesen habe. Denke, das könnte, die Enthusiasten locken, mich jedenfalls nicht.😉
@y0urselfishment14 сағат бұрын
Was soll das? Es ist wohl offensichtlich, dass die 5070 nicht so viel leistet, wie die 4090. NVIDIA nachplappern ohne Verstand? Schwach. Spiele die kein DLSS unterstützen, profitieren gar nicht von diesen Software Performance Verbesserungen.
@jiloon-ci9jl12 сағат бұрын
welche Spiele gibt es, die kein DLSS haben, bei denen es relevant wäre?
@iamshiron6 сағат бұрын
Dss wurde im Video gesagt btw.
@kingbizlip4u12 сағат бұрын
Ich kann das mit der Optimierung leider nur bestätigen. Nicht nur in der Spielebereich, sondern auch in der Industrie und anderen Bereichen, wird nicht oder selten optimiert und auch wenig auf Speicherverbraucht geachtet. Alle die früher ein Mikrocontroller programmieren mussten mit begrenztem Arbeitsspeicher wissen von was ich rede.
@VanturaTV15 сағат бұрын
wir müssen gar nichts.
@Comicgnat15 сағат бұрын
Was ist denn mit dir los 😅
@HansWurst-I15 сағат бұрын
Made my day 😂.
@bigbillyone11 сағат бұрын
Du hast rech wir müssen gar nichts. Der jenige der bezahlt befiehlt. Einfach nicht kaufen, es währe so einfach.
@sapinenem10 сағат бұрын
Fehlt nur noch das Nvidia Sponsoring
@moritzstephan57216 сағат бұрын
Warum sich viele aufregen ist, weil die einzige echte Verbesserung in der Software und gar nicht in der Hardware liegt. DLSS 4 könnte auch auf RTX4000er Karten laufen, wenn Nvidia das wollen würde. Aber es wird als Kaufargument für eine neue Hardwaregeneration angeführt, die (abgesehen von der 5090) nahezu die gleichen Specs haben wie ihre Vorgänger inclusive dem geizig bemessenen VRAM.
@MetalSonic8814 сағат бұрын
Ich sehe es gar nicht ein, so viel zu bezahlen. Daher warte ich auf die großen Karten von Intel. Als ich XESS zum ersten mal sah, war ich begeistert. Es war auf dem selben Niveau, wie Nvidia. Mit besseren Kühlern wäre mehr drin gewesen bei RTX 5000. Du weißt schon bei Spielen die kein DLLS unterstützen ist eine RTX 5090 nicht sehr sinnvoll. Mr. Nerd over Tech, kaufst du dir eine RTX 5090 sofort? 😁
@silversurfer592212 сағат бұрын
Mehr Frames schön und gut aber was ist mit den Latenzen und input lags durch Frame Generation.. Wichtig ist dass sich das zocken super flüssig UND Direkt anfühlt..und nicht wie viel FPS da irgendwo auf nem counter angezeigt wird...
@xer1um15 сағат бұрын
Hey nerdy, ich möcht mir zum ersten mal einen PC bauen fürs zocken, Office software und Video editing. Ist dann die 5090 sinnvoll, oder ist raw power gefragt?(4090 usw.)
@xer1um15 сағат бұрын
Aber ein geniales Video. AI ist super interessant, wird aber eh noch* auf viel Hass stoßen, wegen der überlegenheit. Aber für Grafik und FPS is AI genial und womöglich umweltfreundlicher.
@Worlnof15 сағат бұрын
Wenn du keinen 4k Monitor hast, brauchst du maximal eine 9070 xt
@DarkSoul4545613 сағат бұрын
nvidias dlss und amd's x3d cpu's sind die erzwungene Antwort auf das extrem stark und permanent schnell sinkende interesse vernünftig fertige spiele auf den markt zu bringen egal ob PC Spiel oder konsole oder alle Plattformen zusammen das müssen die leute und gamer einfach mal begreifen anstatt sich wie hooligans aufzuführen
@Bathord90631 минут бұрын
Bro bezahlt offensichtlich gerne über 2000€ für Softwarelösungen und fragt sich warum sich alle aufregen ^^
@Ph3X9 сағат бұрын
Freu mich schon auf die 5090. :D
@damengambid7 сағат бұрын
Das Physikalische Grenzen gelaber, es gibt noch einige Stellschrauben an denen man drehen könnte, der Größe des DIE z.B. Aber das würde bei gleichem Preis weniger Gewinn für Nvidia bedeuten. Zudem steht NVIDIA in ihrem Business, außerhalb der Konkurrenz warum 5 MEter weit springen wenn 2 Meter reichen... Der Grund der Preise und der geringen Mehrleistung liegt einfach an den wirtschaftlichen Gründen der Gewinnmaximierung.
@Killertamagotchi13 сағат бұрын
1nm währe noch möglich alles darunter würde dann dazu führen das Elektronen springen also die Gates nicht mehr so funktionieren wie sie müssten.
@Murtal_at6 сағат бұрын
Gutes Video von dir ... stimmt genau was du sagst ! Komm auch aus der 3 dfx zeit .
@evex48299 сағат бұрын
Es ist Unsinn zu behaupten, dass man an ein Hardware-Limit stößt. Die Realität ist, dass die Hersteller oft den einfachsten Weg gehen. Wenn KI gerade boomt, nutzen sie das aus und werben damit. Ein Beispiel: Die PS5 ist keine echte 4K-Konsole. Sie ist im Grunde eine 2K-Konsole und schafft nicht einmal das zuverlässig. Trotzdem wird sie als 4K- oder sogar 8K-Konsole beworben. Das war bei der PS4 und PS3 genauso. Die PS4 konnte eigentlich nur 900p und wurde auf 1080p hochskaliert, wurde aber dennoch als vollwertige Full-HD-Konsole beworben. Die DLSS-Technologie oder ähnliche Ansätze haben also nichts mit echten Hardware-Grenzen zu tun, sondern sind schlicht Marketing. Niemand stößt tatsächlich an diese Grenzen. Aber wenn es keine Konkurrenz gibt, warum sollte ein Unternehmen die Messlatte weiter anheben? Aus unternehmerischer Sicht ergibt es wenig Sinn, großartig mehr zu investieren, wenn man ohnehin keine Anreize dazu hat.
@TerrabisSt10 сағат бұрын
Wenn man physikalisch nicht kleiner machen kann, sollte man viellecht mal die chips größer machen meine fresse
@Ransom-9 сағат бұрын
ja wenns nur so einfach wäre aber man kann die chips nicht beliebig gross machen, da gibts auch ein physikalisches maximum... schliesslich müssen die gpu's ja auch noch auf einer platine angeschlossen und mit ausreichend strom versorgt werden ;)
@iamshiron5 сағат бұрын
Wenn du bei einer modernen CPU eine "Bahn" nur 1nm länger machst bekommst du Probleme auf Grund von race conditions. Selbe bei GPUs
@bp-it3ve11 сағат бұрын
Ich kenne auch noch die Zeiten der Voodoo Karten hatte selbst 2 Stück trotzdem beindrucken mich die Neuen Karten gar nicht die Ki muss jetzt alles machen statt bessere Gpus zu bauen.
@scaffale1314 сағат бұрын
Wenn die Leistung im Zukunft von Algorithmen statt Silizium kommen soll, dann bitte verkauft ihr nicht jede 2 Jahren die gleiche Grafikkarte für dasselbe Preis! Einfach der Kauf der Updates per Driver ermöglichen...
@Christian-ng9fxСағат бұрын
Probleme bleiben trotzdem weiterhin mit immer neuen Techniken. Wie oft hat NVIDIA Probleme mit ihren Treibern seitdem sie RTX auf den Markt haben. Mehr Probleme als zuvor. Software/Spiele Entwickler könnten noch so viel aus den Spielen raus holen wenn anständig programmiert und optimiert wäre. Oft kommen Spiele Updates erst zu spät wenn es Nachfolger der Spiele raus kommen wo man sieht das alte Hardware es schneller macht und so flüssig wie nie gedacht. Da gibt es reichlich Spiele die einfach immer weiter optimiert werden und Updates erhalten. Siehe Gta5 und battlefield teile und viele weitere!
@frankknat936010 сағат бұрын
Diese Grafik Ships wieder..
@CreativeComander8 сағат бұрын
Ich hab ne 2080 Aero mit B Chip jede 50er Karte ist besser 😂 Korrektur bisher sieht’s aus als ob die 5050 schlechter ist 😂
@zredplayer9 сағат бұрын
Doch! man kann immer noch aus dem reinsten silizium rausholen! was ist mit 1nm ???
@iamshiron5 сағат бұрын
Werden wir (vlt) irgendwann erreichen. Aber was mit 0nm?
@benjamintatura555714 сағат бұрын
Angenommen, du hättest dir 2023 im Mai für 1200€ ne 4080RTX Game Rock OC gekauft, würdest die jetzt verkaufen und dir ne 5080rtx holen? Mir ist klar, das ich wahrscheinlich 500€ drauf legen muss! Die Preise sind momentan ziemlich hoch von 4080RTX Karten! Zocke auf nem 34"Uwqhd, IPS, 120hz, Curved, G-sync Pannel! Natürlich mit Raytracing und co.
@Capone24123 сағат бұрын
Ganz im Ernst: Diese Geschichte von der 5070 mit 4090-Performance ist ein Marketing-Hoax und das weißt du selbst. Wenn ich 30 fps mit DLSS auf 50 fps und dann mit MFG auf 200 fps jage, habe ich trotzdem nur 50 fps, die auf meine Eingabe reagieren. Alles dazwischen ist allenfalls nice to have und kein adäquater Vergleich. Zumal DLSS 4 (ohne MFG) zu allen RTX-Generationen kompatibel sein wird. Genau den Vergleich stellt Nvidia hier aber mit ziemlicher Sicherheit an: 5070 mit 3 Fake-Frames = 4090 mit 1 Fake-Frame. Das deutet in der Realität eher auf ziemlich genau die halbe Performance der 4090 hin. Nvidia hat die Strukturbreite nicht geändert, was wiederum den mutmaßlich kleinen Leistungssprung erklärt - wohl v.a. auch unterhalb der 5090. Dass die MSRP der 5080 im Vergleich zum Vorgänger gesunken ist, wird sicherlich dem erwartbar geringen Leistungszuwachs geschuldet sein und sonst nichts. Das Argument mit den physikalischen Grenzen und, dass Moore's Law nicht mehr funktioniere, gibt es nicht erst seit ein paar Jahren - ist auch nicht falsch -, aber trotzdem sind immer wieder große Sprünge möglich, auch hinsichtlich der Rohleistung (3090 Ti → 4090). Ich schaue deine Videos echt gerne und will auch gar nicht haten, aber dafür, dass du am Anfang betonst, dass das kein Fanboy-Gehabe sein soll, klingt der Take wie eine einzige Verteidigungs- und Rechtfertigungserklärung für Nvidia. Ich war vorab ziemlich gehypt von der 5090, schaue den kommenden Tests mittlerweile aber mit großer Ernüchterung entgegen. Wenn das Teil am Ende tatsächlich nur rund 25 % mehr Leistung als der Vorgänger bringen sollte, wäre der Preis von >2300 Euro wirklich maßlos überzogen. Das einzig Gute daran: Viele Enthusiasten werden sich dreimal überlegen, ob sie upgraden und Nvidia hoffentlich ein Stop-Schild vorzeigen. Eine Karte mit brachialem Leistungszuwachs zu sehr hohen Preisen anzubieten ist das eine, astronomische Preise für ein recht moderates Performance-Plus zu verlangen das andere.
@pasiber14 сағат бұрын
Also ich muss ehrlich sagen, ich hab ne rx 6700xt und zocke eigentlich jedes game am TV mit UHD und FSR P. Es läuft super, eigentlich bekomm ich jedes game mit angepassten settings auf 60fps und es sieht mit dem richtigen display/TV einfach fantastisch aus. Klar geht noch bisschen mehr Schärfe oder sowas aber ganz ehrlich. Das ist mir zumindest bisher noch keine neue Karte wert
@Serandi198715 сағат бұрын
Nocht nur das!!! Die haben es einfach nicht nötig mehr Power zu bringen und können mit weniger Leistung genug Kohle generieren! Die könnten definitiv schon auf 3nm gehen, wenn sie denn unbedingt wollten oder es müssten!!!😂
@ericschulze133713 сағат бұрын
seh ich auch so, wir kommen zwar langsam an die Grenzen, aber das ist nicht der Grund wieso es nicht voran geht.. wir könnten auch mehr Chips, mehr Kerne und weit aus mehr VRAM haben können, aber die machen bewusst nur das was die machen, damit genug Kohle bei rum kommt. und langsam sollte auch der dümmste merken dass upgraden auf die nächste Generation nichts mehr bringt.. ruhig mal 2-3 Generationen überspringen.. oder mehr, bevor ich mir die 4090 geholt hab, war ich mit der 660m glücklich^^
@hobby-schrauber34542 сағат бұрын
Die Rohleistung einer 4090 oder 5090 benötigt doch eh so gut wie keiner. Diese Karten werden doch hauptsächlich nur gekauft, weil sich die Käufer dann cool finden 😂🤦♂️. Dann lieber günstigere Karten mit gleicher Leistung aber besserer Effizienz, aber Effizienz ist natürlich nicht cool genug für Leute mit zu viel Geld 🙄
@SimonBauer714 сағат бұрын
die preise sind halt einfach nur frech. für 20% realer leistung mehr 2000€. ja ne.
@darkblooster993713 сағат бұрын
Ich glaube, Du übersiehst hier etwas. Setze die 5090 in Relation zur 5080. Du bekommst rund das Doppelte an CUDA-Cores, Speicher und Speicherinterface für rund den doppelten Preis. Die Relation im Ausbau der Hardware von der 4080 zur 4090 betrug ~50%. Dieses Verhältnis spiegelte sich im Spätsommer 2023 wider, als die Karten ihren historisch niedrigsten Preis erreicht hatten. Die ursprüngliche UVP sah jedoch den fast doppelten Preis der 4090 ggü. der 4080 vor - aber eben für nur ~50% mehr Ausbau. Ich nehme Nvidia keinesfalls in Schutz, aber ich denke, unter diesem Gesichtspunkt könnte die Preisgestaltung kaum fairer sein.
@ericschulze133712 сағат бұрын
kommt von der Perskektive an.. Guck mal die 3000er Serie.. 2021 waren die Preise richtig krass.. da haben sich viele ne 3090 oder auch ne 3080 für 2500 Euro oder mehr geholt, wenn man dann jetzt guckt wie gut die 4000er Serie war und was die 5000er Serie kann, dann sind 200-300 Euro weniger für so viel mehr Leistung doch völlig ok?? Und das ist der Witz an der Sache, wer mindestens ne 2080 oder neuer hat, der braucht sich doch sowieso nicht aufregen?? ich wünschte aber ich hätte noch 1,5 Jahre gewartet.. n Lappi mit 5090 drin wäre ja richtig dolle^^
@michaelschur973814 сағат бұрын
Zum kotzen ist das... grakka kaufen für 2.5k € die dann 600 Watt frisst um mit 30-40 fps rum zu dümpeln nativ
@jiloon-ci9jl12 сағат бұрын
Und wo ist das Problem? Lieber eine Karte für 600€ kaufen, die bei 3 FPS ist?
@devilhanzo110 сағат бұрын
Ich verstehe nicht was du daran nicht verstehst? Du erklärst es vielleicht komplett, aber eben nicht Nvidia, zumindest nicht komplett die machen nur ein paar ankündigungen und erklären nichts weit und breit warum und wieso und deswegen ist die Kritik auch stellenweise gerechtfertigt
@stefanschoch-ym3mq15 сағат бұрын
mir reicht es am pc mit einer 3090ti 1440 QHD volkommen aus solage die fps über 60 bleiben
@jonnygudman181515 сағат бұрын
Das werden sie noch lange Zeit.
@FischToaster0013 сағат бұрын
Ich hoffe wirklich sehr, dass der AI Hype bei GPUs bald endet, auch wenn ich das gegenteil erwarte. Diese "Fake Frames" mit DLSS oder Fram Generation haben meiner Meinung nach eher dafür gesorgt, dass die Spielererfahrung schlechter wurde. Höhrer Imputlag, schlechtere Frametimes und ein unschärferes Bild sind die folge. Noch dazu werden diese Technologien inzwischen Pflicht um spielbare FPS zu erhalten. Und dann noch dieses Irreführende Marketing von Nvidia, die 5070 soll so stark sein wie die 5090. Ja mit dem AI Zeug, welches dann in einem Jahr als Open-Source Variante von AMD kommt und auch auf der 4000er Generation läuft, schon ist die 4090 wieder performanter und die 5070 sieht selbst neben einer 4070 schlecht aus. Das selbe Spektakel durften wir uns ja schon bei der 4000er Generation anschauen. Uff, das war jetzt viel gemecker, aber es musste mal aus. Nvidia werden ich zumindest erstmal meiden, meine nächste GPU wird eine AMD.
@Schatten_ffm11 сағат бұрын
Ist ja jetzt nicht so, als ob man keine Wahl hätte. Will man 4k mit RT oder PT spielen muss man mehr Geld ausgeben. Will man in FHD spielen entsprechend weniger. Nvidia ist ein Konzern und will Geld verdienen und ich finde es (nicht auf Dich bezogen) so langsam echt lächerlich, dass AMD so hochgelobt wird. Die sind genauso ein Konzern wie Nvidia (nur viel kleiner) und wollen ebenso Geld verdienen. Vielleicht sollten mal die ganzen Romantiker davon abkommen AMD als einen Gaming-Robin-Hood zu sehen. Sie rennen seit Jahren Nvidia hinterher, kopieren deren Technik und zu FSR wird vom AMD-Lager nicht gemeckert und gemotzt. Wenn ihr keine 'Fake-Frames' wollt, dann stellt es doch ab und lasst Raytracing und Pathtracing einfach sein. Ich verstehe das Gemecker auf Nvidia einfach nicht. Vor ein paar Jahren sagten sie, dass sie kein Gaming-Hersteller sind, sondern ein KI-Hersteller. Und genau das ist es was wir bekommen. Seht doch mal womit sie Reibach machen. Nicht mehr mit Grafikkarten. Kauft doch AMD. Aber dass die mittlerweile bei Grafikkarten stagnieren und denen nichts eigenes einfällt und im Endeffekt nur Nvidias Innovationen kopieren, dazu sagt auch keiner was. Ja meine Güte. Dann kauft doch AMD. Wer hält Euch denn davon ab? Bringt Nvidia was raus heißt es 'Fake-Frames, zu wenig Leistung, verbraucht zu viel Strom'. Wird weniger Strom verbraucht ist auch wieder was nicht in Ordnung. Ja was denn jetzt? Einen Chip aus einem Wafer, der 20 Euro kostet und 3 Watt verbraucht und dazu 16k@400fps darstellt? Und am Besten jetzt schon im 0,00003 nm-Verfahren...also ehrlich...
@iamshiron5 сағат бұрын
Mit ner AMD hast noch weniger Leistung Kekw. AMD hat ja schon offiziell die weisse Fahne geschwungen
@dario246615 сағат бұрын
Das "irgendeinen Schalter umlegen" ist ja gerade das Problem. Es führt dazu, dass die Graphic Leute keinen Gedanken mehr an Optimierung verschwenden. Dass dieser Schalter (Nanite, Megalighta, TAA, etc.) nicht immer so gut funktioniert, oder überhaupt erst funktioniert weil das Spiel eben nicht optimiert ist, ist das was wir die letzten Jahre erleben.
@madhausnintyone2599 сағат бұрын
kriegst du irgendwie geld von nvidia für jedes " ich sag euch so wie es ist"? nur weil du das 50 mal im video sagst hast du noch lange nicht recht