Różnice w wydajności pomiędzy RTX 4080, a RTX 4090 - czy warto dopłacać do najszybszego GPU?
Gdy tylko karty z rodziny Ada Lovelace pojawiły się na rynku, momentalnie przystąpiłem do ich testowania. Na naszych łamach mogliście zobaczyć, jak radzi sobie zarówno RTX 4090, jak i RTX 4080 w takich codziennych zastosowaniach i gamingu w rozdzielczościach 1440p i 4K. Dzisiaj omówimy sobie pokrótce różnice pomiędzy tymi układami i raz jeszcze przyjrzymy się, czy warto rozważać zakup GeForce RTX 4090, gdy na rynku znajduje się już RTX 4080.
Karty graficzne od NVIDIA zwykle kojarzą mi się z produktami dopracowanymi do granic możliwości. Duża w tym zasługa nie tylko samych układów, ale też przemyślanych i regularnie wydawanych sterowników oraz szeregu dodatkowych technik, którymi raczą nas amerykanie. Takie rewelacyjne udogodnienia, jak NVIDIA DLSS, Reflex, Ansel czy GeForce Experience bardzo pomagają w codziennym funkcjonowaniu. Regularnie robię screeny czy nagrywam fragmenty rozgrywki za sprawą nakładki ShadowPlay - bardzo wygodnej w użytkowaniu, intuicyjnej i okazjonalnie zastępującej mi MSI Afterburner, gdy chcę sprawdzić liczbę klatek na sekundę czy obciążenie poszczególnych komponentów. Aktualnie mierze się z dylematem, czy najwięksi entuzjaści powinni dopłacić do najszybszej karty graficznej na rynku, czyli GeForce RTX 4090, gdy obok znajdą zaskakująco wydajną GeForce RTX 4080.
Można powiedzieć, że NVIDIA DLSS 3 w tym przypadku zmienia wszystko
Jestem dużym fanem techniki NVIDIA DLSS już od jej pierwszej iteracji, chociaż tak naprawdę dopiero trzecia odsłona może być określana mianem "gamechangera". To, co przyniosła seria RTX 40, znacząco zmienia postrzeganie gamingu z wykorzystaniem śledzenia promieni czy najwyższych możliwych ustawień graficznych. Nadchodząca aktualizacja do Cyberpunk 2077, która przyniesie path-tracing jest tego najlepszym przykładem. Nie rozumiem do końca narzekania w sieci, że bez DLSS 3 tak potężna karta, jak RTX 4090, generuje w niektórych momentach zaledwie 16 klatek (bazując na materiale udostępnionym przez NVIDIA). Po to właśnie zaprojektowano i wdrożono przeróżne, wspomagane sztuczną inteligencją, sposoby skalowania obrazu, by możliwe było zaaplikowanie tego niesamowicie zaawansowanego ray-tracingu już teraz. Ze wsparciem techniki DLSS 3 w trybie wydajności oraz generatora klatek, możliwe jest uruchomienie tak "dopasionego" Cyberpunka w ponad 120 klatkach, nie rezygnując z jakości detali czy rozdzielczości 4K, bardzo nieznacznie obniżając ostrość obrazu. Nie bez powodu mówi się, że tego typu technologie pozwoliły nam wyprzedzić proces rozwoju kart graficznych o dwie lub nawet trzy generacje.
Path-tracing jest niezwykle zaawansowaną techniką, a korzyści płynące z jego zastosowania widać na pierwszy rzut oka, patrząc na powyższy materiał wideo. Osobiście nie mogę się doczekać, gdy wreszcie uruchomię te grę na swoim komputerze i dokładnie zweryfikuje, jak wiele się zmieniło. Cyberpunk to jedna z moich ulubionych gier, mimo wielu błędów i problemów wyskakujących do tej pory. Oczywiście, to nie jedyna pozycja na liście, która otrzyma tak znaczące usprawnienia. Chociaż znajdziemy w cyfrowych sklepach Quake II RTX czy Portal RTX, to żaden z tych tytułów nie może się równać skalą i rozbudowaniem z grą od rodzimego CDPu. Właśnie z tego powodu chciałem poruszyć wątek zakupu nowych, topowych układów graficznych. Ostatnie statystyki opublikowane przez Steam mocno mnie zaskoczyły. Okazuje się, że dotychczasowy lider zestawienia wykorzystywanych GPU, czyli GTX 1060 spadł aż na trzecią pozycję, a teraz ponad 10% rynku komputerów gamingowych zajmuje bardzo świeży RTX 3060. To oznacza, że gracze faktycznie zainwestowali w swoje komputery i przeskoczyli o kilka generacji naprzód. Na czwartym miejscu znalazł się nawet RTX 3070. Takie dane bardzo cieszą.
Myślę, że wybór GPU jest mocno uzależniony od naszych potrzeb i możliwości finansowych. Przy założeniu, że możemy sobie pozwolić na zakup karty graficznej GeForce RTX 4090 za ok. 8600 zł (ale staniały, jeszcze na premierę w listopadzie ceny wynosiły blisko 12 tysięcy złotych!), różnica względem RTX 4080 nie jest dzisiaj tak drastyczna - wynosi ok. 1500 zł. Czy w takim układzie warto dopłacać? Jeżeli planujemy podłączyć komputer do TV 4K lub dysponujemy takim monitorem, odpowiedź wydaje się oczywista - tak. Jednak próba włączenia najwyższych możliwych detali w takiej rozdzielczości, nawet z wykorzystaniem DLSS 3 w trybie jakości to często ok. 90-100 klatek w najnowszych tytułach, jak Hogwarts Legacy czy The Last of Us Part 1 (tu akurat jest "tylko" DLSS 2). RTX 4080 w tym przypadku wymaga albo przeskoczenia z DLSS 3 na tryb wydajności albo zjechania z rozdzielczością do 1440p.
No i tutaj właśnie ten układ będzie doskonałym wyborem do popularnego "2K". Jeżeli mamy w domu nowy monitor z rozdzielczością 2560x1440p i 165 Hz częstotliwością odświeżania (lub wyżej), to RTX 4080 w zupełności wystarczy do osiągnięcia kapitalnych rezultatów przy najwyższych detalach. Osobiście uważam, ze jeżeli wyjściowo gramy w 1440p, to technikę NVIDIA DLSS powinniśmy włączać wyłącznie w trybie jakości. Ostrość obrazu jest wtedy znakomita, a liczba klatek znacząco wzrasta. Topowy komputer złożony z płyty głównej z chipsetem Z790, procesorem Intel Core i7-13700K, 32GB RAM i właśnie RTX 4080 będzie nas kosztować ok. 12 tysięcy złotych. To dokładnie 4x więcej od PlayStation 5. Do tej kwoty musimy doliczyć zakup monitora (ok. 1500 zł) i peryferiów. Czy to dużo dla entuzjasty? Części komputerowe niesamowicie dzisiaj staniały (nie licząc procesorów i płyt głównych), a pamięci i dyski twarde SSD możemy kupić znacznie taniej niż jeszcze kilka miesięcy temu (koszt 32 GB RAM DDR4 3600 MHz CL18 wynosi jakieś 450 zł).
Odnosząc się także do działania najnowszych gier w rozdzielczości 1440p, różnice w wydajności pomiędzy RTX 4080, a 4090 zależą od tytułu. Dla przykładu, Wiedźmin 3 ze wszystkimi ustawieniami na maksa, ale bez DLSS, za to z włączonym ray-tracingiem działa na RTX 4080 średnio w 64 klatkach. Na RTX 4090 jest 18 klatek więcej. W Modern Warfare 2 różnica wynosi już 35 klatek (śr. 145 klatek dla RTX 4080). W Red Dead Redemption 2 ok. 30 klatek, gdzie RTX 4080 gwarantuje płynność na poziomie przekraczającym 100 klatek, więc w zupełności wystarczającą. Horizon: Zero Dawn czy Assassin's Creed Valhalla są bardziej ograniczane przez procesor i tam różnice sięgają średnio 12-15 klatek (przy ogólnym poziomie 150 klatek dla RTX 4080). Jak widzicie, do grania w rozdzielczości 2K lepiej przeznaczyć te 1500 zł różnicy na dobry monitor, niż inwestycję w GeForce RTX 4090. Nieco słabszy, ale równie potężny układ w zupełności wystarczy do komfortowej zabawy i to jeszcze bez włączonego DLSS 3.
Przeczytaj również
Komentarze (95)
SORTUJ OD: Najnowszych / Najstarszych / Popularnych