Geforce Now - RTX 4080 już dostępne dla graczy z Polski

+
Witam,

Nie wiem czy wiecie ale już można grać w Wiedźmina NextGen na 4080 dzięki usłudze Geforce Now. Dwa serwery : we Frankfurcie i jakiś w Europie północno-wschodniej obsługuje graczy z Polski. Są to jak na razie jedyne serwery w Europie udostępniające RTX 4080 - czyli z obsługą DLSS 3.

Opcja jest dostępna w wersji Ultimate, która kosztuje niestety 100zł na miesiąc.

Posiadając RTX 3090, grając na Ultra z wykorzystaniem Ray-Tracing miałem max 65 klatek, a w Novigradzie 25-45. DLSS 3 na kartach serii 40xx daje ogromne przyspieszenie, co sprawdziłem właśnie dzięki Geforce Now.

Plusy :
1. 90-120 klatek/sek gwarantowane poza zabudowaniami w 4K
2. Novigrad - 65fps minimum
3. Obsługa HDR

Minusy :
1. Jakość obrazu podczas ruchu zależy od prędkości łącza wysyłanego. Czyli jeśli mam 630Mb/s pobierania, a 60Mb/s wysyłania - to prędkość pobierania danych jest ograniczona do 60Mb/s - co oznacza kiepską jakość podczas poruszania się lub obracania kamerą. Prawie jak oglądając film na YT sprzed 10 lat.
Jest to widoczne zwłaszcza podczas scen dziennych i korzystania z HDR.
2. Brak możliwości instalacji modów
3. Pewne ograniczenia rozdzielczości. Jest obsługa monitorów wide, lecz tzw. ultra wide jak Samusngi Odyssey już nie. Można sobie w ustawieniach sterownika stworzyć nową rozdzielczość, którą GFN będzie tolerował na szczęście.

Naprawdę wrażenia z tej ulepszonej gry podczas grania przy FPS > 60 są niesamowite ! To jest po prostu przepiękne !
Niestety wydawanie 100zł miesięcznie na taką satysfakcję mija się z celem - to już chyba lepsze raty za 200 zł na 4090 bez żadnych ograniczeń i w pełnej jakości...
 
Niestety wydawanie 100zł miesięcznie na taką satysfakcję mija się z celem - to już chyba lepsze raty za 200 zł na 4090 bez żadnych ograniczeń i w pełnej jakości...
Nie żebym bronił koszt tej usługi ale wszystko zależy ile czasu byś poświęcał na granie w tej usłudze.
Biorąc pod uwagę iż, desktop z RTX 4090 przy obciążeniu w grze pobiera przynajmniej ok 500W to za ok. 2h rozgrywki zapłacimy ok. 0,75zł za prąd, jeśli ktoś gra na kompie tak 6 godzin codziennie to przez 30 dni w miesiącu zapłaciłby za prąd za granie na swoim kompie ok. 67,50 zł.
Do grania na GF now wystarczy najprostszy laptop, Nvidia Shield, czy inny sprzęt, który zapewne zużyje nie więcej niż 50W, czyli wciąż oszczędzi się ok. 60 zł miesięcznie na samym prądzie. (o ile gramy codziennie po te 6h, jak mniej to będzie mniej oszczędności, jak więcej to więcej =) ). Taki aspekt też powinno się brać pod uwagę. Tak tylko zwracam uwagę =).
 
Last edited:
Nie żebym bronił koszt tej usługi ale wszystko zależy ile czasu byś poświęcał na granie w tej usłudze.
Biorąc pod uwagę iż, desktop z RTX 4090 przy obciążeniu w grze pobiera przynajmniej ok 500W to za ok. 2h rozgrywki zapłacimy ok. 0,75zł za prąd, jeśli ktoś gra na kompie tak 6 godzin codziennie to przez 30 dni w miesiącu zapłaciłby za prąd za granie na swoim kompie ok. 67,50 zł.
Do grania na GF now wystaczy najprostrzy laptop, Nvidia Shield, czy innego sprzętu pewnie zużyje nie więcej niż 50W, czyli wciąż oszczędzi się ok. 60 zł miesięcznie na samym prądzie. (o ile gramy codziennie po te 6h, jak mniej to będzie mniej oszczędności, jak więcej to więcej =) ). Taki aspekt też powinno się brać pod uwagę. Tak tylko zwracam uwagę =).
Tylko wtedy gdy samemu się płaci za prąd. Jak ktoś mieszka u rodziców to te aspekt pomija.
 
Tylko wtedy gdy samemu się płaci za prąd. Jak ktoś mieszka u rodziców to te aspekt pomija.
No tak bo rodzice nie płacą za energię bo po co xD... to równie dobrze mogą mu się dokładać do GF now skoro i tak za prąd musieliby zapłacić. No logika lvl master...
 
Nie mam światlowodu tylko zwykły internet LTE . Niestety raz próbowałem tego typu usługi na Sniper Gost Elite . Niestety nie dało się grać . Rwane 20 klatek ...
 
Owszem oszczędność za prąd pewna jest choć i tak komputer działa, monitor także... Natomiast moim zdaniem jest to nie adekwatne do jakości, która jest po prostu kiepska jak za te pieniądze, biorąc pod uwagę to iż możemy zamiast tego spłacać ratę za kartę, dzięki której mamy to samo w doskonałej jakości obrazu.

Po wielu testach muszę stwierdzić, że nieprawdą jest to co napisałem w punkcie minusy - 1. Otóż to nie jest wina łącza internetowego lecz limitu jaki nakłada na nas usługa - max 75MB/s, a w rzeczywistości nie przekracza 65Mb/s. Przy takim ograniczeniu jakość obrazu jest poddana zbyt wielkiej kompresji i podczas ruchu wygląda to jak kiepskiej jakości plik jpg, a przy korzystaniu z HDR to już tragedia.

Taka przepustowość jest zbyt mała aby ogarnąć dynamiczny obraz z taką ilością kolorów, cieniowania. Testowałem Fortnite i tam wygląda to w porządku - no ale tam grafika jest bardzo prosta. W Wiedźminie za dużo dzieje się na ekranie.

Nie lubię ograniczeń zwłaszcza za taki pieniądz. Jeśli mam wybierać pomiędzy doskonałą płynnością, a kiepską jakością - to wolę nie wybierać wcale :)

Wiele sklepów oferuje raty 0% i mamy za taki wydatek "serwer" RTX 4080/90 tuż metr od siebie - bez ograniczeń.

Nie chcę też tworzyć teorii spiskowej, lecz porównywałem sesje GF Now na YT nagrywane przez użytkownika z USA i tam takiej kompresji nie widziałem. Być może jest jakiś limit dla użytkowników z określonych państw...
 
Last edited:
Owszem oszczędność za prąd pewna jest choć i tak komputer działa, monitor także... Natomiast moim zdaniem jest to nie adekwatne do jakości, która jest po prostu kiepska jak za te pieniądze, biorąc pod uwagę to iż możemy zamiast tego spłacać ratę za kartę, dzięki której mamy to samo w doskonałej jakości obrazu.

Nie chcę też tworzyć teorii spiskowej, lecz porównywałem sesje GF Now na YT nagrywane przez użytkownika z USA i tam takiej kompresji nie widziałem. Być może jest jakiś limit dla użytkowników z określonych państw...
Ale co z tego, że kompuer działa, na GF now możesz grać na laptopie, słabym PC'ie, czy smartfonie, tablecie, czy czymkolwiek co tam obsługuje GF now. Każde z tych urządzeń pobiera nieporównywalnie mniej energii przy obsłudze GF now, bo to nie jest żadne obciążenie, przy GF Now taki sprzęt pobierze od kilku/kilkunastu do max góra 60W (nie liczę monitora/tv bo jeśli z niego korzystasz to i tak byłby potrzebny, czy to dla GF now, czy dla PC z RTX 4090). Natomiast taki PC (sama jednostka) z RTX 4090 przy takim wiedzminie 3 pobierze już ok. 500W więcej, więc jest to ważny aspekt ile godzin spędzałbyś na graniu na takim PC w miesiącu. Dlatego jak tak rozpatrujesz zakup GF now rtx 4090, a zakup samej karty to należy też brać pod uwagę aspekt poboru energii. Poza tym do RTX4090, potrzebny jest też porządny zasilacz, minimum 850W, a najlepiej 1000W , tak samo reszta podzespołów jak procesor, ram, płyta, nie może być słaba/stara, a najlepiej parować tą kartę z przynajmniej i5 13600k/kf, czy R7 5800X3D lub lepszym prockiem i już tak 32GB RAM minimum, a do obu tych rzeczy trzeba mieć odpowiednią płytę główną, wystarczająco mocne chłodzenie i dobrze wentylowaną obudowę, a wszystko to też kosztuje niemałe pieniądze...

Nie testowałem GF Now u siebie za bardzo, więc ciężko mi się odnieść do aspektu jakości kompresji, ale czy wykonałeś wbudowany test prędkości w aplikacji GF now i łapiesz się w nim na rekomendowaną prędkość?
 
Last edited:
Bez przesady, lecz jeśli pytasz to mam dwie RTX 3090 na dual PSU ( używam do pracy, rendering Octane ) i rachunków za prąd nie mam zbytnio wygórowanych. Piekarnik, mikrofala, suszarka, pralka na 60st, odkurzacz nie wspominając o płycie indukcyjnej potrafią stanowić 70% rachunku za prąd. Zwłaszcza, że Wiedźmin jest kiepsko zoptymalizowany i karta nie pracuje przy RTX na 100% obciążeniu.

1676186450959.png

Post automatically merged:

Screeny przy obrotach kamerą :


w1.jpg



w2.jpg


bez obrotu :
w3.jpg


Nadal rozmycie np trawy.

Przy HDR jest znacznie gorzej, screenów nie załączę bo są wówczas prześwietlone.

To jest pomniejszony screen - na full wygląda znacznie gorzej.

Efekt motion blur wyłączony DoF także.

Syn gra w Fortnite na laptopie i takiego rozmycia nie ma - ale tam jest prosta grafika w sensie skali cieniowania i kolorystyki - i on leci przez WiFi, a ja na kablu.
 
Last edited:
Ale o czym my tutaj dywagujemy, to czy masz niskie czy wysokie rachunki za prąd nie ma tutaj znaczenia. To jest prosta matematyka ,jak byś używał desktopa z rtx 4090 to przy grach takich jak w3 czy cyberpunk2077 cały pc będzie pobierac ok. 500w:
W3 potrafi bardzo mocno obciążyć rdzeń graficzny przy włączonym Dlss. 3.0 i rt on.
To ile wiecej zapłacisz za prąd zależy tylko i wyłącznie od tego ile będziesz czasu grać w miesiącu.

Przy gf now moglbys pozbyć się tych dwóch rtxow i siedzieć na integrze lub najtańszym dedyku i wtedy podczas gry twój pc zużywał by nie więcej niż ok. 10x mniej prądu.
 
Last edited:
Heh, być może. Chciałem tylko poinformować, że 4080 jest już dostępny i podzielić się opinią na temat jego działania. Nie wnikam ile to prądu się zaoszczędzi. Widzę tylko jak licznik mi nabija podczas intensywnego renderingu na dwóch 3090, a jak podczas pracy piekarnika :) I tutaj na korzyść kart.

Naprawdę to trzeba założyć osobny wątek na temat prądożerności sprzętów.

No tak ale test jest pod pełnym obciążeniem karty - a w Wiedźminie tego nie uświadczysz.
 
Moim zdaniem jest to błędne podejście , bo są to też realne koszta, czy oszczędność i należy jak najbardziej brać ten aspekt pod uwagę.

I wcale nie uważam, że gf now jest warty zakupu, byłby gdyby miał cenę połowę niższa jak na początku jego istnienia. Teraz bym nikomu go nie polecił, ale to wyłącznie kwestia własnych preferencji.
 
Last edited:
Oczywiście, jeśli ktoś ma słaby sprzęt i ograniczone fundusze - to się opłaca. Bo Wydając 400 zł na 4 miesiące można przejść dość szybko grę doświadczając jakości RTX nie inwestując 8tys na zakup karty - to fakt. Jednak jakość samej usługi jest względna - płynność gry w zamian za oglądanie jej jak na niskim łączu w You Tube.
 
GF Now testowałem od premiery Cyberpunka do stycznia tego roku (kupilem w końcu nowy komputer o specyfikacji zbliżonej do mojej subskrypcji, więc ją anulowałem). Całe szczęście załapałem się na początku na wersję Founders, płaciłem do samego końca 125zł rocznie. Skończyłem na tej platformie Cyberpunka (był to główny cel), później m.in. Control, Metro Exodus i nowe Plague Tale. Mocny internet po kablu, rozdzielczość 1080p, rtx on. Jakość bardzo dobra. Jedyne co to jeśli pojawiało się dużo drzew, trawy ogólnie przyrody (w cyberpunku np. w Badlands) to obraz gubił ostrość i widocznie gubił rozdzielczość. No i przy każdym spowolnieniu łącza też podobne defekty. W takim Control obraz żyleta.

Natomiast w ostatnim czasie zaobserwowałem znaczne pogorszenie jakości, spadki płynności, czasami wręcz obraz był tak rozpikselowany, że nie było nic widać (zwłaszcza w Plague Tale). Działo się to mimo stałej prędkości połączenia, sprawdzałem. Dlatego mam podejrzenia, że po wprowadzeniu nowych, droższych planów subskrypcji zaczęli odgórnie pogarszać jakość starszych, tańszych. Ogólnie usługa była warta uwagi kiedyś, teraz moim zdaniem już za drogo. Do tego biblioteka tytułów, które tam są jest mocno ograniczona.
 
"Dlatego mam podejrzenia, że po wprowadzeniu nowych, droższych planów subskrypcji zaczęli odgórnie pogarszać jakość."

Coś też tak mi się widzi dlatego, że jest kilka filmików na YT z GFN, które wyglądają znacznie lepiej niż to co mam.
Post automatically merged:

Generalnie problem leży tutaj :

1676200622534.png

Przepustowość mojego łącza to 600Mb/s
Ponoć dostępność do serwera mam taką samą.
Łącze używane - hmmm no to tutaj mamy pytanie - dlaczego takie niskie ( co powoduje utratę obrazu ) skoro ping też dobry.
 
Last edited:
Po kilku tygodniach oraz po napisaniu kilku negatywnych opinii do NVidii ponownie uruchomiłem grę pod Geforce Now i jest znacznie lepiej.

Nie występuje już tak duży efekt rozmywania obrazu podczas obrotu kamerą. Ostrość nadal nie jest taka sama jak podczas grania bezpośrednio lecz różnica niewielka.

Ping miałem wcześniej 40-42 teraz 33-35.

Generalnie jest znacznie lepiej. Ale tylko pod FSR.
 
Przez ostatnie 2 miesiące bardzo mocno starałem się aby wymienić sprzęt na nowszy i się udało. Wydajność w grze wzrosła imponująco.

I7 6850K RTX 3090 wymieniłem na i5 13600K RTX 4090

Ray Tracing full, parametry Ultra +
Rozdzielczość 5120x1440

Przyrost wydajności :
Novigrad plac hierarchów - 26 klatek na 52. Z frame generation 96 klatek.
Obszary leśne - z 58 klatek na 90-102 klatek. Z frame generation grubo ponad 120 klatek ( mam zablokowane na 120 )

DSR 6826x1920 - spadek o 30 klatek ale jakość niesamowita.

Screeny z HDR więc prześwietlone.

Można grać. Skok wydajności z 26 klatek na ponad 90 - dobra inwestycja :)
 

Attachments

  • The Witcher 3 Screenshot 2023.03.25 - 12.45.07.99.jpg
    The Witcher 3 Screenshot 2023.03.25 - 12.45.07.99.jpg
    1.7 MB · Views: 33
  • The Witcher 3 Screenshot 2023.03.25 - 12.46.05.76.jpg
    The Witcher 3 Screenshot 2023.03.25 - 12.46.05.76.jpg
    2.2 MB · Views: 33
  • Zrzut ekranu 2023-03-25 133520.png
    Zrzut ekranu 2023-03-25 133520.png
    689.3 KB · Views: 28
Last edited:
Dużo gram, a do tego na swoich kompach siedzą moje dzieciaki. Nie wiem czy słusznie, ale w mojej sytuacji obawiałbym się o rachunek za prąd pod koniec roku po wykorzystaniu limitu. W swojej sytuacji niestety muszę brać to pod uwagę.

Rozdzielczość 5120x1440
Piękny monitor :love: . W Euro Truck Simulatorze byłoby widać oba fizyczne lusterka ciężarówki jednocześnie ;). Niestety, w mojej dziupli na biurku mieści się maksymalnie 34 cale 3440x1440 (powiedzmy, że mam jeszcze całe 9 cm zapasu po szerokości). Ale większego monitora moja skromna 3070-tka i tak by nie pociągnęła w nowych grach w przyzwoitych ustawieniach - już z tym ma co robić.
 
Jeśli się gra po 4-7 godzin raz-dwa w tygodniu to rachunki nie są aż tak duże. Ten monitor Samsung G9 Odyssey starsza wersja ( nie Neo ) ciągnie dużo prądu głównie przy HDR. Włączam to ze względu na zbalansowaną, stonowaną kolorystykę - nie prześwietlenia. Wykonanie tego samego poprzez GF Experience lub ReShade sprawdza się tylko do konkretnego oświetlenia, a w HDR działa automatycznie. Stonujesz czerwienie i żółcie za dnia dla bezchmurnej pogody, a przy innej sytuacji zaczyna ich brakować.

Podczas normalnego użytkowania mam go ściemnionego bo i tak jest bardzo jasny i "wali" po oczach.

Faktem jest, że przy tej szerokości to jesteś dosłownie w grze. Wzrok i tak skupia się na centrum ale to tło poza obszarem widzenia robi swoje. Czujesz, że tam jesteś :) Natomiast niska rozdzielczość pionowa 1440 ma problemy z anty-aliasingiem. Co jest bardziej widoczne przy DLSS, który to potęguje. Dlatego mając teraz 4090 robię DSR x1.78 zmniejszając jakość DLSS i wygląda ok ze stratą 10-25 klatek przy znacznie lepszej jakości i ostrości.

Nowy sprzęt jest znacznie bardziej energooszczędny i dysponuje większą kulturą pracy niż ten sprzed nawet tylko 3 lat. RTX 4090 wogóle nie włącza wentylatorów dopóki mocniej się go nie przyciśnie. Dla porównania moje RTX3090 na chłodzeniu wodnym muszą cały czas mieć włączone wentylatory na chłodnicy bo pomimo chodzącej non-stop pompy by się po 20 minutach zagotowały.
To samo z procesorem. Stary i7 6850k także na wodzie - cały czas musi być wentyl na chłodnicy nawet podczas przeglądania www. i5 13600K - jakbym go nie słyszał.

Moja dwójka siedzi na dość leciwym komputerze ( do Simsów i Fortnite wytarczy ) - i ten ciągnie w tydzień tyle co moje w trzy.

Sprzęt mam głównie do pracy, rendering 3D na kartach ale nawet w miesięcznym rozrachunku pod nocnym obciążeniem nie wychodzi dużo więcej jak suszarki, piekarnik itp. A sam na siebie zarabia :)
 
Last edited:
Nowy sprzęt jest znacznie bardziej energooszczędny i dysponuje większą kulturą pracy niż ten sprzed nawet tylko 3 lat. RTX 4090 wogóle nie włącza wentylatorów dopóki mocniej się go nie przyciśnie. Dla porównania moje RTX3090 na chłodzeniu wodnym muszą cały czas mieć włączone wentylatory na chłodnicy bo pomimo chodzącej non-stop pompy by się po 20 minutach zagotowały.
Nie kuś, bo zacznę się zastanawiać nad argumentem "kochanie, ale jak wymienię obecną RTX3070 na RTX4090, to zaoszczędzimy na prądzie" - którego moja żona może nie łyknąć, jak sprawdzi ceny :LOL:
Do tego musiałby dojść zasilacz, bo 700W to trochę krótko. I procesor, bo R5 5600X (trafnie sparowany z RTX3070) okazałby się bottleneckiem dla grafiki. A przecież takiej karty nie wrzucę w płytę z obsługą DDR4, bo to rzucanie pereł między wieprze...
I w ten sposób wymiana karty w moim przypadku wymusiłaby zmianę całkiem jeszcze żwawej konfiguracji na jeszcze nowszą. A za chwilę szykują się nowe generacje procesorów, niedługo później będą nowe karty, potem znowu coś nowego wymodzą - nie, przez minimum dwie-trzy najbliższe generacje nic nie będę kombinował. A później pewnie się zestarzeję i znowu będę grał w stare Fallouty i Baldury które mój obecny komp może uruchomić nawet wszystkie na raz i się przy tym nie spoci. Chyba, że wyjdzie Wiedźmin 4 lub remake Wiedźmina 1, wtedy rozważę próbę przeforsowania argumentu przytoczonego na wstępie :ROFLMAO:
 
Last edited:
Niestety ale tak jest jak to opisałeś. 4090 potrzebuje mocnego procesora i szybkich pamięci.

Jest na YT film pokazujący jak działa Wiedźmin Nextgen na 4090 przy użyciu procesora dosyć leciwego. Nie ma absolutnie żadnego przyspieszenia, a Frame Generation dodaje max 20 klatek. i5 13600k to absolutne minimum z RAM DDR4 3200mhz. Nawet przy tej konfiguracji zdarza się, że GPU działa na 85-90%. Jeśli nie podkręcę pamięci to spadki poniżej 80%. Tak więc RTX4090 to nie wszystko. Trzeba wymienić praktycznie wszystkie stare podzespoły aby to funkcjonowało sprawnie.

Do tego trzeba jeszcze się obeznać z nową technologią czego ja nie uczyniłem i wtopiłem. Otóż zakupiłem płytę z chipsetem H670, który nie obsługuje OC CPU :( Więc mając proc "K" nie skorzystam z OC. Haha, kiedyś można było kręcić CPU bez względu na chipset... Zwrócić nie mogę bo sprzęt w leasing wzięty.

Na szczęście udało mi się to jakoś zoptymalizować tak, że GPU chodzi na pełnych obrotach (97-99%) przy full detalach i DSR przy 90-115 klatkach.
 
Top Bottom