Co nieco o sprzęcie

+

Co nieco o sprzęcie

  • poniżej 25 FPS

    Votes: 9 2.1%
  • co najmniej 25 FPS

    Votes: 28 6.7%
  • co najmniej 30 FPS

    Votes: 141 33.5%
  • co najmniej 40 FPS

    Votes: 93 22.1%
  • co najmniej 60 FPS

    Votes: 98 23.3%
  • nie patrzę na framerate

    Votes: 52 12.4%

  • Total voters
    421
Na HBM2 w kartach konsumenckich nie ma co nawet liczyć, pewno pojawi się tylko w segmencie PRO.
Stąd też w przecieku 128MB cache, bo jakby nie spojrzeć na kartę to taki chip z taką ilością jednostek wykonawczych na szynie 256bit i na wolniejszych kościach niż u Nvidii (GDDR6X to ex, dla zielonych) to będzie głodować z powodu zbyt małej przepustowości.

Karty AMD zresztą od GCN to zawsze wymagały dużej przepustowości bo tam najszybciej łapały hamulec, tutaj wolniejsze pamięci, węższa szyna, mniejsza przepustowość ale ten szybki cache ma załatać niedostatki, podobno komunikacja po Iifinity Fabric tak jak w Ryzenach (czyżby opcja kręcenia IF ? )
 
Wracając do DLSS - biorąc pod uwagę fakt, że aby zaimplementować DLSS 2.0 w grach devsi nie musza robić praktycznie nic (oprócz dostarczenia Nvidii referencyjnych materiałów 8K) to zdajecie sobie sprawę, że w każdej grze z DLSS 2.0 Ampere będzie po prostu miażdżyc BigNavi, niezależnie od "czystej" mocy obliczeniowej tychże? Inaczej mówiąc: co z tego, że na papierze BigNavi będzie miała lepsze "cyferki", skoro gry na Ampere będą wyglądały lepiej i działały szybciej? I może to jest własnie powód, tzn. software a nie hardware, dla którego AMD nie zamierza się pchać w konkurencję dla 3080/3090?
 
DLSS jest ciekawą techniką (podobne triki stosowały już obecne konsole - upscaling) jeśli jest użyta poprawnie (pierwsza wersja DLSS miała niewątpliwie swoje błędy - co chociażby było widać w Metro Exodus), ale wersja 2.0 prezentuje się o wiele lepiej (zapewne jednak nie bez wad - wciąż mamy tutaj skalowany obraz, który zawsze będzie miał jakieś przekłamania względem natywnego).

Inna sprawa to kolejna ciekawa technika nad którymi pracują twórcy - mowa o różnych rozdzielczościach obrazu w ramach jednej sceny (nie pamiętam jak się to profesjonalniej nazywało). Już tłumaczę o co chodzi. W niektórych grach - jak FPS czy wyścigówkach - uwaga gracz skupia się głównie na centralnej części ekranu, podczas gdy reszta i tak jest na tyle mało istotna (lub szybko przesuwająca się), że degradacja jakości tych obszarów może nie przeszkadzać (czy wręcz, w skrajnych przypadkach, zostać niezauważona).
Uproszczoną wersję tego rozwiązania zastosowano już chociażby w Shadow Warrior 2, gdzie gracz mógł sobie przeskalować zewnętrzne "ramki" ekranu. Na ekstremalnych ustawieniach wyglądało to co prawda komicznie, ale z odpowiednimi opcjami pozostawało niemal niewidoczne, a pozwalało urwać kilka FPS więcej.

Tak więc, przyszłość leży w technologi, a nie tylko w czystym przyroście mocy (tym bardziej jak chcemy robić takie cuda jak RT i pragniemy grać w wyższych rozdzielczościach na stałym i wysokim fps).
 
Wracając do DLSS - biorąc pod uwagę fakt, że aby zaimplementować DLSS 2.0 w grach devsi nie musza robić praktycznie nic (oprócz dostarczenia Nvidii referencyjnych materiałów 8K) to zdajecie sobie sprawę, że w każdej grze z DLSS 2.0 Ampere będzie po prostu miażdżyc BigNavi, niezależnie od "czystej" mocy obliczeniowej tychże? Inaczej mówiąc: co z tego, że na papierze BigNavi będzie miała lepsze "cyferki", skoro gry na Ampere będą wyglądały lepiej i działały szybciej? I może to jest własnie powód, tzn. software a nie hardware, dla którego AMD nie zamierza się pchać w konkurencję dla 3080/3090?
Bym był daleki od takich stwierdzeń bo według marketingu Nvidii w DLSS mamy lepszy obraz od natywnego, a to oczywiście bzdura, nigdy obraz po rekonstrukcji nie będzie lepszy od natywnego, szczególnie że z jakich rozdzielczości to podciąga.
1080p - z 720p chociażby, Taka rekonstrukcja dopiero zaczyna mieć sens w bardzo wysokiej rozdzielczości, czyli 8K DLSS bo jest wtedy upscalowane z 4K.

Dodatkowo jest jeszcze pewna wada, artefakty obrazu, tutaj dochodzi aspekt indywidualny, część zauważy a inni powiedzą "ja nic nie widzę" to coś jak z 60fps a 144fps.
Im więcej w danym tytule efektów post-proces tym więcej jest artefaktów w obrazie, a w takim trailerze CP2077 to już całkiem miejscami wyłazi bieda z ekranu, jeśli idzie o te wady.
 
Samo jedno Death Stranding wiosny nie czyni, a w taki CP2077 może to wyglądać zgoła inaczej jak to z DLSS bywa, im więcej danych efektów w grze co "nie leżą" tym gorzej, chyba że ktoś jest ślepy i pewnych rzeczy nie widzi, to już osobny problem.

Oczywiście że tak - co nie zmienia faktu, że gier wspierających DLSS 2.0 pojawi się dużo więcej, bo jak już wspominałem, devsi nie musza praktycznie nic robić - wszystko implementuje Nvidia w swoich sterownikach.

Co do artefaktów:
"DLSS replaces temporal anti-aliasing, where all flavors of TAA exhibit softening or ghosting artifacts that Nvidia's AI upscaling has somehow managed to mostly eliminate."
Czyli potencjalnie DLSS może... zredukować ilość gliczy.

Ja wiem - Marketing, jedna gra, bla bla bla... Ale to własnie nowe technologie, jak napisał I_w_a_N, a nie czysta moc obliczeniowa, będą odpowiadać za efekt "wow".
 
devsi nie musza praktycznie nic robić - wszystko implementuje Nvidia w swoich sterownikach.

To oficjalna informacja i rzeczywiście to tak wygląda czy tylko domysły?

Te wszystkie technologie to przekręty, usprawiedliwienia wydawania z roku na rok coraz to nowszego sprzętu, trzeba też sztucznie podwyższać wymagania sprzętowe aby gracze kupowali nowe podzespoły i biznes się kręcił. Przecież to są jaja aby najnowszy Serious Sam miał w zalecanych do 1080p GTX 1080 czy to wygląda aż tak dużo lepiej niż np. Painkiller z 2004 roku którego ogrywałem na GeForce 2 czyli nie wiem karcie graficznej 1000 razy słabszej od GTX 1080? Kolejny wałek to HDR i RT to nie jest coś, co się automatycznie włącza gdy mamy odpowiedni monitor lub kartę graficzną z tą technologią tylko coś co dopiero muszą dodać do swojej gry twórcy danego tytułu. Dziwne, że to wszystko nagle zaczęło być modne po darmowym ReShade i SweetFX.
 
Te wszystkie technologie to przekręty, usprawiedliwienia wydawania z roku na rok coraz to nowszego sprzętu, trzeba też sztucznie podwyższać wymagania sprzętowe aby gracze kupowali nowe podzespoły i biznes się kręcił.

No tak nie do końca "przekręty". Bo rozwój jest i szkoda, że go nie zauważasz.

Po pierwsze gry są coraz "większe" i bardziej złożone, przy grafice która (mimo wszystko) idzie znacząco do przodu (tutaj czynnikiem naprawdę zatrzymującym jej rozwój są raczej konsole, ale ma to też pewne dobre strony gdyż co generację "akceleratorów" nie trzeba zmieniać GPU). Trzeba też wziąć pod uwagę, że sama oprawa to nie wszystko. Współczesne gry to też skomplikowane systemy AI czy fizyki (z czego ta ostatnia, bardzo często, może być liczona na GPU). Jak dodasz do tego streaming świata gry (mniej loadingów - jak odwołujesz się do starych gier to zapewne wiesz co było ich jedną z większych bolączek).
Zauważ też iż część rzeczy, które wcześniej były dostępne (czy raczej osiągalne) przez twórców były zwykłymi "sztuczkami" wymagającymi masy dodatkowej pracy, a teraz zaczynają być dostępne w sposób sprzętowy (bez ewentualnych błędów oraz przekłamań, że o masie zaoszczędzonego czasu twórców nie wspomnę).
To wszystko potrzebuje mocy obliczeniowej i nowych rozwiązań.

Te też powstają, stąd rozwój (nie zawsze rewolucja, ale raz na pewien czas tak jak chociażby przy - parallax mapping'u, teselacji czy chociażby ray tracing'u).

Przecież to są jaja aby najnowszy Serious Sam miał w zalecanych do 1080p GTX 1080 czy to wygląda aż tak dużo lepiej niż np. Painkiller z 2004 roku którego ogrywałem na GeForce 2 czyli nie wiem karcie graficznej 1000 razy słabszej od GTX 1080?

Albo to czysty trolling, albo ewidentnie coś masz z oczami (lub widzisz szesnastoletnią grę przez mgłę wspomnień i nostalgii).
Nasz Painkiller (jakkolwiek ładny na swoje czasy nie był) wciąż pozostawał grą z dość małymi i sterylnymi lokacjami (wchodziłeś do pewnej "areny" - zamykały się wejścia i pojawiały hordy przeciwników, swoją drogą nie tak liczne i różnorodne jak w którejkolwiek odsłonie SS, że o wielkości aren i ich złożoności nawet nie wspomnę).
Poza tym, w 2004 (z tego co pamiętam) gra Chmielarza też miała całkiem zacne wymagania.

Tak dla przypomnienia SS4 (2020):



Painkiller (2004):




Pomijając kolorystykę, różnica w złożoności oraz jakości jest kolosalna.
Nie mów mi, że jej nie dostrzegasz.

Kolejny wałek to HDR i RT to nie jest coś, co się automatycznie włącza gdy mamy odpowiedni monitor lub kartę graficzną z tą technologią tylko coś co dopiero muszą dodać do swojej gry twórcy danego tytułu. Dziwne, że to wszystko nagle zaczęło być modne po darmowym ReShade i SweetFX.

Nie bądź proszę, kolejną osobą, która myli "HDR" z ReShade (czy SweetFX) z prawdziwym HDR czyli obrazie High Dynamic Range (że o RT już nie wspomnę). ReShade jest jedynie nakładką (kolejnym postprocesem, dodawanym na ostateczny obraz, który widzimy na monitorze), która pociąga za sobą wszystkie wady kontroli obrazu jedynie na ostatnim kroku jego tworzenia (obejmowanie działaniem tylko tego co znajduje się aktualnie w polu widzenia, oraz... wszystkich elementów ekranu, czy tego chcemy czy nie - jak menu i teksty pojawiające się w grze).
Poza tym tak uzyskany HDR to tylko kolejna namiastka "efektu" niemożliwa do poprawnego oddania bez szerszego pasma kolorów (prawdziwe HDR to nie tylko "jaśniejszy monitor", a szerszy zakres tonalny barw i przejść pomiędzy nimi).
 
nigdy obraz po rekonstrukcji nie będzie lepszy od natywnego, szczególnie że z jakich rozdzielczości to podciąga.

Akurat podbijanie rozdziałki przez SI, to nie jest "rekonstrukcja", czy zwykły upscaling. To cholernie skomplikowany proces, i nie mam zamiaru udawać, że rozumiem go w najmniejszym stopniu.

Wiem natomiast, że gameplay Diablo II po "rekonstrukcji" wygląda fenomenalnie i o kilka długości bije oryginał.

Moim zdaniem obraz lepszy niż źródło w przypadku wykorzystania technologi bazujących na SI, jest możliwe.

 
AMD promuje (zajawkę wyglądu) się w Fortnite, dla którego "zieloni" (na swojej konferencji) zapowiedzieli dodanie funkcji RT (i samym tytułem też się promowali).

Więc ruch AMD to tylko przypadek?

 
Ampere w końcu zawitało i pozamiatało ;)

Karta praktycznie miażdży 2080Ti w każdym tytule, martwi trochę ten wysoki pobór mocy po OC który jest nawet wyższy od Radeona VII. Kultura pracy jak na referenta przyzwoita, czekamy co pokażą autorskie konstrukcje. Na razie jest ciekawie ;)
 
Ja się zastanawiam kiedy dostaniemy zapowiedź 3080TI. Na AMD jakoś nie liczę, a liczba ramu w 3080 mimo świetnych wyników w obecnych grach, jakoś nie napawa spokojem w kontekście "nowej generacji" gier.

Znając moje szczęście, będę odkładał zakup karty tak długo jak się da, potem kupię 3080 i tydzień później ogłoszą 3080TI z 16 GB DDR6X.

 
3080 jest mocna, ale czy aż tak? Uwaga, kontrowersyjna opinia. Otóż nie.
Dlaczego?
Po pierwsze rzeczone gpu nie jest w stanie zapewnić stałych 60 klatek w 4k w niektórych grach np. RDR2 czy Control, a to przecież nie są żadne nowe, nextgenowe tytuły. Pojawią się pierwsze gry na XSX i PS5, to i wymagania pójdą w górę i będzie tylko gorzej.
Karta jest szybka, ale daleko jej do obiecanych 2x2080. No i kwestia ramu, jest go stanowczo zbyt mało.
Nadchodzące WD Legion ma w zalecanych do 4k z RT 11 GB VRamu. Jedenaście!
Jak tak dalej pójdzie, to za chwilę wszystkim kartom z 8GB pamięci, zacznie tejże brakować i to do 1080p.
Mamy więc niby przełomowy układ, zapowiadany jako swego rodzaju next-gen, a tu trzeba iść na kompromisy zanim pojawiła się nawet jedna next-genowa produkcja.
Do tego dodajmy wysoki pobór energii i równie wysoką cenę, a ciężko być pod wrażeniem.
W każdym razie ja nie jestem.
Tym co z kolei zrobiło na mnie wrażenie jest fakt, że XSS, z układem o mocy 4 TFLOPS jest w stanie wygenerować w piątych Gearsach 120 klatek. Kompletny sprzęt do gier za 299$. To robi wrażenie, a nie sama karta, podobno o mocy 30 TFLOPS za 699$, co to ma problemy z uzyskaniem stałych 60 klatek w 4K w grach z aktualnej generacji.
 
Przecież 3080 wyciąga średnio 85 klatek w RDR2 w 4K.
Nie do końca, wszystko zależy od miejsca testowego, oczywiście przez 99% będziemy mieć ponad 60 w 4K, ale potrafi w RDR2 spaść poniżej 60fps. Inna sprawa że Ampere może na wydajności już tylko zyskiwać, sterowniki dojrzeją, pojawią się gry co pokażą potencjał nowej architektury
 
Przecież 3080 wyciąga średnio 85 klatek w RDR2 w 4K.

Jak zjedziesz z jakością grafiki, to tak, jak najbardziej, ale chyba nie o to chodzi, by przy takim rzekomo next genowym gpu za 699$ ciąć detale na dzień dobry i to w dwuletniej grze, a zgodnie z testami PurePC w RDR2, w 4k stałych 60 klatek RTX 3080 niestety nie zapewnia.
Jak to Nvidia szumnie głosi?
"8K HDR Gaming Is Here With The GeForce RTX 3090"
Cóż, śmiem wątpić, no chyba że karta ma wydajność na poziomie 2x3080.
 
No właśnie z marketingiem Nvidia trochę popłynęła bo kilka recenzji ją na tym złapało, chociażby Steve z GamersNexus i gdzie jest te 1.7 Perf/W w stosunku do Turinga, no wyszło coś takiego ale po UV karty do 240W

A taki Linus, chociaż to nie jest fachowiec bardziej na show nastawiony no to wylewa żale wprost że czuje się oszukany, chociaż dla mnie to słabe i zalatuje clickbaitem jakby nie wiedział że marketing taki jest i później ciężko zweryfikować jak to im wyszło.

Karta nie jest zła, ba! jest bardzo dobra! jednak Nvidia za daleko popłyneła w zapewnieniach.
U nas Lipton też nie do końca jest kontent bo wzrost wydajności został okupiony wzrostem poboru o 40%.

 
rzeczone gpu nie jest w stanie zapewnić stałych 60 klatek w 4k w niektórych grach np. RDR2 czy Control, a to przecież nie są żadne nowe, nextgenowe tytuły
10 GB VRAMu się kłania. Wersja Ti ma mieć ponoć 20 (dość logiczne, biorąc pod uwagę, że 3070 Ti będzie miał 16GB). Pytanie, ile będzie kosztować (obstawiam okolice 5k zł).
Swoją drogą, ciekawe jak będzie się sprawował taki 3070 Ti? Będzie musiał być wyceniony poniżej 3080tki, a jakby nie patrzeć, 6GB pamięci więcej.
 
Top Bottom