Tak była to najlepsza jednordzeniowa karta ale przynajmniej było na niej z niemalże maksymalnymi ustawieniami (uber off) 40-50 klatek czyli full komfortowa rozgrywka.
To że z W3 jest obecnie pod względem optymalizacji przefatalnie nie znaczy jeszcze, że skoro z W2 było nieco lepiej, to można mówić, iż było dobrze.
Powodowany ciekawością postanowiłem sprawdzić jak to z tym skalowaniem w dwójce właściwie jest. Spodziewałem się, że w ciągu tych czterech lat, jakie minęły (prawie) od dnia premiery sporo pod względem wydajności się zmieniło, ale jeśli były wtedy tak znaczące problemy to jakieś pozostałości musiały się ostać. Przeprowadziłem więc testy i wyniki mnie zaskoczyły.
Pomiary przeprowadzane w 1080p, w leżu Kejrana, podczas konfrontacji z tymże. To chyba najbardziej wymagający moment w całej grze, stąd wybór. Od lewej, minimalna ilość klatek, maks, średnia.
minimalne 59/122/85
medium 50/88/69
wysokie 47/85/61
ultra 44/83/60 (bez ubera i filmowej głębi ostrości, bo paskudna)
Okazuje się, że te cztery lata, szereg łatek plus EE nie zmieniły nic. Gra skalowała się bardzo źle i tak jej zostało. Między minimalnymi ustawieniami, a w zasadzie maksem jest 25 klatek różnicy! W dobrze zoptymalizowanej, skalującej się produkcji już zmiana jednej z opcji potrafi dać podobny lub większy przyrost, tutaj nie. W przypadku minimalnej liczby fps'ów różnica jest jeszcze mniejsza i wynosi zaledwie 15. Między medium, a ultra mamy raptem marnych 9 klatek różnicy. Nic dziwnego, że w marcu 2011 zejście z ustawieniami z high do medium nic nie dawało, skoro nawet teraz prawie nic nie daje.
Żeby mieć skalę porównawczą podobne testy przeprowadziłem w Tomb Raiderze wykorzystując wbudowany benchmark. Również w 1080p. Poziomy low i v. high zdefiniowałem ręcznie, jako że w opcjach takie nie występują.
lowest 192/290/237
low 167/267/216
medium 127/184/158
high 93/140/116
v. high 78/109/93
ultra 66/97/81
Widać wyraźnie, że każdy level detali to znacząco inny framerate. Średnia klatek miedzy najniższym a najwyższym różni się aż o 156. W2 ze swoimi 25 pięcioma ma powody do wstydu. Przy czym już przy zdefiniowanym przeze mnie low zdołałem w TR uzyskać niezłą jakość grafiki. Wniosek jest następujący, W2 skaluje się bardzo, bardzo źle, jest produkcją kiepsko zoptymalizowaną. Między Wiedźminem i młodszym blisko dwa lata, a przy tym naprawdę ładnym TR istnieje wydajnościowa przepaść. Jedynym co świadczy na korzyść Wieśka jest to, że zmiana rozdzielczości, jako jedyna zapewnia duży boost wydajności.
720p - 84/142/105 - ultra / 1080p - 59/122/85 - minimalne
Jak widać zejście z rozdziałką sprawia, że w 720p wydajność na ultra jest zdecydowanie wyższa niż w 1080p przy absolutnym minimum (!). Tylko to ratuje sytuację, ale rzecz jasna nie kwalifikuje wiedźmina do miana produkcji dobrze zoptymalizowanej. W innych grach jest wszak podobnie. W TR wygląda to następująco.
1080p - 93/140/116/ 900p - 114/176/144/ 720p - 142/226/185 - ustawienia wysokie.
Bardzo zatem możliwe, że przyczyną wydajnościowych bolączek trzeciego Wiedźmina jest nomen omen Red Engine. Owszem, silnik został gruntownie przebudowany, studio dysponuje nowoczesnymi narzędziami mającymi wspomóc proces optymalizacji, obniżono też jakość grafiki, ale i tak GTX 980 krztusi się przy ustawieniach wysokich. Z czegoś to przecież musi wynikać. Na przykładzie W2 widać też wyraźnie, że nawet tona patchy nie poprawi w znaczący sposób wydajności jeśli zawiedzie engine. O ile do maja Redzi z optymalizacją nie dokonają cudów, to ciężko oczekiwać, że później coś znacząco się w tej kwestii zmieni. I tym smutnym akcentem kończę ten wywód.
Tak, ten sprzęt nie dawał możliwości gry z Uber, ale na wysokich, blisko ultra w HD (1280x720) przy płynności bliskiej 60 FPS (45-60) już TAK (jeśli wierzyć autorowi filmiku - ja osobiście tego sprzętu nie miałem, więc nie wiem).
Nie dawał, na bardzo zbliżonym pod względem wydajności HD 4870 i dużo mocniejszym cpu w 720p przy miksie high/ultra rzadko zdarzało mi się widzieć 60 klatek. Zazwyczaj ich liczba oscylowała między 35-50 (o ile mnie pamięć nie myli). Najniższą odnotowaną wartością było 32. W zasadzie zawsze gram z włączonym MSI Afterburnerem, który pozwala na stały wgląd we framerate i tak dalej, więc wiem jak rzecz wyglądała.
http://www.purepc.pl/karty_graficzn...d_radeon_i_nvidia_geforce_do_500_zl?page=0,11
Jak widać bardzo zbliżony doń HD 7750 nie jest w stanie utrzymać w 1680x1050 nawet 30 klatek przy ustawieniach wysokich. Zmiana rozdziałki na 720p zapewne dałaby sporego kopa, ale o 60 klatkach mowy nie ma.