Ultra to poziom efektów i tekstur a nie poziom odbieranego doświadczenia. Ultra w 640p to Ultra. Ultra w 4k to Ultra w 4k.
Rozdzielczość przekłada się bezpośrednio na jakość oprawy, to jedno z ustawień zmieniających grafikę w największym stopniu, więc jak najbardziej do ultra się zalicza.
W 1999 ultra stanowiła wprawdzie rozdziałka 640p, ale od tego czasu wiele się pozmieniało.
Skoro masz zamiar posługiwać się równie pokrętną argumentacją, to ja pasuję.
Każdy z elementów ustawień odpowiada za poziom doświadczenia, jaki czerpiemy z gry.
AA, tekstury, SSAO, absolutnie wszystko.
Toteż o każdej z opcji można powiedzieć, że nie zalicza się do mitycznego ultra.
Zależnie od tego, jak będzie nam akurat wygodnie.
Zresztą po co ja się produkuję, skoro najwyraźniej nie na prowadzeniu dyskusji ci zależy?
Nie zależy, gdyż wpis twój stanowi jawny przejaw arogancji, braku szacunku dla rozmówcy.
Ewidentnie prowokujesz. Wybacz, nie skorzystam.
Jeśli dobrze pamiętam Redzi mówili, że wycisną z każdej platformy ile można.
No tak, jeśli jednak najwyższe ustawienia nie są dostępne dla nikogo, to czy nie oznacza to wyciskania z danej platformy więcej niż można?
Jeśli nawet na high-endowych PC, o ogromnych względem konsoli pokładach mocy, W3 nie będzie grywalny w maksymalnych ustawieniach nie spotka się to ze zrozumieniem i ciepłym przyjęciem. No i faktem jest, że na uber (który, jak dla mnie nie daje w zasadzie nic) w W2 nie narzekali ci z normalnymi piecami, tylko właśnie posiadacze high-endowych maszyn, co przyznał w jednym z wywiadów Balazs Torok.
Cóż, jeśli nagle odkrywasz, że twój wypasiony , pachnący nowością PC w momencie zakupu jest przestarzały, może to budzić wyłącznie frustrację.
Dobry przykład stanowi Watch Dogs. Wiem, że jest niezoptymalizowany, ale co z tego?
Według Ubi zawsze można kupić lepszy sprzęt, np. drugiego GTX'a 780 do ultra. Wszystko zawsze można usprawiedliwić mówiąc; "produkowaliśmy naszą grę z myślą o przyszłych pecetach". To niebezpieczny kierunek.
Czyli rozumiem, że dla Ciebie "ultra" oznacza jednak jakąś stałą, a nie ustawienia subiektywnie zdefiniowane dla każdej oddzielnej gry?
Ależ nie, w końcu ultra w W1 to nie to samo, co ultra w W2. Właściwie w każdej grze oznacza to, co innego. Chodzi jedynie o to by zachować umiar i nie przegiąć. Aktualnie każdy nowy efekt kosztuje tak wiele, że jego implementacja często mija się z celem. Zysk dla jakości taki, że trzeba z lupą szukać, a wydajność leci na pysk. Uważam, że implementowanie do gier czegoś takiego niczemu nie służy.
Nie jest sztuką stworzyć tytuł, który zarżnie każdego, tylko po, co skoro wymierny efekt w postaci oprawy jest żaden?
Idealny przykład przejawu zdrowego rozsądku, umiaru, stanowi Crysis 3.
W dniu premiery grywalny na full był jedynie na najmocniejszych piecach. Za wyjątkiem bodaj AA.
Jednak różnice między low, a ultra są relatywnie niewielkie, ba!
Na high płynną rozgrywkę (w1080p) zapewniał już GTX 560Ti.
I jeśli o podobnych rozwiązaniach z myślą o przyszłych piecach tu mowa, wtedy zgoda, ale odnoszę wrażenie, że chodzi o coś więcej niż tylko 2K zaaw. AA czy fur. A to byłaby gruba przesada. Jeśli wrażenie to jest mylne to przepraszam.
W każdym razie nie widzę żadnych wymiernych korzyści przemawiających za windowaniem grafiki dalece poza możliwości dostępnego na rynku sprzętu.
Jestem przekonany, że nikomu to nie służy i stanowi jedynie sztukę dla sztuki. Więcej, wieczna pogoń branży za grafiką jedynie szkodzi gamingowi, gdyż cierpią na tym pozostałe aspekty. Często sam art design, bo i po co się starać, skoro mamy super zaawansowaną grafikę?
Stąd też, jak pisałem jakiś czas temu w innym temacie, dużo bardziej podoba mi się oprawa w takim Bioshocku Infinite aniżeli właśnie w Crysisie trzecim. Podobnie jest z Wiedźminem pierwszym, który pod względem estetyki bije na głowę dwójkę. I co z tego, że W2 jest bardziej zaawansowany, skoro, przynajmniej dla mnie, w ogólnym rozrachunku wcale nie prezentuje się lepiej?
Rozdzielczość to opcja oddzielna od poziomu detali i jedno na drugie nie ma żadnego wpływu. Nie rozumiem, jak można grać w gry i tego nie wiedzieć.
Ma za to gigantyczny wpływ na odbiór odbiór i jakość wyświetlanego obrazu jako taką i nie da się tego rozgraniczyć. Gdyby było inaczej nadal obowiązującą rozdzielczość stanowiłoby 320x200. Dlatego też nikt nie uznaje dziś gry odpalonej na 800x600 za ustawienia maksymalne, 720p jest również poniżej standardu, który obecnie stanowi 1080p. Tyle że to właśnie standard, a skoro tak, nie jest to raczej rozdzielczość odpowiadająca poziomowi ultra. Coraz powszechniejsza jest np. 1440p, w momencie gdy się upowszechni 1080, podobnie jak 720p zostanie uznane za przeżytek.
A tu pełna zgoda, tylko że, tak jak napisał Fartuess, jest to zupełnie oddzielna kwestia.
Przeciwnie, jako że gry zawsze są reklamowane z użyciem najwyższych możliwych ustawień.
Z materiałów promocyjnych wyłania się zatem jasny przekaz, zobacz jak wspaniale wygląda nasza gra, kupuj, nie zwlekaj, musisz to mieć.
I tak samo jest z wiedźminem, zawsze prezentuje się max. A jeśli finalnie okazuje się, że dana gra tak wcale nie wygląda, bo na high-endowym sprzęcie tnie się niczym rasowy emo, to mamy lincz na producencie.