Wiedźmin 3 - grafika

+
Skoro na rok przed premierą były komputery (i to przecież z tego co pamiętam nie jakoś strasznie rozbudowane), które dawały radę obsłużyć alfę, to w jakim celu cokolwiek obcinać, pogarszać i wyrzucać, tzn. optymalizować? Zakładam, że obecnie już wielu graczy ma podobny sprzęt, a przez kolejne miesiące dojdą kolejni. Wyjdą nowe karty, nowe procesory, nowe dyski. I przecież są jeszcze opcje do ustawiania.

Dokładnie tak, szczególnie że często to czego twórcy nie dadzą rady zrobić, robią moderzy (przykładem WD)
 
Konsole :) to chyba wyraża więcej niż MERCI :p Już o tym mówiłem i nie tylko ja. Była by za duża różnica pomiędzy konsolami a PC, nie ma co już płakać na mlekiem rozlało się i koniec.

Edit: @SoltysGamingPL gra się musi zwrócić , robić coraz lepszą renome na nowe gry to nie takie proste wszystko musi to jakoś być na tych konsolach nie może to wyglądać jak dwie inne gry pc vs konsole.
 
Last edited:
Wiem, że to przez konsole. Ale uważam, że taki producent jak Redzi, którzy sami reklamują się jako "wyznaczających nowe standardy" (mniej więcej :p) mógłby się od tej głupiej mody na zmniejszaniu różnic wycofać. Kto wie, może wtedy poszliby za nimi inni producenci?
 
Trochę mnie podłamały te porównania gifów... Za długo wmawiałem sobie, że w kwestiach graficznych nic się nie zmienia, ale jednak wersja z trailera E3 2013 robiła prawdziwe, ogromne wrażenie i była najlepsza
Względem najnowszych materiałów jest najgorsza. Płaskie oświetlenie, zielono-niebieski tint oraz mocne wyostrzenie, dające wrażenie komiksowości.
 
Obcinanie, optymalizacja jest zawsze. Na zdrowy rozum lepiej zrobić coś wymaksowanego i od tego odcinać, niż w odwrotnej sytuacji, nie mieć pojęcia ile trzeba dokładać i co warto dokładać, a co nie. Jeśli wszystko masz gotowe, to możesz sobie później miksować bardziej swobodnie.

Nie ma takiej opcji by normalne kompy odpaliły taką grę. Sądzę, że na kompach w studiu, podczas produkcji, to taka gra może sobie chodzić różnie; od 1,2...5 klatek do iluś tam. Gotowy produkt, i to przeznaczony na przeróżne konfiguracje PCtów nie może tak działać.
 
Obcinanie, optymalizacja jest zawsze. Na zdrowy rozum lepiej zrobić coś wymaksowanego i od tego odcinać, niż w odwrotnej sytuacji, nie mieć pojęcia ile trzeba dokładać i co warto dokładać, a co nie. Jeśli wszystko masz gotowe, to możesz sobie później miksować bardziej swobodnie.

Nie ma takiej opcji by normalne kompy odpaliły taką grę. Sądzę, że na kompach w studiu, podczas produkcji, to taka gra może sobie chodzić różnie; od 5 klatek to iluś tam. Gotowy produkt i to przeznaczony na przeróżne konfiguracje PCtów nie może tak działać.
Mówisz że, to jest tak jakby pre-renderowane? przyśpieszone, o tym nie pomyślałem. W takim razie mam inny argument skoro mówisz że taka gra sie tnie. To po kija robić pre renderowany trailer i zarzekać sie na super grafike?:p
@nocny Tak czy siak przyśpieszony filmik udający że gra będzie tak wyglądać to czysty wałek;]
 
Last edited:
Nie odkryje Hameryki stwierdzeniem, ze rynek "gamingowy" zdominowany zosta łprzez "pudła" w wiekszosci zacofane technologicznie. To co martwi to "obcinanie" innowacyjności programistów ograniczoną wydajnością "konsol".
 
@SoltysGamingPL
Downgrade to część OPTYMALIZACJI, czyli normalny etap tworzenia gry, a nie żadne oszustwo. Wątpię żeby jakiekolwiek studio potrafiło się w celować z grafiką tak, by osiągnąć od razu poziom optymalny. Może jeśli tworzy się grę wyłącznie na konsole, to te rozbieżności są mniejsze...
 
@crass2012
Nie jest to spowodowane wyłącznie konsolami. Spora część graczy pecetowych nie dysponuje mocarnym sprzętem, więc nie można zrobić gry, w którą zagra garstka.
 
No zobaczymy co z tego wyniknie, ale jeśli taki hejt wywołuje głupia talia kart, to co dopiero będzie gdy okaże się że grafika została obcięta...

Zoptymalizowana, zoptymalizowana. Downgrade jest istotnym czynnikiem procesu optymalizacji. Ja wiem jaką sam rozpętam kupoburzę jeśli gra będzie działać jak WD, czy inne GTA IV. Grafika to zawsze wypadkowa, kompromis między zaawansowaniem technicznym, możliwościami sprzętu i warstwą artystyczną (i ta ostatnia pozycja jest najważniejsza). Zawsze.
A ja w dniu premiery chcę grać, a nie oglądać pokaz slajdów. Co mi z tego, że dostanę grafę, że o ja cię kręcę, skoro cieszyć się nią będę mógł jedynie oglądając gameplaye? To jak lizanie cukierka przez folię. Bez sensu.

Skoro na rok przed premierą były komputery (i to przecież z tego co pamiętam nie jakoś strasznie rozbudowane), które dawały radę obsłużyć alfę, to w jakim celu cokolwiek obcinać, pogarszać i wyrzucać, tzn. optymalizować?

Ta, były. najpewniej 3x GTX780. I co z tego?
Polecam przejrzeć ankiety sprzętowe na Steamie. Blisko połowa graczy (najliczniejsza grupa) nadal siedzi na procach dwurdzeniowych (!), a najpopularniejsze są karty z 1GB VRamu. I te osoby sobie w W3 raczej na pewno nie zagrają.
Spora część pozostałych pogra, ale co najwyżej w niskich i najniższych ustawieniach, czyli jakości dużo gorszej niż po ostatecznej optymalizacji (downgradzie).
To nie ma być produkcja dla marnych 3-5%, co to zdołają odpalić grę na średnich lub wyższych. W3 ma się sprzedać i bawić, a nie tylko wyglądać.

W takim razie mam inny argument skoro mówisz że taka gra sie tnie. To po kija robić pre renderowany trailer i zarzekać sie na super grafike?

Każdy w tej branży robi tak, coby screeny i zwiastuny wyglądały możliwie najlepiej. To się nazywa reklama, czy jak kto woli pranie mózgu.
Zwiastuny i urywki takiego Bloodborne wyglądają świetnie. Dziennikarze oglądający pokaz podkreślali, że gra faktycznie prezentuje się cudownie, ale też wielu z nich zauważyło, że rozgrywka to istny pokaz slajdów (średnio kilkanaście klatek). Znaczy ładnie, ale co z tego skoro niegrywalnie?
 
Witam, jak sądzicie: czy na karcie GTX 650, 8 GB Ram, procku I5 3570k pójdzie mi wiedźmin 3 na chociażby średnich? Planuje dokupić nowy zasilacz i radeona r9 290.
 
Ale chyba o to chodzi w tym całym interesie, by gry wyznaczały horyzont, a sprzęt graczy się do niego zbliżał. Jeśli będziemy się posuwać do przodu jedynie w tempie naturalnego starzenia podzespołów, to zmian na lepsze doświadczymy co kilka lat, a i tak będą to dość drobne zmiany. Oczekuję, że owszem, przeciętny poziom grafiki na większości komputerów będzie średni, z czasem średniowysoki, ale też należy zrobić taki, by było co pokazywać na zwiastunach i zazdrosnym znajomym, którzy przyszli chwalić się ekskluzywną wersją kolekcjonerki.
To, co widać przykładowo na ostatnim teaserze, jest ładne, widać znaczną poprawę w stosunku do dwójki, szczególnie w jakości modeli, mimice i zasięgu renderowania (już nic się nie pojawia kilka metrów od Geralta), ale nie robi oczekiwanego efektu rozdziawionej paszczy. Taki skok o pół generacji, jakby się redzi trochę przestraszyli swoich ambitnych planów.
 
Ja tylko powiem że część ficzerów które mogłyby być downgrade'owane można dać na wyższy poziom detali w przypadku PC dopóki nie są to killer ficzery które zarżną każdą maszynę.
 
Boże, no sam teraz widzę różnice względem poprzednich trailerów... i co z tego? Wiedźmin 2 był bądź co bądź piękny i w zupełności mi wystarczy fakt, że Wiedźmin 3 będzie ładniejszy i posiadać będzie otwarty świat. Mogliby pewnie dać możliwość zaawansowanego zmieniania opcji graficznych (a kto wie czy nie dadzą) w menu gry i każdy wtedy mógłby dostosować sobie grę do tego stopnia, by śmigała mu płynnie. Tylko, że to wymaga czasu i zapewne kupy roboty, a REDzi czasu do premiery mają coraz mniej. Gra nieważne czy był downgrade czy go nie było i tak wygląda zajebiście i basta, po co drążyć temat. No i być może twórcy pozostawią w finalnej wersji ukryte, deaktywowane ficzery graficzne jakie mieliśmy okazję zaobserwować w 2013 roku, a jeżeli takie coś będzie mieć miejsce to modderzy już się postarają, by te dawne efekty uaktywnić na nowo i powiedzmy, że nazwać "Super-Ultra" dla posiadaczy najwyższej półki sprzętów.
 
Top Bottom