Wiedźmin 3: Dyskusja na temat wymagań sprzętowych

+
Wiedźmina zapewne mało kto odpali na Ultra, pamiętam że tak było z Wiedźminem 2 który miał tyle ficzerów że trzeba było czekać na kolejne karty graficzne żeby grać na totalnym maksie i założe się o wszystko a nawet więcej, że z 3 będzie to samo. Właśnie mam problem bo chciałem sprzedać 780 i kupić 980, prawdopodobnie wymienić wysłużonego już i5 2500k tylko że nie znam tych wymagań a w wiedźmina chce grać w najwyższych możliwych ustawieniach. Ewentualnie poczekam do marca na nowe Geforce w 20nm technologii i wtedy dopiero zagram:).

A co do Unity to nie takie straszne są wymagania.. to jest zabugowane i totalnie źle zoptymalizowane. Spełniam wymagania zalecane i czasem gra nagle skacze do 12fpsów by po 30 sekundach znowu skoczyć na 60, totalna porażka. Ubisoft szykuje łaty ale co z tego skoro ja chce grać już teraz? Robią te tasiemce niczym Call of Duty i wciąż porządnego kawałka kodu nie potrafią napisać ani zoptymalizować.
 
Również przymierzam się go zakupu nowego sprzętu(i5-4690k, asus 970 strix, 8gb ramu), więc podanie minimalnych wymagań byłoby miłą rzeczą ze strony REDsów. Z drugiej strony patrząc na AC:U i to jak za przeproszeniem zje**li sprawę i olali docelowego odbiorcę swojego produktu, czyli Nas, sprawia, że wspomniane wyżej informację (czyt. wymagania) zbaczają dla mnie osobiście na drugorzędny tor. Niech nasi przyłożą się dobrze do procesu optymalizacji i będzie si :)

A tak z innej beczki:
Moja dziewczyna była zachwycona nie tylko samą prezentacją Wieśka po tegorocznym PGA i jak to stwiedziła - "sama pograłaby w to coś" - jak na kompletnego laika, jeśli chodzi o gry komputerowe, to nieźle (z gier to hoduje jakiegoś ziemniaka na komórce), ale także koncertem Percival-a. I tutaj moja prośba: "mógłby ktoś bardziej zorientowany i obecny na tym evencie napisać mi PM, jakie utwory wtedy zagrali?". Z góry dzięki. Pozdr
 
Nie rozumiem tych strachów. Skoro wiele miesięcy temu były komputery zdolne stworzyć scenkę z młynem (chyba wszyscy znają gifa) i to na wczesnej becie czy tam nawet alfie, to po usprawnieniu kodu i wszelkich sztuczkach optymalizacyjnych wymagania mają w cudowny sposób wzrosnąć? Znaczy się jestem w stanie pojąć, że każdy tu się zagrzewa do boju, pragnie wystawić największe działa i zrobić sobie przy tym selfie, ale serio, bez przesady. Widzieliśmy już dawno temu, jak gra może wyglądać. Z czasem może być tylko lepiej. Przynajmniej na pc.
 
Pamiętajmy również o tym, że silnik napędzający Wieśka jest udoskonaloną wersją już istniejącego, a nie całkowicie nowym tworem. Sądzę, że Redzi znają go już na wylot, co może tylko procentować w optymalizacji gry.W AC:U tworzyli silnik chyba od nowa i jak widać odbija im się to czkawką.
 
Ludzie się boją, bo zarówno Assassin's Creed Unity jak i Watch Dogs robiły genialne wrażenie na pierwszych materiałach i chyba nikt się nie spodziewał, że będzie aż tak źle. Skoro ludzie potrafią tutaj debatować na temat downgrade'u na podstawie pojedynczych fotek nie ma się co dziwić, że nastroje panują takie a nie inne ;)
 
.... Ewentualnie poczekam do marca na nowe Geforce w 20nm technologii i wtedy dopiero zagram:)..
Chyba przeoczyłeś wiadomość że nVidia przesunęła premierę następnej generacji z powodu problemów z produkcją nowych chipów, samo 980TI przesunięte na koniec 2015 roku a co dopiero nowa seria z niższym procesem...
 
Last edited:
Hmm najwyraźniej przeoczyłem, przynajmniej rozwiązuje to mój problem co do kupna karty:). Ale głowę utne, że coś w 2015 wcisną bo przecież nie będą zbijać bąków w końcu mają AMD na karku. Optymalizacją wiedźmina się nie martwię bo Ubisoft a Redzi to dwie różne sprawy, chociaż nadal będe obstawał, że wszystkie ficzery jakie tam władują razem z Nvidią dźwigniemy dopiero na kolejnych kartach choćby nawet te animacje futra, tutaj SLI może prawdopodobnie pomóc
 

Guest 2686910

Guest
Jak to właściwie jest z tym futrem będzie się można przekonać już niedługo, Far Cry 4 będzie tego używał. Oczywiście poprawka na "optymalizację" w stylu Ubi, ale przynajmniej zobaczy się o ile toto ścina klatki i jak sobie z tym radzą różne karty.
 

Guest 2686910

Guest
A w CoDzie to nie było jakieś uproszczone? Tak mi się wydawało, że tylko żołnierzo-pies miał pełne, a jakieś randomowe wilki czy inne miały jakoś pół na pół.
 
W grę nie grałem, ale tutaj widać, że zarówno nasz pies jak i wilki mają aminowane futerko od nVidii, więc raczej miał to każdy futrzak.
Problem w tym, że Wiesiek 3 będzie miał o wiele więcej włosów i futra niż CoD:G. Tutaj już nie tylko zwierzęta oraz potwory, ale również sporo ludzi (odzienia) będą miały futro. Dolicz do tego włosy Gerlata i niektórych NPC'ów.

Przy tym COD:G czy nawet FC4 się nie umywają, więc...
 
Co do futer to proszę cytat: "Warto wspomnieć, że tym razem najmocniejsza karta od Nvidii, Geforce GTX Titan, z dwoma wilkami na scenie wygenerowała zaledwie 65 klatek na sekundę w rozdzielczości 1024x768 ! Z jednym wilkiem na ekranie liczba fps wynosiła 140 klatek na sekundę, a gdy wyłączono ów efekt, testerzy otrzymali aż 410 fps."

Oczywiście na pewno będzie to zoptymalizowane jednak już teraz widać, że sprzęt z najwyższej półki będzie musem żeby oglądać takie ficzery. Ewentualnie mocna karta + coś z niższej półki jedynie dla obsługi PhysX
 
Last edited:
Hmmm, tak sie zastanawiam, mamy polowe listopada, gra ukazuje sie w lutym.. czy nie CZAS bylby juz wreszcie, zeby podac te, jakze wyczekiwane, wymagania sprzetowe??
 
Hmmm, tak sie zastanawiam, mamy polowe listopada, gra ukazuje sie w lutym.. czy nie CZAS bylby juz wreszcie, zeby podac te, jakze wyczekiwane, wymagania sprzetowe??
Jakbyś nie wiedział to już wiadomo kiedy zostaną podane wymagania gry, od jakiś chyba 2 tygodni.. wymagania znane będą w styczniu
 
Jakos to do mnie nie dotarlo, zastanawiam sie, gdzie to bylo publikowane, no ale nevermind...po prostu wydaje mi sie, ze przy poprzednich grach bylo to znacznie wczesniej...mam nadzieje, ze i7 + nVidia 970GTX M wystarcza. I kurna, czemu mi "odp z cytatem" nie dziala?
 
Ekipa wciąż pracuje nad dopieszczaniem gry i optymalizacją. Gdyby podali wymagania już teraz to do premiery wszystko mogłoby się jeszcze zmienić trzy razy na lepsze bądź gorsze. Dlatego tego nie robią.
 
View attachment 7507
Mam nadzieję, że dzięki "optymalizacji" nvidii i ich całego gameworks wyniki testów kart graficznych od amd nie będą wyglądać tak jak w tej grze.
 

Attachments

  • AC.png
    AC.png
    28.4 KB · Views: 30
Top Bottom