Jednak ja uważam że będą znacznie wyższe a przynajmniej minimalne.
Sugerujesz zatem, że dostaniemy nawet nie powtórkę z Watch Dogs tylko z Unity?
No cóż, nie jest wykluczone, że faktycznie będzie to drugie Unity.
Jeśli jak głoszą plotki gra jest fatalnym stanie wtedy rzeczywiście, ale jeśli jest jak zapewnia deweloper wówczas wróżba Wroobelka jest jak najbardziej na miejscu. Wymagania mogą się naturalnie nieco różnić, ale dużo wyższe?
Znaczy jakie?
i5-2500K/FX-8350 i GTX680/HD7970 plus 6GB Ram jako minimalne?
Bez przesady.
To niby jak te biedne konsole miałyby W3 uciągnąć, nawet przy odpowiedniku miksu ustawień medium/low w więcej niż 20 klatkach?
Redzi zapowiadali że gra będzie wyciskała jak najwięcej z konsol, że ma to być prawdziwy nextgenowy produkt.
Każdy tak gada. Tylko czym w ogóle jest ten cały next-gen, jak nie określeniem najnowszej generacji konsol zanim te jeszcze zadebiutują, ewentualnie marketingowym żargonem, który po prawdzie nie znaczy nic? To tylko chwytliwe hasełko mające napędzać sprzedaż.
Prawda jest taka, że od początku z PS4/XOne (szczególnie tego drugiego) wyciska się, co tylko można. Wydajnościowo sprzęty te ustępują wyraźnie piecom ze średniej półki i nie chodzi tu o jakieś oszczerstwa czy teorię, a praktykę. Czyli liczbę klatek, rozdzielczość i poziom detali w samych grach.
Z naszych testów wynika, że procesor Core i3 4130 CPU z kartą Nvidia GTX 750 Ti dorównuje lub przekracza moc PlayStation 4 przy podobnych ustawieniach rozdzielczości i jakości. Było tak w przypadku Call of Duty: Advanced Warfare, Assassin's Creed Unity i Far Cry 4 (z poprawką eliminującą stutter). To komponenty dla początkującego entuzjasty grania na PC, zapewniające wrażenia „nowej generacji”- DigitalFoundry
Przesadnie wysokie wymagania sprawią, że gra będzie działać bardzo słabo na wszystkim poza high-endem i zarazem źle na konsolach, co powinno być oczywiste dla każdego, kto ma jako takie pojęcie o sprzęcie. CDP RED strzeli sobie w oba kolana z granatnika, nikt nie będzie zadowolony, w rezultacie średnia ocen od graczy oscylować będzie w okolicach tego, co zgarnia Unity. I to nawet jeśli sam w sobie Wiedźmak będzie bardzo dobry.
Zdaniem Adama Kicińskiego gra ma być wolna od błędów mogących popsuć rozgrywkę (co nie znaczy wolna od bugów), a mało co zabija grywalność równie efektywnie, co fatalna strona techniczna.
Oczywiście wymagania minimalne na przekór rozsądkowi mogą okazać być bardzo wysokie. Jeśli ekipie nie staje umiejętności i i faktycznie są z grą olbrzymie problemy, wówczas tak, ale nie jeśli zapewnienia CDP RED są szczere, w co wielu tu obecnych wierzy przecież bez zastrzeżeń (mniejsza z tym czy to rozsądne).
Przestańcie zatem straszyć, bo nie ma ku temu żadnych podstaw, poczekajmy spokojnie.
Póki co można być raczej dobrej myśli, jeśli okaże się inaczej wówczas będzie można straszyć do woli.
Obecnie posiadam i5-4570 @3.2GHz, 8GB RAM i HD7850 1GB. Jest sens podchodzić z czymś takim do trzeciego Wiesława (powiedzmy, że 30fps@720p jest do przyjęcia), czy raczej nastawić się na wymianę GPU?
Praktyka pokazuje, że sens i owszem jest, bo karta nie ma problemu z uzyskaniem względnie wysokich detali w grach przy stałych 30 klatkach. O ile naturalnie nie liczysz na wysokie detale fajerwerki, w FullHD i stałych 60 klatkach to sens jest.
Na co dokładnie możesz liczyć z tym gpu okaże się niebawem, ale 30 klatek w 720p powinno i to z palcem w nosie (oczywiście istotny jest też poziom detali w jaki celujesz).
Jest tylko jeden problem. Jeśli to faktycznie wersja z 1GB Ramu to... Cóż, niestety ale to może cię ograniczać.
Obecnie rozsądne minimum to 2GB pamięci na karcie.