Wiedźmin 3: Dyskusja na temat wymagań sprzętowych

+
NVIDIA zakończyła produkcję kart z serii GTX 700. Ceny układów spadają.
http://pclab.pl/news59743.html

Czytaliście (zapewne wspominano o tym na innych portalach)? Co o tym sądzicie?
Wyjdzie jeszcze seria 960 w tym roku więc ceny 700 będą spadać.

Nie mam ze starej serii byłem w sklepie i mówili mi że 970 będzie ok do gier ,że nie ma takich która by zajechała szkoda brać 980 jak można za rok wymienic.
Jak nie potrzebujesz to kup na początku przyszłego roku.

Jak obstawiacie gtx 770? Da radę nacieszyć oczy?
Jakbym miał stawiać to mieszanka high i ultra w 1080p. Ale podobno jestem optymistą :p
Myślę, że jednak średnio-wysokie.
 
Ja ostatnio trochę odświeżyłem komputer.

Grafika gtx 770
procek AMD fx-8320, 8 rdzeniowy
ram 8 gb ddr3

Mam nadzieję, że pogram na detalach bliskich wysokim, ale to się okaże
 
Jasne. Wybór kart pokroju GTX 770/Radeon 290, a już na pewno GTX 970 z procesorem i5 na pewno będzie strzałem w 10. To czy będzie to seria 3 czy 4 (Ivy vs. Haswell) nie ma już tak dużego znaczenia. i5 3570K lub i5 4670/90K jest najlepszym wyborem do grania. Takie połączenie spisze się znacznie lepiej niż połączenie tych samych kart z jakimkolwiek procesorem AMD, a pakowanie się w i7 do gier nie ma najmniejszego sensu.
 
Dwa linki na początek poczytajcie :p http://gamezilla.komputerswiat.pl/n...doru-tylko-dla-posiadaczy-komputerow-potworow
http://gamezilla.komputerswiat.pl/n...-within-wymaga-karty-graficznej-z-4gb-pamieci

I teraz powiedźcie mi panowie i panie jak to sie będzie miało do wymagań w Wieśku 3?? Chodzi mi o ilość ramu na graficznej. Bo przymierzałem się do zakupu 970 z 4 GB i po tych newsach mam wątpliwości czy ta karata pociągnie na full detalach zarówno Wiesława jak i inne nadchodzące gry.

Myślałem że kupując tą kartę mam spokój na jakieś 2 lata i wszystko powinno lecieć na ultra ale widać że się myliłem i producenci kart wraz z twórcami gier zmuszą ludzi do zakupu kart 4GB +. I czyżby teraz najważniejszym parametrem na kartach graficznych będzie ilość ramu. Oby nie czekała nas taka przyszłość :

8GB ramu - ustawienaia ultra
6GB ramu - ustawienia high
4GB ramu - ustawienia medium
2GB ramu - ustawienia low

To co ? ludzie co zakupią 980 z 4GB ramu za 2,4k PLN zagrają na ustawieniach medium?? Paranoja!!!
Konsole nextgenowe ze swoim 8GB współdzielonej chyba to wymuszają ale co z optymalizacją na PC?
 
@arger : Coś z tymi wymaganiami śmierdzi tak jak napisali w artykule. Może tam miało być 2GB pamięci na karcie lub więcej. Jakoś nie chce mi się wierzyć, żeby np.GTX780TI z 3GB pamięci nie pociągnął tej gry na full, skoro za bardzo nie odstaje od 980. Jako rekomendowane producent podaje kartę GTX 670, patrząc ile tam jest pamięci możemy zauważyć że 2GB.
 
Last edited:
@arger
Ja nie sądzę, że z RAM na GPU, w przypadku, Wiedźmina 3 będzie tak strasznie. To co pokazał Middle-earth: Shadow of Mordor było ewidentnym marketingowym krzykiem "Kupcie Titana!".

W Wiedźminie 3 liczę na to, że RED engine 3 będzie chociaż trochę zoptymalizowany pod PC, a i technologia Umbra 3 (http://www.umbrasoftware.com/en/) zapewne zrobi w tej materii swoje.
 

Guest 2686910

Guest
arger said:
Konsole nextgenowe ze swoim 8GB współdzielonej chyba to wymuszają ale co z optymalizacją na PC?
Z tym, że low na 2 gb może być równe medium z poprzedniej generacji. A optymalizacja ma swoje granice, czasami nie da rady skompresować tekstur tak, żeby zajmowały mniej niż 2 gb. I wtedy do wyboru jest albo zmniejszyć ich rozdzielczość dla wszystkich, albo rozdzielić na różne poziomy ich szczegółowości.
@arger : Coś z tymi wymaganiami śmierdzi tak jak napisali w artykule. Może tam miało być 2GB pamięci na karcie lub więcej. Jakoś nie chce mi się wierzyć, żeby np.GTX780TI z 3GB pamięci nie pociągnął tej gry na full, skoro za bardzo nie odstaje od 980. Jako rekomendowane producent podaje kartę GTX 670, patrząc ile tam jest pamięci możemy zauważyć że 2GB.
Jest wariant 670'tki z 4 gb pamięci. Po prostu o tym nie napisali, a to bardzo nieładnie.
Takie pieprzenie i zmuszanie człowieka do ulepszenia swoich podzespołów... pachnie mi tu zepsutą optymalizacją albo głupotą twórców...
Nie do końca. Tekstury w dużej rozdzielczości naprawdę swoje ważą, nawet poważnie skompresowane. Ale nie sądzę, żeby różnica między teksturami high i ultra była taka ogromna.
@arger
Ja nie sądzę, że z RAM na GPU, w przypadku, Wiedźmina 3 będzie tak strasznie.
Ano, zwłaszcza z tym cytatem o 660'tce, która nie ma wariantu z 4 gb.

A tak abstrahując od wymagań W3: wymagania VRAMu wzrosną. Weźmy na przykład poprzednią generację: w czasach PS2 256 mb starczało z naddatkiem. A potem nadeszła nowa generacja, którą skończyliśmy z dwugigowymi kartami. Teraz może być podobnie, tym bardziej, że choć układy graficzne w konsolach nie są za mocne, to mają do dyspozycji sporo pamięci (PS4 ma ok. 5,5 gb zunifikowanej pamięci w grach, używanej jako zwykły RAM lub VRAM, w zależności od potrzeb). Także powinniśmy zacząć się powoli przyzwyczajać do takich opcji. Może nie tak brutalnie jak w przypadku Evil Within (nie gwarantują, że gra zadziała na 2 giga? C'mon.), ale to już się zaczęło. Jeśli ktoś chce być gotowy na przyszłość i przyszłościowe ULTRA ustawienia, to powinien czekać aż producenci kart wypuszczą produkty z większą ilością pamięci. Dobre czasy, w których dwuletnia karta wystarcza na maksa we wszystkich grach skończyły się, kiedy wyszły nowe konsole i najniższy wspólny mianownik nagle zrobił się całkiem wysoki. Spodziewam się też strasznej ilości wkurzonych ludzi przyzwyczajonych do status quo. Cóż, cena rozwoju.
Zaznaczam, nie bronię słabej optymalizacji. Ale jeśli można załączyć do gry tekstury lepszej rozdzielczości, których nie się upchnąć na 2 gigabajtach pamięci, to niech załączają. Byle nie osłabiło to tych, które się mieszczą.
Na koniec odsyłam jeszcze do wywodu Durante (człowieka, który naprawił wersje PC Dark Souls i Deadly Premonition i stworzył uniwersalne narzędzie do downsamplingu - GeDoSaTo) na temat wymagań i oceniania optymalizacji gier PC. Naprawdę warto jeśli zna się angielski i chce nieco ogarnąć nadchodzący powoli wzrost wymagań: http://www.neogaf.com/forum/showthread.php?t=885444.
 
Last edited by a moderator:
PS4 ma ok. 5,5 gb zunifikowanej pamięci w grach, używanej jako zwykły RAM lub VRAM, w zależności od potrzeb.

A konkretnie 4,5GB z możliwością wykorzystania dodatkowego 1GB, o ile to nie wystarczy, ale w standardzie do 4,5 własnie.
Nie wiem co wymusza tak absurdalne zapotrzebowanie na VRam (w przypadku The Evil Within), ale raczej nie jego ilość w przypadku konsol. Rzeczone 4,5GB to ogół dostępnej dla gier pamięci, na grafikę i całą resztę. Standardowy gamingowy PC ma tutaj ponad 6GB Ram DDR3 (około dwóch zjada system) plus 2GB VRamu na gpu.
Jeśli kogoś interesuje co konkretnie mają do dyspozycji deweloperzy w przypadku current genów, to miesiące kopania w necie dają następujący obraz.

6 rdzeni (1,6Ghz-PS4/1,75GHz-XOne) 4,5(5,5 max) GB Ram (PS4) i 5GB w XOne (ciężko znaleźć cokolwiek na ten temat) oraz GPU o taktowaniu 800Mhz z 14CU/1,43TF (PS4) i 853MHz/12CU/1,23TF (XOne).

Jak można zauważyć sprzęt budżetowy o parametrach właściwych dla low-endu. PS3/X360 w chwili debiutu przewyższały mocą ówczesne high-endowe blaszaki, co w pełni tłumaczyło znaczący wzrost wymagań, ale tym razem usprawiedliwienia dla takiego stanu rzeczy nie ma. Znaczy jest, ale nie do tego stopnia.
Bo wzrost wymagań wraz z nową generacją oczywiście powinien mieć miejsce, ale to co się dzieje przypomina bardziej sabotaż.

@RockPL, wyssane z palca, żadnego oparcia w... W czymkolwiek.
Skoro w minimalnym konfigu i tym co rzekomo ma zapewniać grę w przyzwoitych ustawieniach mamy gpu oparte na DX10, gdzie od początku wiadomo, że karta z obsługą DX11 będzie wymagana, aby w ogóle grę odpalić, to co tu komentować?
Krótko, funta kłaków nie warta wróżba, bzdura wierutna.
 

Guest 2686910

Guest
A konkretnie 4,5GB z możliwością wykorzystania dodatkowego 1GB, o ile to nie wystarczy, ale w standardzie do 4,5 własnie.
Nie wiem co wymusza tak absurdalne zapotrzebowanie na VRam (w przypadku The Evil Within), ale raczej nie jego ilość w przypadku konsol. Rzeczone 4,5GB to ogół dostępnej dla gier pamięci, na grafikę i całą resztę. Standardowy gamingowy PC ma tutaj ponad 6GB Ram DDR3 (około dwóch zjada system) plus 2GB VRamu na gpu.
Jeśli kogoś interesuje co konkretnie mają do dyspozycji deweloperzy w przypadku current genów, to miesiące kopania w necie dają następujący obraz.

6 rdzeni (1,6Ghz-PS4/1,75GHz-XOne) 4,5(5,5 max) GB Ram (PS4) i 5GB w XOne (ciężko znaleźć cokolwiek na ten temat) oraz GPU o taktowaniu 800Mhz z 14CU/1,43TF (PS4) i 853MHz/12CU/1,23TF (XOne).

Jak można zauważyć sprzęt budżetowy o parametrach właściwych dla low-endu. PS3/X360 w chwili debiutu przewyższały mocą ówczesne high-endowe blaszaki, co w pełni tłumaczyło znaczący wzrost wymagań, ale tym razem usprawiedliwienia dla takiego stanu rzeczy nie ma. Znaczy jest, ale nie do tego stopnia.
Bo wzrost wymagań wraz z nową generacją oczywiście powinien mieć miejsce, ale to co się dzieje przypomina bardziej sabotaż.
Taki na przykład Killzone: Shadowfall zjadał ponad 3 gb VRAMU z tej zunifikowanej puli, znaczy, da się. RAM systemowy na PC to, jak sam napisałeś, trochę inne zwierzę niż DDR5 (problem X'a, który ma DDR3, PS4 ma inne problemy, ale szybkość RAMu nimi nie jest). Te flopsy w przypadku konsol są nieco zwodnicze, w tym sensie, że przez jednakową specyfikację wszystkich systemów łatwiej optymalizować. Ale zgadzam się w tym, że 2 gb na karcie powinno wystarczyć do konsolowych ustawień tekstur, tu już trzeba niezłego fikoła wywinąć, żeby wymagać więcej (temu nie wierzę w te newsy od Evil Within, w głowie mi się nie mieści, że da się tak skiepścić. Ale to idtech5, może się jednak da).
Tak poza tym to stare konsole mają 512 mb. A taki Crysis 3 (gra, która ukazała się na te konsole) potrafi zjeść ponad 2 giga. Źle zoptymalizowany? No nie. Po prostu to, co wygląda trochę kosztuje. Ale do takich skoków jeszcze nam w miarę daleko, więc nie martwmy się na zapas, bo 2 gb ma jeszcze czas.

A w kontekście W3 o ten VRAM się nie martwię. Do wysokich nie będzie potrzeba więcej niż 2 gb, do ultra, jeśli takie tekstury będą, może i więcej, ale też niewiele. A jeśli już będą, to będą naprawdę dużo lepsze niż to, co na systemach Sony i MS.
 
Last edited by a moderator:
Taki na przykład Killzone: Shadowfall zjadał ponad 3 gb VRAMU z tej zunifikowanej puli, znaczy, da się.

3GB VRamu na samą grafikę, czy ogółem 3, bo to nie to samo. Konsola Sony może standardowo wykorzystać, o czym już wspomniałem 4,5GB na wszystko, nie tylko grafikę, w skrajnych przypadkach plus 512 tzw. pamięci elastycznej.
Szukając pewnego wpisu o przeciwwskazaniach dla GDDR jako pamięci do wszystkiego trafiłem na coś takiego;

Poza wspomnianym w dokumentacji 4,5 GB, deweloperzy mogą także skorzystać z dodatkowych 512 MB (wcześniej informowaliśmy o 1 GB. Na „elastyczną pamięć” składają się zarówno zasoby fizyczne, jak i wirtualne, a te drugie mogą wywołać problemy ze stronicowaniem (dzieleniem pamięci na równe bloki, które są następnie adresowane za pomocą tablic), co może negatywnie wpłynąć na wydajność. W pierwotnej wersji wiadomości połączyliśmy oba zasoby.
Z praktycznego punktu widzenia przy tworzeniu gier, odpowiednie liczby wynoszą 4,5 GB dostępne dla twórców bez ograniczeń, oraz 512 MB „elastycznej pamięci”.

I na tym koniec. 5GB. 1GB zarezerwowano na system, 2GB na inne rzeczy, jak nagrywanie filmów z rozgrywki, zadania w tle itd.
Do gier zwyczajowo 4,5GB. I z tego aż 3GB idzie na grafikę? Na pozostałe sprawy związane z grą zostaje 1GB?
Ciężko uwierzyć.
PC może i nie ma współdzielnej pamięci za to ma pamięć ogólną i wideo na gpu.

Poza tym pamięć video to pamięć wideo, nie bez przyczyny nie robi taka za systemową. Przy określonych zadaniach GDDR potrafi być dużo wolniejsza aniżeli standardowe DDR3.
Swego czasu czytałem szczegółową rozpiskę pełną technicznego żargonu, dlaczego i jak, ale za nic nie mogę go teraz znaleźć.
W każdym razie M$ nie ładowało się w GDDR nie ze względu na cenę i dlatego, iż brak im wyobraźni oraz umiejętności, a dlatego, że prócz zalet ma ona też wady.
Najwidoczniej według tamtejszych inżynierów plusy nie równoważyły minusów.

Ale zgadzam się w tym, że 2 gb na karcie powinno wystarczyć do konsolowych ustawień tekstur, tu już trzeba niezłego fikoła wywinąć, żeby wymagać więcej (temu nie wierzę w te newsy od Evil Within, w głowie mi się nie mieści, że da się tak skiepścić.

Również nie pojmuję jak to w ogóle możliwe. Tym bardziej, że... Cytat z pewnego wpisu na interze.

Im seeign right now (i can up screens) my Crysis 3 using less than 2GB, Far Cry 3 using 1,3Gb max, Metro Redux using 1,2GB, All with filters, MSAA, SMAA etc. I can't believe supposed "next-gen" games needing x3 or x4 times these Vrams specifications... its not fair for PC consumers...

Co mnie ominęło? Kiedy nastąpił taki postęp? Gdzie są te gry tak piękne, że Crysis 3 wygląda przy nich niczym Minecraft?
I na jakim sprzęcie to działa, bo w żadnym razie nie na PS4/XOne, co to mają problemy z 1080p i to przy 30 klatkach.
Racja, to nie jest w porządku, ktoś sobie potężnie w kulki leci...

Mam nadzieję, że CDP RED nie pójdzie tą drogą. Szczęśliwie nic tego, jak na razie, (odpukać) nie zapowiada.
 

Guest 3669645

Guest
Pytanie od kiedy "dzisiejszym standardem" jest 4K? :p Szczerze nie znam nikogo kto by grał w rozdziałce większej niż 1920x1200
 
To nie znaczy, że nikt takiego monitora nie posiada, skoro nikogo nie znasz, a te monitory są już ogólnodostępne, nie jest ich wiele ale już są w zasięgu ręki.
 
Przecież to nie chodzi o rozdzielczość. Ona nigdy nie była problemem, jak ktoś miał chęć, fundusze i fantazję, to łączył dwa czy cztery monitory, kupował cztery karty graficzne i włączał 4k. I to samo jest dzisiaj. Do takich rozdzielczości, a przy tym maksymalnej jakości, bo przecież ludzie nie po to dają 4k i wydają pięćdziesiąt tysięcy na sprzęt, by grać na low, potrzebne cały czas są dwie, trzy albo i cztery bardzo mocne karty. A o tym nic nie ma w wymaganiach rekomendowanych. Więc spokojnie można przyjąć, że to zwyczajny bs, chamskie i bezczelne wyciąganie pieniędzy oraz traktowanie graczy jak idiotów.
 
Last edited:
Top Bottom