Cały dzień chodziły mi po głowie dwie rzeczy. Pierwszą był Crysis 2, który ma dziś swoją premierę. Kwestia druga wynika z tej pierwszej – miałem ochotę na soczystego kebaba. Dlaczego? Ponieważ studio Crytek założyli trzej bracia: Cevat, Faruk i Avni Yerli. Teraz już wiecie skąd te myśli o tureckim przysmaku pojawiające się ilekroć pomyślę o drugim „Kryzysie”. No, ale dość tych kulinarnych wynurzeń. Pudełko z grą zostało sprytnie odebrane kudłatej asystentce. Co tu mamy? To kolejna gra od Electronic Arts, a więc oprócz pudełka i kilku świstków nic tam więcej nie znajdę. Na początek jednak mamy pudełkowy babol w postaci literówki. W polskiej wersji Crysis 2 obok Piotra Machalicy i Michała Milowicza występuje także niejaki Batrosz Waglewski. Oj panowie z EA… tak na samym szczycie pudełka walić babolca? No nic! Po rozerwaniu pudełka (Edycja Limitowana) ujrzałem płytkę, 20 stronicową instrukcję obsługi oraz karteluszkę z kodem dzięki któremu mogłem sobie po instalacji gry ściągnąć nikomu niepotrzebne pierdoły w postaci jakiegoś „holograficznego wabika do karabinka” itd., które ponoć przydadzą mi się w rozgrywce sieciowej. Czy coś w ten deseń. Kiedyś to były edycje limitowane przez duże „D”. Raz dostałem grę w drewnianej skrzynce na naboje, a w środku była flaga. RADZIECKA FLAGA! A teraz co? Świat gier schodzi na psy.
Jeszcze dwa słowa o polonizacji… nie! Niech lepiej przemówią obrazy. Poniżej możecie obejrzeć fragment introdukcji do Crysis 2 w polskiej wersji językowej.
Jak na pecetową grę przystało po dość długiej instalacji podczas której nawet mało-wybitny szef tureckiej kuchni przygotowałby co najmniej dwa pyszne kebaby mogłem przystąpić do… nie! Nie do gry. Tradycyjnie musiałem udowodnić, że nie jestem złodziejem oprogramowania i wpisać numer seryjny. Jak zwykle miałem pecha bo te wydrukowane na tylnej okładce instrukcji obsługi literki-i-cyferki miały w sobie dużo „G” (proszę bez skojarzeń) oraz szóstek (Szatani nadali…). Rzecz oczywista, że co najmniej raz pomyliłem szóstkę z g(r)ównem… pardon z „G”. Dobrze, że nie było „B”… pewnie pomyliłbym ją z cyferką „8”, a mówiła matula żebym uważnie oglądał Ulicę Sezamkową – wtedy nie miałbym kłopotów z kodami do gier panów Elektroników. Dość powiedzieć, że w końcu się udało, a ja wylądowałem w kolejnym… parawortalu społecznościowym. Tym razem noszącym miano MYCRYSIS (cóż za ambiwalentna nazwa). Ostatnio przy okazji instalacji Dragon Age 2 też zmuszono mnie do rejestracji w jakimś cholernym portalu społecznościowym. Czy w przyszłości będę musiał zatrudnić sekretarkę, która w kajecie będzie zapisywała hasła do kolejnych, przeklętych witrynek? No, ale dość o tym. Jakby co dokonam ekspiacji i powrócę na łono konsol. Na razie jednak piecyk odpalony, a Crysis 2 gorący i gotowy.
Bijemy Crysisa 2…
Pamiętacie jeszcze nasz test karty graficznej GeForce GTX 460? biedna karcioszka radziła sobie całkiem nieźle aż do momentu gdy odpaliłem pierwszego Crysisa. 460-tka wywiesiła białą flagę, a Crysis zszedł z ringu jako niepokonany pożeracz dziewic… pardon kart graficznych. Mimo konsolowego skundlenia Crysisa 2 (wybaczcie to porównanie – o tym nieco później) nadal miałem pewne obawy, czy aby na pewno mój komputer, czyli blaszak wyposażony w procesor AMD Phenom II X4 945 3 GHz, 8 GB pamięci RAM i wspomnianą wyżej kartę GTX 460 od MSi (fabrycznie kręcony) poradzi sobie z dziełem braci Yerli hulającym na CryEngine 3. Byłbym zapomniał – system operacyjny to oczywiście Windows 7 Home Premium 64 bit, a sterowniki do karty graficznej to wersja 266.58 z certyfikatem WHQL.
Testujemy grę na podobnych zasadach co Dragon Age 2, a więc rozdzielczość to 1440×900. Podczas testów programem Fraps wyłączamy synchronizację poziomą (V-sync). Niestety dalsze ustawienia zepsuł nam Cevat Yerli i spółka. Pecetowa wersja Crysis 2 cierpi na ostrą przypadłość jakby to określić… „konsoloizacji”. To jest to ekhem skundlenie o którym wspominałem w poprzednim akapicie. W czym rzecz? Niestety pecetowy gracz przyzwyczajony do buszowania w opcjach graficznych będzie srogo zawiedziony. Crysis 2 w opcjach graficznych pozwala nam na: zmianę rozdzielczości, wybór gry na pełnym ekranie, wyłączenie V-sync oraz enigmatyczne trzy opcje poziomu szczegółowości oprawy wizualnej – Ekstremalny, Bardzo Wysoka oraz Wysoka. Niech zresztą przemówią obrazy na poniższym, krótkim materiale wideo.
Jak widać opcji do wyboru jest tyle co (Jarosław) Kot napłakał. Niektórzy mówią, że to po prostu signum temporis. Inni też nadużywają „łaciny” widząc takie zmiany w pecetowym światku gier.
Przezwyciężyć Kryzys!
No dobrze, ale co z tego wszystkiego wynika? Na pierwszy ogień idzie pierwszy fragment rozgrywki z Crysis 2, czyli budynek w którym rozpoczynamy rozgrywkę. Fraps odmierza 60 sekund – w tym czasie dobiegam do przeszkody (długi skok). Jakie wyniki? Oszałamiające.
Crysis 2 Ustawienia: Ekstremalny (w kolejnych nawiasach ustawienia: Bardzo Wysoka oraz Wysoka).
Min: 44 FPS (65) (72)
Max: 89 FPS (148) (151)
Avg: 65,9 FPS (94,8) (99,2)
Zgadza się! Sam nie mogłem uwierzyć, że na najwyższych ustawieniach Crysis 2 działał tak dobrze. Cóż za cudowna odmiana po fatalnym, starszym bracie. Średnia prawie 66 klatek! Jeśli mam być szczerzy to nie zauważyłem większej różnicy między poszczególnymi ustawieniami, ale jak widać różnice w wydajności są. W Galerii znajdziecie dwa zestawy screenów po trzy fotki z każdego trybu – konia z rzędem temu kto odgadnie kolejność. No tak, ale pierwsze minuty gry to klaustrofobiczny budynek, korytarz i tak dalej. Nie dziwota zatem, że z wydajnością jest git. Mamy już bojowy pancerz, a więc czas wyjść „na miasto”.
Drugi test to już nie przelewki – plac, sporo wraków pojazdów. Efekty środowiskowe (dym itd.) przeciwnicy. W tle majaczy zniszczona Statua Wolności. Zresztą pod wynikami macie materiał wideo – oto plansza na której odbył się test numer 2.
Crysis 2 Ustawienia: Ekstremalny (w nawiasach Bardzo Wysoka i Wysoka).
Min: 41 FPS (70) (88)
Max: 70 FPS (104) (136)
Avg: 53,2 FPS (83,4) (104,5)
Już nieco gorzej, ale wyniki nadal bardziej niż zadowalające. Co ja mówię! Wyniki są wręcz rewelacyjne. Nadal mam w pamięci ślamazarnego, pierwszego Crysisa. Tak! Crytek się zrehabilitował w moich oczach. A poniżej obiecane wideo (oglądajcie w HD).
Jak wam się podoba? Robi wrażenie?
Podsumowanie
Crysis 2 bardzo mile zaskakuje wydajnością. Nawet na moim, średniej przecież klasy komputerze gra chodzi bardzo płynnie i nie mam absolutnie żadnych zastrzeżeń. A czy technikaliom dorównuje cała reszta? Tego dowiecie się już z naszej recenzji drugiej odsłony Crysisa. Ja już kończę i zdaje się, że pójdę po jakiś Kebab. Przez tego Crysisa zrobiłem się głodny. Tylko gdzie ja o 4 rano znajdę kebabownię?
uuu gitesowo znaczy u mnie też pójdzie bez problemów. Ale ale na wideo strzelacie do drzewa, a drzewo się ni niszczy w jedynce można było kosić palmy jeśli dobrze pamiętam. Szkoda tylko że się cofają wstecz i nie ma obsługi DX10 i DX11
No nie, znowu. . . ? A co Twoim zdaniem dałby nowszy DirectX? Wiecie co, gracze w tym kontekście czasem przypominają mi ludzi w reklamach, zachwycających się jak to nowy proszek jest o 20% lepszy a nowa pasta do zębów 5 razy skuteczniej usuwa kamień nazębny. I przepraszam, że po raz kolejny o tym piszę, ale martwi mnie niepomiernie, że ludzie tak łatwo dają sobie robić wodę z mózgu numerkami.
no a lepsze efekty i w ogóle? Na ostatnim filmiku jak włączyłem w HD masakra totalna a to tylko Dx9
Zwłaszcza „w ogóle”. No to jedziem z tematem jeszcze raz. . . Tak w skrócie. Od DirectX 9c pixel shadery są całkowicie programowalne. Oczywiście w Cg nie da się napisać całej gry, ale da się stworzyć w nim dowolny filtr i dowolny efekt odbić, cieniowania czy cieni (dowolny w obrębie możliwości obliczeniowych docelowego sprzętu, co nie ma nic wspólnego z wersją D3D). Kolejne wersje Direct3D mogą tylko ułatwiać tworzenie nowych efektów lub przyspieszać ich działanie (co, jak widać na załączonym obrazku, wcale nie jest konieczne jeśli ktoś umie optymalizować kod, shadery i sceny), ale nie ma sytuacji, w której coś dałoby się w tej materii zrobić w DX11 a nie dałoby się w DX9. Każdy pixel shader możliwy do napisania w rendererze opartym o DX11 jest też możliwy w DX9, czego dobitnie dowiódł (trochę paradoksalnie) pierwszy Crysis, w którym tryb DX9 był sztucznie okrojony w stosunku do trybu DX10. Tym razem przynajmniej oszczędzili sobie (i nam) takiej wiochy. To tyle w materii Pixel Shaderów. Jeśli chodzi o Geometry Shading, to tutaj DX11 rzeczywiście robi różnicę. Inna ważna różnica to fakt, że jest to pierwszy od dawna wstecznie kompatybilny D3D (jedno API, działa na kartach od GF 6600 wzwyż). W DX11 po raz pierwszy Geometry Shading ma sens, ponieważ jest sprzętowo przyspieszany (na kartach Fermi i odpowiednikach ATI). Stąd największa różnica, którą w pięknym wydaniu można oglądać w niedawnym demie GeForce’ów serii GTX500 działającym na UE3 (mam oczywiście na myśli „Samarytanina”, a dokładniej morfing jego twarzy). DX10 przemilczę, bo był kompletnie niepotrzebny. Owszem, był poligonem doświadczalnym dla zmian, które znalazły swój szczęśliwy finał w DX11, ale ogólnie porównałbym go do Visty. Także, podsumowując, od strony efektów wszelakich jedyną różnicą między DX9 a DX11 jest tesselacja. I owszem, miło byłoby ją zobaczyć w Crysis 2, ale większość osób i tak by jej nie zauważyła, a poza tym nie wiem ile z obecnych kart jest naprawdę gotowych do realnego wykorzystania tego mechanizmu w dynamicznej grze. Od strony efektów graficznych osiąganych przez pixel shading, tymczasem, różnic wizualnych nie ma i nie może być jakichkolwiek, dlatego miauczenie o DX11 mija się z celem i jest jedynie przyznaniem, że dajemy się robić w konia marketingowym bełkotem. Przy całej mojej niekłamanej sympatii do DX11 (takiej samej, jaką mam do Windows 7), od strony wizualnej zmiana z DX9 na DX11 sama z siebie nie zrobiłaby żadnej różnicy, ani nie umożliwiłaby uzyskania lepszych efektów pixel shadingu. Żeby było jasne. Byłbym całkowicie „za”, gdyby CryTek całkowicie zrezygnował z DX9 (tak jak, podobno, zrobi DICE z BF3). To sprawdzone, świetne API, ale DX11 jest wygodniejsze, bardziej przyszłościowe i wstecznie kompatybilne (czyli niemal doskonałe). Tym niemniej, nie dałoby to żadnych nowych możliwości względem wyglądu gry (poza tesselacją). Dlatego skoro mieli do wyboru przepisywać wszystko pod DX11 albo dopracować renderer DX9, to ja popieram decyzję o pozostaniu przy DX9. Zwłaszcza, że pracowali też od zera przy CryEngine na konsole, co z pewnością pochłonęło sporą część teamu. Dobrze również, że zdecydowali się pozostać przy jednym API, bo skoro nie widać różnicy, to po co pisać pod dwa (na jedną platformę)?Długi temat, nie chcę się bardziej rozpisywać. . .
Lubię te artykuły zaskoczony jestem pozytywnie tym jak gra działa i to kolejna cegiełka do tego ze kupię c2, ale chcę recenzję :DCzy Le Cat będzie recenzował C2? Bo coś kot się leni cyckofiut!
co mnie wyzywacie 🙁 recenzja się robi. Dziś skonczę to wyślę wstawią
Oj coppertop, kolejny raz piszesz jak to można wszystko napisać na wszystkim jak się chce itp itd. A tu chyba chodzi o to, że problem jest bo na DX9 im sie nie chciałoby zrobić, tego co na wyższych DXach dostaliby za darmo. Przy tym samym nakładzie czasowo-finansowym. Tak jak zarzekasz się, że gry na UE nie wyglądają tak samo. Ano wyglądają bardzo często tak samo, bo poza tym, że „można wszystko jak się chce”, to się nie chce. Po to wybiera się dane narzędzie, aby skorzystać z tego, co jest gotowe, zyskać na czasie i nakładzie pracy.
Nie chciało? Dobra, krótka piłka. Już CryEngine 2 wprowadził subsurface scattering oraz wynaleziony przez CryTek filtr SSAO, który na potrzeby CE3 został dopracowany i rozszerzony. Dla CE3 napisano również kozackie global illumination w czasie rzeczywistym. O DOF, motion blur czy zaawansowanych decalach nie wspominam, bo to powoli robi się standard (choć z wykonaniem bywa różnie). Wszystko to napisali sami w Cg/HLSL i choć, owszem, nowsze SM mogłoby im to ułatwić, to jednak na pewno nie można powiedzieć, że czegokolwiek im się „nie chciało”. Jednocześnie żaden SM nie daje takich rzeczy za darmo. Tymczasem jeśli czegokolwiek tu brakuje to tylko geometry shadingu i radiosity w czasie rzeczywisym, które i tak jest zwyczajnie niemożliwe. DICE udało się napisać fajne radiosity, ale do czasu rzeczywistego i tak jest dość daleko. Krótko mówiąc, w CryEngine 3 jest chyba wszystko, co znamy. Nie ma więc najmniejszego sensu twierdzenie, że czegoś im się nie chciało zaimplementować. Aha, wybaczcie, że nie rozwijam skrótów i nie opisuję każdego efektu, ale zajęłoby to za dużo miejsca.
Nigdy nie pisałem, że gry na UE nie wyglądają tak samo (no, poza Mirror’s Edge i Borderlands). Pisałem, owszem, że one wyglądają tak samo z powodu lenistwa developerów gier, a nie z powodu używania tego samego silnika. Problem w tym, że mylisz tu grupy ludzi. CryTek to producent silnika, a nie producent gier (Crysis jest demem technologicznym w gruncie rzeczy). Jeśli na czymkolwiek im zależy to na tym, żeby wyprzedzać o krok wszystko, co ma do zaoferowania konkurencja, zwłaszcza, że tą konkurencją jest monopolista Epic, któremu uchodzą na sucho nawet strasznie gówniane cienie. W związku z tym nie mogą sobie pozwolić na lenistwo w materii nowych efektów czy algorytmów, czego GI i SSAO są najlepszym przykładem. I każdy z tych efektów muszą sobie napisać, nie ma lekko. Tymczasem developerzy gier korzystających z tego czy tamtego silnika pozwalają sobie na korzystanie z tego, co przyszło w materii shaderów czy oświetlenia (choć, jak widać na przykładzie DICE i Mirror’s Edge, nie wszyscy) i jest to całkowicie usprawiedliwione, bo oni mają robić gry, a nie tech dema.
Jak dobrze pamiętam to crytek nie był fanem DirectXa nigdy
A tam DirectX nie DirectX. Ważne, że C2 jest wydajny i wygląda pięknie.
Dobra to gramy w multi ?
no to świetnie, że dobrze chodzi może nawet na laptopie pogram jak kiedyś ewentualnie kupię
Dzięki za odpowiedź 🙂 A z troszkę innej choc podobnej beczki w sieci piszą, że AMD w ogóle chciałby zeby Direct X’a nie było bo to ponoc im przeszkadza tzn. w rozwinięciu mocy kart na maksa. czy coś w tym rodzaju. Czyli co w zamian ewentualnie? Instaluje grę na Windowsie 7/vist/XP a odpalając grę wychodzę z systemu operacyjnego? O to chodzi AMD/Ati?Ostatecznie open GL wygra?
Crysis obsługiwał Directx10 dwójka tylko 9 porażka i tyle ale wydajność na plus.
Piszę w próżnię. . . Kompletną próżnię. . . Jak rozumiem mieli dodać DirectX 10 i 11 dla samego faktu? Bo ilość DirectX’ów w Crysisie musi się zgadzać?
Rzeczywiście, pojawiła się taka wypowiedź AMD, jednak później się z niej wycofali. Nie miało to jednak nic wspólnego z przechodzeniem na OpenGL, ponieważ zarzuty, które stawiało AMD można odnieść spokojnie również do tego API. Ogólnie chodziło o próbę wyjaśnienia, dlaczego z konsol udaje się wyciskać coraz lepszą grafikę, podczas gdy grafika na PC stoi w miejscu mimo, że moc obliczeniowa pecetowych kart graficznych jest obecnie naprawdę nieporównywalna z dostępną na konsolach. AMD postawiło tezę, że wynika to z faktu, że na konsoli po pewnym czasie developerzy, korzystając z niezmienności hardware’u, zaczynają pisać „to the metal”, czyli pomijając graficzne API konsoli, i odwołując się bezpośrednio do jej bebechów. To znaczy tak, jak pisało się zanim powstały DirectX, OpenGL i im podobne wymarłe. Dodatkowo człowiek z AMD zaznaczał, że API konsol jest lepiej zoptymalizowane (co zrozumiałe przy jednym, jasnym sprzęcie), więc nawet bez jego omijania da się pisać szybszy kod (nie traci się tyle wydajności na wywołaniach). Rzeczywiście, można się poniekąd zgodzić z ogólną tezą — lepsza optymalizacja (kod, który nie musi działać z tysiącem kart, a tylko z jedną) już na wstępie pozwala osiągać więcej na konsoli niż na teoretycznie porównywalnym pececie. Różnice w możliwej ilości wywołań potrafią być naprawdę duże (przynajmniej tak twierdzi AMD), a rosną jeszcze bardziej kiedy developerzy zaczynają obchodzić API. Między innymi dlatego nie można przykładać papierowych osiągów podzespołów konsol do ich pecetowych odpowiedników 1 do 1. Z drugiej jednak strony, przełożenie tego na PC nie jest zwyczajnie możliwe. Nawet przy DirectX trzeba czasem napisać daną rzecz inaczej pod NVidię, inaczej pod ATI a jeszcze inaczej pod Intela, jeśli komuś się chce te zintegrowane wynalazki obsługiwać. Jak by to wyglądało bez D3D/OGL? Wolę sobie tego nie wyobrażać. Dodatkowo, produkcja gry zajęłaby wtedy więcej czasu i prawdopodobnie byłaby bardziej podatna na błędy. Powstaje też pytanie, czy gra rzeczywiście byłaby warta świeczki. Otóż różnice, choć duże, nie wyjaśniają rzeczywistej przyczyny, dla której gry wyglądają na PC niewiele lepiej niż na konsolach. Tak naprawdę wynika to z faktu, że są robione przede wszystkim na konsole, które jednak mają niedobór mocy obliczeniowej i, przede wszystkim, pamięci, których szybsze API nie zniweluje całkowicie. Nawet gdyby udało się zoptymalizować D3D/OGL lub pominąć je kompletnie, to nie zmienia faktu, że grafika stworzona z myślą o konsoli nie zacznie nagle wyglądać piękniej tylko z samej wdzięczności. Podsumowując, AMD ma rację, że na konsolach grafika działa szybciej, ale to nie z tego wynika brak postępu w dziedzinie grafiki na PC i nie da się tego postępu popchnąć rezygnując z D3D/OGL. Wręcz powiedziałbym, że można by go w ten sposób kompletnie zahamować.
Jestem pod wrazeniem!Full HD, MAX settings i plynniutko na C2D 8400@3. 7Ghz + 560Ti@900 + 4GBSama gra DUZO lepsza niz myslalem, momentami klimat przypomina mi nawet HL2 ale glownie to czuje sie jak w filmie o inwazji obych. Gra sie naprawde fajnie, bez porownania lepiej niz demko Killzone 3. No i jest genialny „feel” broni!
Dwójka faktycznie chodzi ZNACZNIE lepiej od pierwszej części ale wciąż widoczny jest wyciek pamięci. O co chodzi z tym wyciekiem pamięci ? Uruchomiłem rok tremu crysisa 1 po raz pierwszy w 64 bitach pod vistą 64 w DX10. Byłem zszokowany skąd się wzięło na oko 2x do 3x więcej fpsów. Pomyślałem sobie super, wcześniej widocznie miałem za mało ramu (2GB), gra w max ustawieniach na mojej 3 letniej już karcie była super. . . aż tu nagle po kilku minutach uciechy nastaje sekunda i ciach fps idzie o 2x razy w dół a gdy jak włączysz konsole to widzisz tylko czerwony napis memory leak. By znowu było dobrze trzeba wyjść do menu głównego i ładować ten sam level od nowa. . . . i znów na kilka minut fps dobry. . . czyli to problem enginu nie sprzętu 🙂
sulla strasznie deprecjonujesz swojego kompa. Nie jest taki najgorszyTylko na co ci te 8 giga ramu? Ty wiesz, że w niektórych grach to ci nawet może spowolnić o kilka klatek? Nie żartuję.
wiem, tez czytuję serwisy sprzętowe, ale nie jest to regułą 😉 Wiesz jest tak, ze mam włączony IE i Chrome w IE mam otwarte z 8 witryn a Chrome ze 40 do tego leci jakaś muzyczka albo z YT albo radia netowego plus mam włączony GG i Skype i pamięć mam zajętą w góra 40+ procentach 😉
e no coś ty?