Rozmowę z Timem Sweeney przeprowadzili redaktorzy serwisu IGN. Pytali go między innymi o to, w jakie zainwestować procesory. Chodziło głównie o różnice między dwu i czterordzeniowymi układami.
„Jeśli kupujecie procesor głównie pod kątem grania, najlepszym miejscem na rynku (w oryginale ‘sweet spot’ przyp. red.) wydają się być procesory dual-core. W ich przypadku dostaniecie procesor o wyższej częstotliwości zegara niż w przypadku procesorów quad-core. Wszystkie gry działające w oparciu o Unreal Engine 3 bardzo dobrze pracują na dwóch rdzeniach i w takich przypadkach zobaczymy o wiele większą wydajność niż w przypadku zwykłego procesora z jednym rdzeniem. O ile UE3 i wiele innych silników skłania się ku czterem rdzeniom, zyski nie są olbrzymie. To się zmieni w ciągu kilku lat, ale w takim przypadku mówimy już o kolejnym ulepszaniu sprzętu” – opowiadał Sweeney.
Dla kogo więc przeznaczone są najmocniejsze procesory znajdujące się obecnie na rynku? I na to pytanie udzelił odpowiedzi ekspert z Epic Games. „Jeśli masz zamiar tworzyć wiele map albo modów to polecam ci procesor quad-core. Narzędzia deweloperskie działają bardzo dobrze w tym przypadku, otwieranie wielu aplikacji zarządzających treścią w systemie Windows także zyskuje w przypadku takich układów. Jeśli chcesz na swoim komputerze postawić serwer aby sprawdzić swoje mody i jednocześnie grać, to takie rozwiązanie też może pomóc” – dodaje pracownik Epic Games.
Może się jeszcze okazać, że wcale nie musimy sprzedawać nerki, żeby z przyjemnością zagrać w nadchodzące „killer aps”. Zdaje się, że optymalnym rozwiązaniem dla tego typu produkcji będą mocne karty graficzne, wspomagane duża ilością RAMu i procesorami dual-core. Najdroższe cuda techniki mogą okazać się przydatne, ale niekoniecznie będą musiały znaleźć się w komputerze każdego gracza. Odetchnęliśmy z ulgą.
Są 2 i 4 rdzeniowe, za rok za dwa 6,8,10,12 rdzeniowe. Co potem? Za 5 lat nie będziesz pytał – jaka częstotliwość zegara, tylko:”Mój ma 128 rdzeni, a twój?”. Gdzieś musi być granica, ot chociażby w poborze prądu. To samo tyczy się kart graficznych. Niedopuszczalne jest, żeby komputer zużywał więcej niż 500W/godzinę (gdzie obecnie mocniejsze karty biorą około 150W). Tak więc albo rozwój technologii będzie szedł do przodu bez potrzeby zwiększania zapotrzebowania na energię albo dla zastosowań komercyjnych rozwój technologii mocno się spowolni. Co uważacie?
Co do poboru mocy – zgadzam się, gdzieś musi być granica tego szaleństwa. Co do ilości rdzeni – czekamy na developerów aż zaczną myśleć wielowątkowo. Procesory dwurdzeniowe są w przystępnych cenach, myślę że wielordzeniowce (4, 8, 16) staną się szybko standardem.
Pobór mocy to najmniejszy problem. Intel ma już działający prototyp 80(!!!)rdzeniowego procesora o wydajności mierzonej w teraflopach, który pobiera zaledwie 64W.
wielordzeniowosc to przyszłość i tak procesorow Quad core nie ma praktycznie teraz na czym wykorzystać zanim zaczną być w pełni wykorzystywane przez gry jeszcze troche czasu minie ( pierwszy procesor 128 bitowy zastosowany w playstation 2 wtedy w pctach byly montowane 32 bitowe i wszyscy się dziwili jak procesor o zegarze 300mhz moze uciągać takie gry) procesory wielordeniowe 128 bitowe jeszcze nadejdą dla kompow ale to za kilka dobrych lat procesory bym się nie martwił bo procesor w grach odciąża tylko i wyłącznie karta graficzna a te są drogie jak ch** co chwile wychodzą nowe ktorych ceny siegaja tysiace zl a na takiej karcie max 3 lata i znowu wszystko przycina najczesciej wymienianym komponetem komputera jest oczywiscie karta graficzna ! nie procesor
Generalnie chciałem uderzyć właśnie w karty. O ile przyszłość procesorów na długie lata jest pewna (wielordzeniowość) to o tyle w kartach problem poboru energii jest znacznie większy. Wiadomo, że wydajniejsza karta = większy pobór mocy. Nie do zaakceptowania jest jeszcze większy pobór mocy – nikt nie zgodzi się grać na komputerze, który będzie zżerał więcej niż 500W – to jest obłęd. Pytanie brzmi – jak dalece rozwijać się będą karty graficzne i w jakim kierunku? Czy zastosowanie procesorów fizyki jest jakimś rozwiązaniem?Jeżeli nie, to być może programiści zaczną przerzucać obciążenie jednak na procesory (właśnie dzięki wielordzeniowości) a rozwój kart graficznych w końcu zacznie spadać (wydaje mi się że wiele czasu upłynie, zanim zrobią coś wydajniejszego niż 8800GTX)?Może zwiększenie potokowości w kartach? Ale to i tak jest potrzebna szybsza pamięć, rdzeń. . . nie wiem – kiedy przyjrzeć się temu poważniej z perspektywą większą niż 2-3 lata to robi się gęsia skórka. . .
Zgadzam sie że procesory wielowątkowe to przyszłość dla pecetów. Ale jeśli konsole zadomowią się na dobre to raczej w pc nikt już nie będzie inwestował jak to miało miejsce do niedawna. Wszyscy którzy chcą tylko pograć będą kupowac konsole, maniacy będą mieli PC.
Wiesz od ilu lat to słyszymy?
Pc’ty zawsze bedą bo kompter daje wiele wieksza mozliwosci jesli chodzi o uniwesalnosc (internet,najrozniejsze programy (skype,gg,office poprostu za duzo wymieniac ) dlaczego tego nie ma w konoslach ? do tego na kompie mozna grac w gry i wystarczy ze sie kupilo komputer za 2tys rok po ukazaniu sie konsoli to jednak na komputerze bedzie lepsza grafika do tego klawiatura i myszka super pada mozna juz za 100 kupic do tego komputer ma teoretycznie pełna wstecznią kompatybilnosc do tego najrozniejsze emulacje a kazda gre mozna sciagnac z torrenta. . . . . konsola jest dla . . . . . . konsolowcow. . . . . 🙂 trzeba wymieniac komponenty kompa ale jak je wimieniasz widzisz na wlasne oczy jak grafika z roku na rok bardziej przypomina rzeczywistosc konsole wybiegaja rok do przodu i pozniej zostaja w tyle przez 5 lat za to przyznam ze w niektorych grach grywalnosc jest lepsza
Nie do końca nie ma. Na PS3 na przykład można zainstalować Linuksa i mieć pełną funkcjonalność PeCeta.
Czy piractwo muszę komentować czy mam po prostu dać minusa? :/Co do procesorów i przyszłości. . . Cóż, gdybać można zawsze. Jednak z tego gdybania zwykle mało wynika 😉 Prawda jest taka, że nie wiemy w czym grzebią obecnie goście z Intela czy AMD w swoich zamkniętych na 1024 spusty laboratoriach. Może doczekamy 128 rdzeni (byłby lol ;D) a może na etapie 32 pojawi się technologia która wielordzeniowość zmiecie z piedestału z dnia na dzień. Najlepszym dowodem na to o czym mówię jest IMHO Ageia PhysX. Kiedy ta karta się pojawiła wszyscy mieli strunę ze śliny do samej ziemi. Oooo, przyszłość, PPU, ojej, ojej. A co się okazało? Okazało się, że PPU w komputerach graczy wcale nie stało się standardem, a właśnie procesory wielordzeniowe do spółki ze zunifikowanymi jednostkami przetwarzania w najnowszych kartach graficznych radzą sobie z fizyką równie dobrze. Jakiś czas temu, kiedy pojawiła się informacja o uruchomieniu pierwszego komputera kwantowego (który prawdopodobnie wcale nie jest komputerem kwantowym) pojawiły się też przewidywania (albo raczej marzenia), że za naście czy dziesiąt lat będziemy mieli kwantowe karty do pecetów zajmujące się AI. Brzmi jak SF (albo raczej – to jest SF) i rozpala wyobraźnię (przynajmniej mi się podoba 😉 ) ale też jest to gdybanie (i wcale nie większe niż przewidywania przyszłości CPU 😉 ). Więc co będzie? Pożyjemy zobaczymy. Może 256 bitowe, 1024 rdzeniowe procesory, a może zamknięta w szklanej bańce zielona ciecz o mocy obliczeniowej 10 razy większej od ludzkiego mózgu? Kto wie. . . . Ważne żeby było na czym grać i żeby gry były coraz lepsze. I żeby developerzy wreszcie zaczęli korzystać nie tylko z mocy obliczeniowej komputerów, ale też z własnych szarych komórek tworząc nie tylko coraz lepszą grafikę ale i coraz ciekawszy gameplay i nowe rodzaje gier. Bo w końcu na co nam grafika jak za oknem kiedy gramy ciągle w to samo od 10 lat?. . . Aha. Jeszcze jedno. Imho o pobór mocy nie musicie się aż tak bardzo martwić. Z tego co da się zauważyć jedną z najważniejszych rzeczy dla producentów sprzętu jest zmniejszenie ilości generowanego przez hardware ciepła. To się bezpośrednio przekłada na zmniejszenie ilości pobieranej energii. Przynajmniej ja tak to widzę 😉
<– CoppertopMasz rację co do procesorów ale zapomnieliście o jakże ważnym komponencie dla każdego gracza jakim jest karta graficzna. Tutaj tendencja jest taka, że większa wydajność = większy pobór mocy. O ile w procesorach udało się już okiełznać prądożerność to w przypadku kart graficznych. . . Popatrzcie. . . parę lat temu starczył zasilacz 350W, teraz minimum to 400W a najlepiej 450W. Przy czym większość graczy zabezpiecza się zasiłkami 500W. To chyba oczywista tendencja, prawda?Czy zatem nadchodzi zmierzch kart graficznych? Ile będzie jeszcze GeForce’ów? 9800, 10800,11800? Wielordzeniowość w procesorach = TAK. A w kartach graficznych? Co?
Nie wiadomo 😉 Ale jest pewne ograniczenie. Większy pobór mocy == większe grzanie. Obecnie układ chłodzący zajmuje już jeden cały slot. Na większy po prostu nie można sobie pozwolić. Zmniejszenie ilości pobieranej (a co za tym idzie i oddawanej) przez układ energii jest konieczne. Oczywiście do tej pory to było tak – zmniejszali ilość pobieranego prądu, ale jednocześnie śrubowali wydajność do tego stopnia, że tamte wysiłki stawały się niewidoczne. Ale to się musi zmienić i na pewno się zmieni. Po prostu producenci nie mogą sobie pozwolić na większą prądożerność.