Informacja prasowa, która towarzyszyła ogłoszeniu zamiaru przejęcie firmy AGEIA przez Nvidię była króciutka. Wynika z niej, że światowy lider wiecie dobrze jakiej branży a na dodatek firma, która wymyśliła GPU (sic!) podpisała właśnie porozumienie w sprawie przejęcia AGEIA Technologies – światowego lidera technologii, odpowiadających za działanie fizyki w grach. Co to oznacza dla nas? Prawdopodobnie to, że pieniądze, które wyłożycie na nadchodzącego „demona prędkości” od Nvidii będą w zasadzie wyrzucone w błoto. Można się spodziewać, że już następna karta graficzna firmy będzie miała na pokładzie oddzielny, mocny procesor służący do generowania/obliczania działania fizyki w grach. To oczywiście wróżenie z fusów, ale nie zaskoczy nas taka nowina. A wy – czego spodziewacie się po połączeniu tych dwóch korporacji? Zostawcie po sobie ślad pod newsem. Komentujcie.
Pewnie będą do kupienia normalne karty graficzne z owym układem na pokładzie. A w przyszłości, AGEIA w wymaganiach minimalnych w grach.
Wydawało mi sie że AGEIA należy do ASUSa, widoczne złe mi sie wydawało. . .
Imo raczej podrasuja technologie i „upchna” w jednym chipie razem z GPU. Montowanie dodatkowego procesora na karcie to duze koszty. . . bardziej skomplikowane PCB, wieksze wydzielanie ciepla, wieksze zapotrzebowanie na prad itp Przeskoczyli niedawno na 60nm wiec miejsca sie wiecej zrobilo. Czasu tez pewnie im troche zajmie zanim zobaczymy jakikolwiek produkt z technologia AEGIA od Nvidii. . . moze akurat do czasu przesiadki na 45nm?silent – Asus zrobil karte z procesorem AEGIA ale to dwie niezalezne od siebie firmy (to tak samo jak Asus, Gigabyte, MSI i inni robia karty z procesorami Nvidii/ATI)Tak czy inaczej wielkim wygranym jest tu AEGIA. Zrobili niezly produkt, ktory nie oszukumy sie nie byl hitem sprzedazy i powoli odchodzil w zapomnienie. Wykupienie przez Nvidie zapewne da im duzo wieksze mozliwosci.
bylo kiedys porownanie , jakis test gry ktora obslugiwala PhysX od AGEII. Oczywiscie test byl wymyslony w ten sposob ze te same scenki byly odtwarzane przy uzyciu karty do obliczen fizyki, jak i bez niej, i wyszlo na to ze procesor sobei doskonale radzi sam z obliczaniem fizyki , a jesli roznice sa, to baaaaardzo niewielkie. Istnieje pewna obawa ze , jak juz kolega nakokuba napisal, AGEIA bedzie wymaganiem w przyszlych grach, gdzie przeciez ATI+AMD nie posiadaja takiej technologii, ale raczej producenci gier nei beda soebi specjalnie podcinac skrzydel ( dochodow;] ) i ograniczac sie tylko do posiadaczy kart NVidii
Qki i dlatego tez wydaje mi sie, ze Nvidia raczej zaadoptuje technologie na swoje potrzeby. Jasna sprawa – po co wymyslac na nowo technologie skoro ktos juz ja ma i do tego mozna tego kogos wykupic. Nie zapominajmy, ze AEGIA to nie tylko dedykowany hardware. Przeciez silnik fizyki tej firmy juz kilkukrotnie pojawial sie w grach nie wymagajacych dedykowanego PPU (cos jak konkurencyjny Havok). Moze sie wiec okazac, ze kupujac nowego Geforce’a jako „bonus” dostaniemy lepsza wydajnosc w grach uzywajacych tej technologii (co nie znaczy, ze bedzie to wymagane do odpalenia gry). ATI tez pracuje nad sprzetowa akceleracja fizyki przez GPU (zapowiadany Havok FX). Martwi tylko to, ze zamiast sie dogadac i ustanowic jakis standard moze sie okazac, ze bedziemy mieli Nvidie i akceleracje AEGIA vs ATI z akceleracja Havok FX co jeszcze bardziej podzieli rynek :/ No ale wiadomo jak jest. . . kazdy ciagnie w swoja strone byle tylko profit byl odpowiedni.
sorry za nastepny post ale sie edycja skonczylawlasnie znalazlem takie info na benchmark.pl odnosnie tego tematu:
Tak wiec Nvidia jasno zapowiada akceleracje PhysX przez swoje GPU a nie montowanie dodatkowego PPU na swoich kartach.
Nie do końca. Przyspieszona przez swoje GPU nie oznacza, że nie przyspiesza on drugiego procka (przez zwalnianie mocy). Nie jestem tech-ninja więc nie krytykujcie za bardzo jeśli źle kombinuje. Cherub rozumiem Twój tok myślenia, ale nadal moim zdaniem nie jest to takie jasne. Zresztą znając Nvidię i te ich GT, GTX, GTS czy inne cuda, może się okazać, że pod koniec roku w sklepie znajdziesz „zwykłe” karty i potwory za kupę kasy z dodatkowym procem – wiesz wyciągać kasę od ludzi trzeba a na pewno ktoś się skusi na topową wersję GF 10800 GTphysXA(geia).
czekam na firmę, która wymyśli osobną kartę z procesorem wspomagającym grywalność. :)Może w końcu będzie jakiś graficzny przełom na miarę pojawienia się shaderów w direcX, bo dX10 nic nie pokazała, może w końcu pojawi się symulacja cieczy i tym podobne.
Ja mysle, ze bardziej chodzi o ubicie konkurencyjnej karty. Z tego co kojarze, panowie z nvidii od jakiegos czasu planuja fizyke na swoich gpu i wykombinowali sobie, ze bedziemy w systemie instalowali dwie karty, z ktorych jedna bedzie odpowiedzialna za grafike, druga za fizyke. A po co pieniazki maja plynac do agei, skoro moga do nvidii? Stad moze sie okazac, ze dalej bedziemy musieli placic za dwie karty. Albo, jak pisze Katmay dostaniemy do wyboru zwykle karty i te ze wspomaganiem fizyki, tyle ze drozsze. Jedno jest pewne. Nic nie bedzie za darmo 😉
Cura to o czym piszesz to wymyslila ATI z ich CrossFire i chodzi o akceleracje HavokFX
Havoka kojarze, ale wydawalo mi sie, ze nvidia tez chwalila sie takimi planami jakis czas temu. . . A jak namieszalem, to przepraszamm 😉
Co za czasów dożyliśmy. Żeby komputer wkładac do komputera. Przecież taka karta graficzna sama w sobie to kopmuter z GPU i własną pamięcią RAM. Ech, piekło i szatani. 😉
Nie wiem czy jest sens z dodatkową kartą fizyki. W niedalekiej przyszłości procesory wielordzeniowe [(X2-już jest), (X4- już jest, X8, X16]* będą codziennością i w zupełności te dodatkowe rdzenie przydadzą się do obliczeń fizyki. Karty graficzne niech się zajmą grafiką a Nvidia i ATIAMD nowymi jeszcze bardziej wydajnymi GPU i kropka :P. * przykładowe nazwy procesorów mówiące ile mamy rdzeni w samym procku
NVidia rośnie w siłę. Oni kombinują coś naprawdę potężnego, a świadczą o tym właśnie 2 ostatnie wydarzenia. Drugim jest kupno technologii AGEIA, a pierwszym, może nawet ważniejszym jest zakup firmy Mental Images, producenta jednego z najlepszych rendererów na świecie – Mental Ray’a. Momentalnie zaowocowało to ulepszeniem i szybszym wydaniem softu pod nazwą Mental Mill. Służy on do wizualnego budowania realtimowych shaderów. Koderzy już nie muszą zawracać sobie głowy zaleceniami grafików. Oni sami mogą wizualnie zbudować shadery jakie tylko chcą i jednym kliknięciem skompilować je do rozkazów GPU. Dodatkowo zobaczymy jeszcze jak posuną się prace nad samym Mental Rayem.