matox01
23. 12. 2010 • 1:50

přesně vím pry tehdy nevídaných 6500 jo jasne já ji vroce 2007 kupoval za 7,5k Gainward BLISS 8800 GT 1G 600/900 (G92)
samozřejmě nemužu si pomoct taky my ji připomíná ale cenou to rozhodně nebude za tu bych mel dnes AMD 6950
ta uvaha Nvidie že se mění 8800 po 3 letech je absolutní pravda jelikož v té době co jsem do toho vrazil tolik penez jsem kupoval uplně novou sestavu a dnes už se poohlížím jen po komponentách na upgrade a vydím to na MSI GTX460 Hawk Talon Attack a nebo počkat na 560ky :)

EuGenio
14. 7. 2010 • 15:12

Jenom by mě zajímala u článku uváděná "praktická využitelnost" GPGPU Physx a CUDA. Vlastně zatím snad neexistuje hra, která by při použití Physx přes GPU přinášela něco navíc, než umí (pokud není nVidií úmyslně znemožňováno) Physx na vícejádrových procesorech. Využitelnost CUDA pro běžného uživatele je také diskutabilní. Navíc ATi staví proti těmto proprietálním technologiím alternativy (STREAM, OpenCL, Havok, ..), takže hovořit o nějaké "výhodě" bych se rozhodně zdráhal.

Adam Vágner
14. 7. 2010 • 17:52

Pominu-li původně proprietární Stream, neřekl bych, že ATI staví proti CUDA a PhysX otevřené alternativy, spíš jejich existenci dovedně využívá ve svých prezentacích a předhazuje je coby konkurenta pro technologie Nvidie (paradoxní je, že všechna tato "konkurenční" řešení fungují stejně dobře na Nvidiích). Živě si vzpomínám třeba na vlnu nadšených článků o tom, jak Nvidia má PhysX a ATI bude mít jako konkurenta Bullet a jak tuto iniciativu podporuje, zmínky o OpenCL Havoku na ATI se taky vynořily někdy před více než rokem a zase se o tom tak nějak přestalo mluvit. Posledním majstrštykem je podpora 3D technologií coby konkurence pro 3D Vision, která taky při prezentacích u příležitosti uvedení Cat. 10.2 a 10.3 vyzněla v duchu "my už také zvládáme stereoskopické 3D stejně jako Nvidia". Jen je k tomu taky tak trochu potřeba software třetích stran.Jestli tohle http://www.youtube.com/user/Zogrim... není praktické využití GPGPU PhysX a něco navíc (na rozdíl od nevyužitelných techdem, kterými by nás výrobci, pokud by Nvidia nesežrala Ageiu, asi krmili dodnes), tak už nevím. Speciálně bych pak vypíchl PhysX trailer pro Mafii 2: http://www.youtube.com/watch... (i když u toho zatím nikdo s výjimkou pár vyvolených neví, jak moc se bude verze s CPU PhysX a GPU PhysX lišit).Co si budeme povídat, spíš je to tak, že majitelé GeForce jsou za PhysX docela rádi, a majitelé Radeonů si namlouvají, že jim vůbec nechybí a nepotřebují to, protože to přeci pořád jde hrát i bez těch trapných efektů (a že v Nvidii jsou hnusáci, protože PhysX optimalizují pro vlastní GeForce a PhysX, a už se tolik nezajímají o to, jak chodí v CPU režimu a nepředělají a neodladí jej i pro konkurenční Radeony, a že nechtějí ručit za to, že to bez problémů poběží, pokud budou mít na 3D jako primární kartu Radeon).

EuGenio
14. 7. 2010 • 20:38

Proč asi fungují featury z ATIn i na nVidiích? Právě proto, že to nejsou proprietální technologie a tak je může podporovat i nVidie.Jinak podobná techdema jako na Physx se dají nalézt i na Havok či Bullet - čili Physx není nic, co obdobně hardwarově nezvládaly i Radeony - chybí pouze podpora v software a u herních vývojářů.Nechápu poznámku o Mafii 2. Když snad krom vývojářů nikdo neví, jak a zda-li vůbec se bude Physx přes CPU lišit od Physx přes GPU.

EuGenio
14. 7. 2010 • 21:03

Jinak aby nedošlo k mýlce - proti physx v zásadě nic nemám, spíše mi přijde, že se v poslední době (shodou okolností, když high-end nVidie není nic moc) až moc přeceňuje.Měl jsem možnost hrát hry s Physx i bez něj, a pouze výjimečně jsem si všiml rozdílu (i když tam samozřejmě jsou), když jsem ho přímo nehledal.Ona je třeba zajímavá statistika, kolik herních titulů vychází s tím či oním fyzikálním enginem a potom, jaké hodnocení jednotlivé tituly dostávaly od recenzentů: http://physxinfo.com/articles/...

Adam Vágner
14. 7. 2010 • 21:17

Obávám se, že fungují právě proto, že to povětšinou nejsou featury z ATIn, ale produkty třetích stran, jejichž existenci ATI v marketingu obratně využívá (a v lepším jejich výrobcům aspoň nějak vychází vstříc) :) Chyba je právě v tom, že hardware to umí, ale i přes otevřenost ATI a všech formátů samo od sebe zatím nějak nic moc nevzniká na rozdíl od PhysX ani nějak není vidět, že by to mělo mít na hry nějaký dopad. GPGPU PhysX se aspoň nějak používá a ještě nějaký čas se používat bude nejen u béčkových titulů.Co se Mafie týče, ví se tohle:http://www.doupe.cz/default.aspx... a je tam jmenovitě jeden speciální chlívek:Grafické karty a rozlišení: APEX nastavení na highMinimum: NVIDIA GeForce GTX 470 (či lepší) pro grafiku a dedikovaná NVIDIA 9800GTX (nebo lepší) pro PhysX
Doporučeno: NVIDIA GeForce GTX 480 pro grafiku a dedikovaná NVIDIA GTX 285 (nebo lepší) pro PhysX
NVIDIA GPU driver: 197.13 či novější.
NVIDIA PhysX driver: 10.04.02_9.10.0522. Přiložen a automaticky nainstalován při instalaci hry.ze kterého bych předpokládal, že se nějak lišit bude. A s ohledem na to promo video doufám, že už bude podpora PhysX v Mafii znamenat víc, než jen nějaké naskriptované destrukce, poletující papíry nebo hadry, které někde někdo na něco pověsil jen proto, aby se tam něco třepotalo, aby ta lepší fyzika byla aspoň někde vidět. :)

EuGenio
14. 7. 2010 • 21:29

V tom odkazu je hned v hlavičce zajímavá větička: "... Nejsou (hardwarové nároky) nikterak zásadně krvavé, pokud tedy nebudete chtít PhysX efekty, pokud ano, připravte si dvě grafické karty. ..."Tomu odpovídají chlívky:Grafické karty a rozlišení: APEX nastavení na medium
Minimum: NVIDIA GeForce GTX 260 (či lepší) pro grafiku a dedikovaná NVIDIA 9800GTX (nebo lepší) pro PhysX
Doporučeno: NVIDIA GeForce GTX 470 (nebo lepší)A ten vámi citovaný:
Grafické karty a rozlišení: APEX nastavení na high
Minimum: NVIDIA GeForce GTX 470 (či lepší) pro grafiku a dedikovaná NVIDIA 9800GTX (nebo lepší) pro PhysX
Doporučeno: NVIDIA GeForce GTX 480 pro grafiku a dedikovaná NVIDIA GTX 285 (nebo lepší) pro PhysX Čili podle toho to vypadá, že s jedinou GTX460 bude moci člověk zapomenout u Mafie 2 i na PhysX efekty nastavené na MEDIUM, na nastavení HIGH na to nebude stačit ani samotná GTX480.Čili to vypadá, že ceklový přínos podpory PhysX u GTX460 ve hře Mafia 2 je více než diskutabilní.

Reakce pod tímto příspěvkem se už neodsazují.
Adam Vágner
14. 7. 2010 • 21:48

S váma je to taky těžký... Když je efektů málo, je to špatně, protože by se to dalo počítat na CPU (a proto je přínos diskutabilní), a když je jich moc, je to zase špatně, protože na to pomalejší GPU nestačí (a proto je přínos diskutabilní) :)Když vylezly ty požadavky, GTX 460 ještě oficiálně neexistovala, takže bych si na základě těchto specifikací netroufal rovnou ji odstřelit jako nepoužitelnou. Navíc je GTX 470 doporučená (což obvykle znamená že má při daném nastavení nějakou rezervu, ne že se to plácá na hranici hratelnosti) :)Každopádně musíme počkat, jak to dopadne, protože tady a teď to s tím co se ví stejně nerozsekneme.

EuGenio
14. 7. 2010 • 22:26

OK, možná, že to s GTX460 nepojede na medium ale na LOW ano. A v té hlavičce nad požadavky se přímo psalo (možná nadneseně, možná ne), že na PhysX budou potřeba dvě karty. A co se týče přínosu přes CPU a GPU - proč to nejde prostě tak, že na PhysX bude možné využít libovolný počet procesorových jader (v neupraveném PhysX lze využít pouze jedno, i kdyby se v kompu "válelo" 30 nevyužitých jader) a v případě přítomnosti GPU s podporou PhysX použije primárně tato? Nebo proč nelze oficiálně (pomocí ne zas tak složitých hacků to údajně jde) použít PhysX kartu v kombinaci s libovolnou jinou (např. HD5870 v kombinaci s GT240 na PhysX)?Zkrátka proto, aby mohla nVidia používat PhysX jako marketingovou páku. Zkrátka člověka trochu naštve, když mu něco, co by zvládla volná jádra v počítači, nefunguje - protože je to softwarově nVidií zakázané - jenom proto, aby se lépe prodávaly grafické karty.

Adam Vágner
14. 7. 2010 • 23:15

Vyrozuměl jsem, že to, že PhysX ve hrách nevyužívá vícejádrové procesory není vina Nvidie (a už vůbec ne nějaké záměrné omezování), ale chyba herních vývojářů, kteří se o to nestarají. Třeba ve 3DMark Vantage PhysX na více jádrech odjakživa běžel a běží – viz post na blogu jednoho z členů původního Ageia týmu http://blogs.nvidia.com/ntersect/2010/01/physx-th... ... Není to jen pomocí hacků, nějak to chodilo i s nedávnou veřejnou betaverzí nějakých ovladačů řady 25x, protože to Nvidia před vydáním (možná opomenutím) nezakázala. Ale byly a jsou s tím pořád problémy (to, že se někomu z nějakého fóra podaří rozchodit na tom nějak tři hry neznamená, že je to v pořádku, funguje to a může se to prodávat).Oficiálně (dle vyjádření Nvidie) PhysX s ATI neběží, protože na tom nemá zájem ani samotné AMD. Pro Nvidii by podpora různých (údajně asi 25000) scénářů kombinace software a ATI + Nvidia na PhysX znamenala další vysoké náklady na vývoj, testování (které je nutné pro schvalování ovladačů), podporu a odpovědnost za případné problémy. Taky je nutné, aby na to měla k dispozici připravovaný hardware v předstihu ještě před uvedením (představa, že by ATI Nvidii půjčovala chystané grafiky několik měsíců před uvedením, vypadá dost komicky). Řekl bych, že by majitelé ATI dost škaredě řvali, kdyby si k novému Radeonu pořídili "PhysX" kartu od Nvidie a z nějakého důvodu (a ne nutně právě kvůli chybě Nvidie) by jim to nějak blblo nebo nefungovalo.

EuGenio
14. 7. 2010 • 23:55

No, můžeme se dohadovat do nekonečna - netvrdím, že nemáte pravdu, ovšem zakládat tvrzení o grafikách a PhysX na "oficiálních vyjádřeních nVidie" mi nepřijde zrovna jako zrovna objektivní.Navíc vůbec mi nejde do hlavy, jak by za nemožnost PhysX na více jádrech mohli herní vývojáři, když PhysX je proprietální technologie nVidie. Nedovedu si představit, že nVidia jen tak a zdarma poskytne vývojářům zdrojáky PhysXu a řekne jim "implementujte si podporu více jader"Navíc v dalším odstavci píšete, že to v nedávných veřejných ovladačích bylo povoleno - čili žádní herní vývojáři, ale sama nVidia podporu více jader zamyká.A o té "nespolupráci" s konkurenčními grafikami si taky myslím svoje - vždyť původní AGEIA PhysX byla koncipovaná jako přídavná karta spolupracující prakticky s jakoukoli grafikou, takže dobrý základ tam jistě bude. Nehledě na to, že mezi sebou bez jakýchkoli problémů v tandemu Grafika+PhysX karta koexistují prakticky jakékoli dvě nVidie nejrůznějších typů a generací.

Adam Vágner
15. 7. 2010 • 0:43

Aha, chyba. Pletete dohromady dvě věci. Podporu vícejádrových procesorů CPU PhysX měl a má, to není něco, co by se muselo dodělávat. Když to vypíchnu přímo z toho blogu od jednoho z lidí, co stáli za PhysX, když o nějakém sežrání Nvidií neměli tucha :"Our PhysX SDK API is designed such that thread control is done explicitly by the application developer, not by the SDK functions themselves. One of the best examples is 3DMarkVantage which can use 12 threads while running in software-only PhysX. This can easily be tested by anyone with a multi-core CPU system and a PhysX-capable GeForce GPU. This level of multi-core support and programming methodology has not changed since day one."Tedy záleží jen na vývojáři hry, zda a jak si rozvrhne kód tak, aby běžel ve více vláknech. V tomhle ohledu nemám důvod mu nevěřit.Druhý odstavec (Není to jen pomocí hacků, bla bla bla...) už se týká varianty ATI na grafiku + GeForce na fyziku a toho, že to teď tak někdy fungovalo, ale opět je to zamčeno.Původní AGEIA tak byla koncipovaná, ale nebylo třeba řešit současný běh ovladačů a grafik dvou různých výrobců (což je třeba ve Win Vista docela velký problém), běželo to na nezávislém akcelerátoru, a tehdy také nic nebránilo tomu, aby měla AGEIA na testy zavčasu k dispozici potřebný hardware s potřebným předstihem.To, že spolu dokážou spolupracovat prakticky jakékoliv dvě Nvidie, které Nvidia zná do posledního tranzistoru a posledního řádku kódu ovladačů a má je kdykoliv k dispozici, neznamená, že to automaticky stejně dobře pojede i pohromadě s cizím hardwarem a s cizím softwarem.

EuGenio
15. 7. 2010 • 10:46

Jak jsem psal, možná se mýlím já, ale ani z vámi uváděných citací nejsem zrovna chytrý, viz: "One of the best examples is 3DMarkVantage which can use 12 threads while running in software-only PhysX. This can easily be tested by anyone with a multi-core CPU system and a PhysX-capable GeForce GPU."Když tuto větu přeložím (i v kontextu s celým vámi citovaným odstavcem), tak to vlastně říká, že na "vyzkoušení" softwarového PhysXu (tedy přes CPU) na více jádrech je potřeba vícejádrový procesor (aby taky ne) a (!!) GeForce karta podporující PhysX! Otázkou tedy je, co z toho je pravda.A pak tu jsou vyjádření samotné nVidie o tom, že by nebyl problém přepsat PhysX do OpenCL, čiže umožnit funkčnost i na konkurenčních Radeonech. Ovšem to se prý nevyplatí, neboť Radeony jsou prý tak nevýkonné a zastaralé, že by PhysX stejně nezvládly.Jináč musím tedy připustit, že API PhysXu pro procesory využití více vláken umožňuje, ačkoli se o multi-threading musí postarat "ručně" vývojář, neboť API pro CPU toto samo neudělá, i když původní API pro AGEIA karty a API pro CUDA s tím vůbec žádný problém nemá.Pro uživatele asi škoda, že nVidia jde zrovna cestou použití PhysX jako marketingové páky, na kterou tlačí o to více, o co jsou její karty horší než konkurence (GTX480/470/465). Ovšem na druhou stranu je to vše v rámci pravidel konkurenčního boje. Nezbývá než doufat, že se objeví nějaký kvalitní fyzikální engine (i když HAVOK má u vývojářů prakticky stejnou oblibu a frekvenci použití jako PhysX), který poběží třeba na OpenCL, tedy jak na nVidiích, tak na ATinách

Mr.Tuvok
14. 7. 2010 • 9:19

U NFS Shift máte chybný graf. Průběhy asi sedí, ale ten druhý je ze Stalkera. Jak může být průměr 22 fps, když se to celou dobu drželo kolem 60

Adam Vágner
14. 7. 2010 • 18:32

Njn, to je ten komfort práce s grafy v Excelu. Díky, mělo by to být opraveno.

AboutAll.cz
14. 7. 2010 • 7:32

Konečně nějaké pozitivní zprávičky od nVidia Jen tak dál, ať si mám tenhle rok co koupit při upgradu

Martin Polacky (bugx)
13. 7. 2010 • 16:04

Muj stary PC AMD X2 4800+, 4GB RAM a GPU nVidia 8600 GT ma rocne spotrebu 800-900kWh.
Pritom cela domacnost, byt 3+1 o 3 lidech, lednicka cca 7 let stara, pracka 3 roky stara a usporne zarovkyv kazde mistnosti, mikrovlnka, komb. sporak + 2 LCD TV a automatickou regulaci jasu a tim rizeni spotreby el. energii ma spotrebu 2,2MWh/rocne. Takze muj takto pomaly PC pri provozu 5-7 hodin denne a cca. 25 dni v mesici ma 36% z celkove spotreby elektriny.Kdyz koukam na spotrebu techto grafickych karet... asi bych se dostal na 50-60%... takz eprovoz PC by me stal 6000-7000 tisic. :-/

Adam Vágner
13. 7. 2010 • 17:01

Pozor, dost to visí na tom, v jakém režimu ta grafika poběží. Karta sama o sobě bez zátěže (teda ve stavu, ve kterém se vyskytuje po většinu času) zase tolik nesežere (20-30 W), tady dělá hodně samotná testovací sestava.

Martin Polacky (bugx)
13. 7. 2010 • 21:38

Vzdyt v grafu je uvedena spotreba pri praci ve Windows... Prave ze s PC pracuji... nezapnu PC a nenechavam ho bezet jen tak...

Adam Vágner
13. 7. 2010 • 22:16

Ne, jde o to, že je tam přetaktovaný Core i7 Extreme s čipovou sadou X58 s vypnutými úspornými funkcemi, který takhle jak je žere i s kartami se spotřebou pod 10 W nějakých 170 W, podstatně víc, než běžná sestava.S běžným 32nm Pentiem G6950 nebo Core i3/i5 s integrovanou grafikou a funkčními úspornými technologiemi se dá dostat na 40 - 45 W, při osazení nějaké levnější grafiky se to pak dostane na 55-65 W + spotřeba LCD při běžné práci (surfování, office), a tam už ten dopad na spotřebu elektriky není tak dramatický, jak by to z grafů mohlo vypadat.Taky tím ale nechci říct, že je to za hubana, počítače hýbou elektroměry postižených domácností asi nejvíc.

Martin Polacky (bugx)
14. 7. 2010 • 8:45

diky za vysvetleni

kingjim
13. 7. 2010 • 16:02

Řekněte mi prosím někdo, co to je: Stone Giant BenchmarkDíky

Adam Vágner
13. 7. 2010 • 17:23

http://www.youtube.com/watch... TechDemo na herním enginu, který dokáže slušně využít teselátor a snad se objeví i v nějakých hrách.

julo9
13. 7. 2010 • 14:48

to co je za paskvil tento test, nvidia zaplatila? alebo sa jedna o ucelove zavadzanie

Joint007
13. 7. 2010 • 13:52

Nvidii bych si teda nikdy nepořídil, zlatý ATIny(AMD).

benetti
13. 7. 2010 • 15:01

Já teda pořizuju to, co je zrovna nejlepší (poslední PC z září 2009 - GTX 275). Kdybych kupoval teď, byla by to zase ATi.Kdo je závislej jenom na 1 značce škodí sám sobě

Joint007
13. 7. 2010 • 15:09

Až začne nvidia psát pořádný ovladače co alespoň rozeznaj jakej jazyk se jim posílá, tak si jí možná pořídim, ikdyž budu mít morální dilema z toho že je nvidia jako intel, omezuje konkurenci. Jinak nevidím důvod proč se neomezit jen na AMD, když mi vždy poskytlo lepší poměr cena/výkon.

Anonymizovaný
15. 7. 2010 • 10:51

zajimave ... to ja si naopak myslim, ze s kvalitou ovladacu je na tom mnohem lepe nVidia ...

Joint007
15. 7. 2010 • 13:04

To co funguje na ATI, bude fungovat na nVidii, naopak ne, jejich GLSL kompilátor je stejná prasárna jak MSVC. ATI má alespoň striktní implentaci přesně podle specifikace, tak je radost v tom vyvíjet, alespoň tedy v OpenGL. ATI alespoň popíše zařízení, ale nVidia to vyrábí snad pomocí magie.
A proč na ATI vycházejí patche? Kvůli nVidii. Studio hru vyvíjí a testuje na nvidii, která jim dovoluje psát prasárny typu zápis do varying proměnné ve fragment shaderu, a když to pak lidi spustí poprvé na ATI, tak se shader nezkompiluje a driver je s tím pošle do p*dele, a proto pak studio musí hnedka vybalit patche, aby to šlo i na ATI.
NVidia driver je taková děvka, že to ani nemá obdoby, když do GLSL kompilátoru v nvidia driveru pošlete GLSL program, tak ho to zkompiluje (nečekaně), ale když mu pošlete Microsoft DX HLSL program (úplně jinej jazyk), tak ho zkompiluje taky, a ani nevypíše warning.Myslet znamená ho*no vědět.:)

Reakce pod tímto příspěvkem se už neodsazují.
matox01
23. 12. 2010 • 2:08

no z tím vývojem her za doprovodu Nvidie taky nesouhlasím AMD neustále vede co se týče pomeru vykon/wat/cena
ale i přesto si znovu po tech letech z 8800 koupím Nvidii protože je taková svině a cpe si technologie ktere AMD nezvládá do her (PhysX)
jasně pak je tu odpověd že PhysX není zas tak rozšířené abych kvuli tomu musel kupovat Nvidii
ale co kdyby blíží se rok 2011 a vyjde náká nová pecka z nevídanými fizikálními efekty a ejhle pojede na PhysX

julo9
13. 7. 2010 • 15:06

pri 8800GT sa da o tom uvazovat, ale toto nie je ziaden nastupca, spotreba ako 5850 na terajsie nvidie super
na rozdiel od 8800GT ktora mala vykon skoro 2x drahsej 8800GTX a mala aj daleko lepsiu spotrebu
o tejto sa da povedat iba ze ma lepsiu spotrebu a najvyssej rade sa vykonom ani nepriblizuje preto ju prirovnavat ku GT je totalna blbost ked je od 470 o 40% pomalsia

Adam Vágner
13. 7. 2010 • 16:55

8800GT a 8800 GTX dělil rok vývoje, optimalizace a odlišný výrobní proces. 460 GTX vylezla dva a půl měsíce po GTX 480. Není pravda, že by 8800 GT měla výkon 8800 GTX, byla o nějakých 15 % pomalejší, než 8800 GTX, a o 30 % pomalejší než tehdejší top model 8800 Ultra.GTX 460 mi oproti GTX 470 vychází v průměru asi jen o 18 % pomalejší (a nejsem v tom sám), nevím, jak jste přišel na 40 %. Při přetaktování se na ni prakticky dotáhne.

Určitě si přečtěte

Články odjinud