To jsou odvazna tvrzeni. Vzhledem k tomu, ze tato redakce nedela zadne testy. Kdyz uz neco prebiram tak aspon pozorne ctu."RTX 3090 je ve hrách asi o 20 % výkonnější než GeForce RTX 3080 " Vetsina testu pro 4K se mota kolem 10 % (i PCtuning) do 14,15%.U mensi rozliseni vykon pada dolu.https://www.google.com/searchS tim CPU botleneckem to neni az tak jiste. Zjist se to da.Ovsem ne z techto testu zamerenych na GPU (neni jednoznacne).
Názor byl 5× upraven, naposled 26. 9. 2020 12:34
..a točej se tomu krámu ventilátory? B-] jejich featura 0rpm ničí karty, měl sem nejvyšší model - karta se ve 35°C ambient upekla do artefaktů.. koupil sem si nižší, a je poslední, protože ventilátory zapínám softwarově sám!!! 3-[
na vrm zvrchu 1060 se nedá udržet ruka, bezkontakťák ríká 55°C, ventilátor nic.. nebrat..$ nvidia-settings -a "[gpu:0]/GPUFanControlState=1" -a "[fan:0]/GPUTargetFanSpeed=32" Attribute 'GPUFanControlState' (k:0[gpu:0]) assigned value 1. Attribute 'GPUTargetFanSpeed' (k:0[fan:0]) assigned value 32.
...až na to že VRM, resp. mosfety jsou konstruovány na teploty nad 100°
Není nad radiátor v pc 😂 😂 a 8K? Leda ve snu, úplná zbytečnost, sotva umí 4K stabilně 😂
Tak to vás asi zklamu, ta grafika v 8K v pohodě zvládá 60 FPS. Mrkněte na video na Linus Tech Tips, kde to už vyzkoušeli.
Leda ve snu 😂 1600W zdroj a TDP nad 500W díky ale ne. 8K je k hovnu, neumí 4K 60fps stabilně, takže 8K 60fps už vůbec ne. Na nějaké fake DLLS nevěřím že by dokázalo výkon tak zvýšit.
Tuhle kartu si taky nebudou pořizovat noobové, aby na ní hráli Minecraft. Je určena hlavně pro profesionály (ať už profi hráči, tvůrci grafiky nebo pro machine learning), kteří nemají problém pořídit k top sestavě adekvátní zdroj. S tím 1600W jste trochu přestřelil, Nvidia k této kartě doporučuje 750W.
Ovšem Linusovi nestačil 850W Golf.
Zkuste mluvit k tématu.
Pokud vím tak Linus na Doomu DLLS neměl zapnutý https://www.youtube.com/watch a Marquez na Forze taky ne https://www.youtube.com/watch Dál bych upozornil, že samotná nVidia k RTX 3090 doporučuje 750w zdroj a naměřený peak na Guru3D byl 364w https://www.guru3d.com/articles-pages/geforce-rt... Prostě panrt - 8K je na howno, raytracing je na howno, a vůbec celá nVidia je na howno. Zlatá doba rasterizingu v 320x240, že jo 😀
Tak jako topení k bojleru dobrý, teď ještě přidělat k tomu tu nádrž na vodu a za hodinku hraní máte plnou vanu horký vody.
Zere to jako jeste pred kratkou dobou par zarovek, a jestli si myslite, ze s nimi vytopite vanu, ma pro vas druhy termodynamicky zakon nepeknou novinku.
Asi takhle, funguju s GTX 1080 Ti, která si v zátěži bere 250W. RTX 3090 si vezme 350W, což je o 40% víc. Podle userbenchmark.com je ovšem o 93% (Average Score) výkonnější, nemluvě o tom, že má víc než 2x tolik paměti. To mi přijde jako dobrý trade.
z 10 na 40 stupnov, 150litrov, nieco cez15 hidin
https://m.tzb-info.cz/tabulky-a-vypocty/97-vypo...
Já nechápu proč 3080 nemá aspoň 12 nebo 16 GB paměti. Já mam teď RTX 2070 Super s 8GB a ve 4K je to už dost limitující hodnota, třeba ve FarCry 5 když zaškrtnu v nastavení HD textury tak vyskočí využití VRAM na těch 8 GB a hra crashne, to samý další nastavení který zvyšujou využití grafický paměti. Teď u remasteru Crysis to samý, dam textury na max nastavení a bum, hra padne protože to vyskočí na těch 8GB. Takže pokud současný hry ve 4K zažíraj cca těch 8GB, tak 10GB na 3080 se mi zdá dost na hraně pro budoucí 4K gaming.Teď asi ještě ňákou dobu vydržim s tou 2070 i když je to na 4K hodně na hraně ten výkon a asi počkam až bude něco jako 3080 super nebo tak něco a daj tam aspoň těch 12GB paměti, protože nevěřim že 10 GB bude za pár let stačit a příští grafiku chci takovou aby fakt rozjela každou hru bez problému ve 4K a aby mi zase vydržela delší dobu, jako třeba kdysi GTX460, tu jsem měl 5 let, bohužel ten přechod na 4K je nutnej, FHD je nechutně rozpixelovaný na větší úhlopříčce a 1440p taky neni žádná hitparáda.
Názor byl 3× upraven, naposled 25. 9. 2020 20:19
souhlasim. Mam ted 1080, chci 3080, ale takto ne. To radej pockam. Mozna se neco ukaze. 12GB by mohlo stacit. Mam taky 4K monitor, hraji na FHD na plno nebo ted treba ve 4K fallout 4 na strerni az vyssi a da se to. ale chci hrat na plne, jak sem byl zvykly ve qhd rozliseni.
Víc paměti by bylo fajn, zatím jsem bez problémů, protože hraji ve 4k spíš starší hry a užívám si vysokých fps:) K fullHD bych se nerad vracel. Spíš se těším na 4k hraní na 120Hz...8k mi přijde na monitor skoro jako overkill, ale člověk si zvykne. Ale pro opravdu použitelnou virtuální realitu vidím 8k rozlišení jako rozumné minimum. S velkým FOV je to tak akorát pixelů, aby člověk zvládal číst rozumně velké texty a nepřipadal si jak stařec bez brýlí.
nvidii nejde o to aby si si mohol zahrat FC5 v HD ale o to aby si si kupil novu kartu :) Idealne vzdy ked vydaju novu radu
Vyjde pak "Super" varianta s 20 GB. Chtěj milknout nedočkavce, než AMD vydá svou GPU.
na vyssi nez 4K to rozhodne neni. Mozna to ani nebude stacit na vysoke detaily u 4K, s RT uz vubec ne. Stoji vam ty lzi za to?
Živě si to nevymyslelo, jenom řiká co píše nvidia. Každej rozumně uvažující člověk musí chápat že ten "8K gaming" je myšlenej tak že ta grafika to spustí v 8K a to je všechno, jeslti tam bude aspoň 30 FPS na low nebo medium tak to bude zázrak. Já mam teď 2070 Super a ve 4K je sice už většina her hratelná na medium až high, ale žádnej zázrak to neni, některý náročnější hry sotva přelezou 50 FPS, což je něco o čem bych v dobách FHD řekl že se to seká jak svině. 😀 Pokud je 3080 o cca 60% výkonnější než 2070 super, tak to znamená že je to asi první grafika pro solidní 4K hraní, jeslti má 3090 + dalších asi 20% tak je jasný že na 8K hraní je to nesmysl.
pockat, pockat. Zive vylozene pise, ze to je na 4k-8k hrani. To pise zive. Nvidii bych do toho VUBEC netahal. Jeji velkohuba prohlaseni jsou jina kapitola.
..když to vemeš matematicky tak 4k je 4x dlaždice fullhd.. na to ti +30% nebo +60% výkonu nepomůže, spíš +200% nebo +400% B-]
A na to jsi přišel jak?
precetl jsem clanek
Doufejme, že AMD představí kartu, která zvládne alespoň FullHD, když Nvidie dává levou zadní 4k a začíná pošilhávat po 8k. B-]
Lamacko ty plusy si naklikavas sam? To uz je docela smutny hochu
Ne naklikávám si mínusy, aby si AMD idioti nemysleli, že jsou v tom sami. B-]
Názor byl 2× upraven, naposled 25. 9. 2020 20:17
ha. ha. noobe. B-]
4K urcite v pohode nedava. Ale u AMD to bude jeste horsi
Není nad to si pořídit do počítače nefunkční krám 😂😂https://www.notebookcheck.net/Low-quality-capacitors-co... Ale co chtít po Nvidii že 😂
Až na to, že se tam přímo píše, že nVidia používá kvalitnější MLCC 😝 Myslím, že by bylo vhodno naučit se číst a přestat aspoň na měsíc sledovat militantní fanatiky jako je Belka a Stach u kterejch už je to diagnóza 😉
Potvrďte prosím přezdívku, kterou jsme náhodně vygenerovali, nebo si zvolte jinou. Zajistí, že váš profil bude unikátní.
Tato přezdívka je už obsazená, zvolte prosím jinou.