Furry.cz
|Texty|Obrázky|Členové|Furry FAQ|Forum|
PC Církev   (3560)
PC církev neboli pocitacova cirkev je jen alternativa pro krestanstvi. ja osobne nejsem krestansky ani jinak nabozensky zalozenej. jde tu ciste jen o prdel. pokud by nekomu vadilo nebo si myslel ze si delam srandu z krestanske cirkve tak mi prosim dejte vedet a toto forum bude zruseno neminim se nekoho dotknout.
 
na stránku
Poslat zprávu uživateli Wolferine
Wolferine      ---   10:39   04.12. 2014 
doporucuji se mrknout na podporovane procaky u tvoji desky, vyrobci to mivaj na webu
Poslat zprávu uživateli Zaatharen
Zaatharen      ---   15:00   03.12. 2014 
Je tam kompatibilita, Phenom ti na AM3+ pojede normálně. AM3+ je hlavně pro AMD FX procesory + má lehce rychlejší HT, jediný zásadní rozdíl je tedy podpora FX procesorů. Pokud ti Phenom stačí a nemáš naprosto dementní desku, není třeba upgrade na AM3+
Poslat zprávu uživateli Olven
Olven      ---   14:54   03.12. 2014 
Moc se v tom nevyznám, jaký je rozdíl mezi paticemi procesorů AM3 a AM3+? Jde o nějaké zásadně odlišné patice nebo je tam nějaká kompatibilita? Onehdy jsem si pohrávala s myšlenkou lehčího upgradu (kterou jsem zavrhla, zatím mi to ještě stačí, ten můj Phenom je asi nesmrtelnej) a koukala jsem, co mám v piksle a co se teď dělá.
Poslat zprávu uživateli cermi
cermi      ---   14:08   03.12. 2014 
Zaath: nevím, jak moc si s tím dělal, ale to je propagační teorie :) V praxi to rozhodně nebude fungovat tak, že vezmeš normální algoritmus a otrocky přepíšeš do OpenCL. Spíš naopak - vyvineš to pro GPU a jsi schopen to pustit i na CPU. Protože zatímco CPU má několik málo (desítky typicky) _samostatných_ jader, tak GPU má sice tisíce, ale zato naprosto nesamostatných jader, kdy je potřeba aby všechna jádra (dnes to možná jde nějak segmentovat) dělala to samé, jen na jiných datech. Taková vektorizace, jen o několik řádů výše. Pokud se to nějak rozjede (například půlka jader skočila na podnímce jinam a už se to nesesynchronizovalo), tak jde i výkon do kytek. Napsat algoritmus, aby se takhle masivně paralelizoval a škáloval je docela složité; zrovna třeba u těch hashů to jde dobře, ale těch problémů není mnoho (relativně).
"Pusť to na GPU" je asi tak stejně hezký rozkaz jako "Zapmi SEO" nebo "Odmraz tramvajové vedení" :-)
Poslat zprávu uživateli Zaatharen
Zaatharen      ---   10:56   03.12. 2014 
Však o OpenCL jsem psal, nějaká optimalizace na úrovni HW může mít smysl u specifických zařízení, či superpočítačů, ale spíš to bude OpenCL.
Poslat zprávu uživateli Tigu
Tigu      ---   10:52   03.12. 2014 
Poslat zprávu uživateli Zaatharen
Zaatharen      ---   10:51   03.12. 2014 
Právě proto existuje OpenCL akcelerované GPUčkem, ten kód jde pustit i na CPU, ale GPU to udělá mnohem rychleji.


V práci se v divizi bezpečnosti výkonné Radeony HD5970 hodí, protože se tím skvěle lámou hashe, crackují hesla, apod. Navíc tahle generace má velmi dobrou děličku a vysoký výkon v DP, nové nvidie krom Tesla a některých Titan/Quadro karet mají DP dost přiškrcené a jsou na toto nevhodné. I u klasických Radeonů je DP přiškrcené než bývalo, ale ne tolik. To také u velkých čipů zvyšuje TDP a spotřebu, jelikož jsou aktivní části čipu, které nV ořezala na herní kartu. Na jednu stranu to může potěšit různé počtáře a CADisty, majorita si řekne nobody cares. A koupí si Zotac GeForce GT610 s 4GB DDR3 paměti na skoro 64-bit sběrnici, protože kurva jako 4GB paměti za pár stovek je něco! :D
Poslat zprávu uživateli cermi
cermi      ---   10:47   03.12. 2014 
OK, dík za doporučení.

Naopak, pro většinu byzyns aplikací nejsi schopen sílu GPU využít, protože je hodně specifická. Takže je mnohem lepší jet sice pomaleji, zato tam pustíš libovolný algoritmus a není třeba nějakých složitých úprav pro tu konkrétní technologii (případně pro konkrétní kartu). A nad libovolně velkými daty (i RAMky se daj počítat na TB). GPU má význam pro některé vědecké aplikace (a lámání hashů :) ), což jsou problémy na které mimo akademickou sféru a výzkumáky nenarazíš. A i v té akademické sféře je to na hraně - běžný fyzik si na koleni zbastní C++ appku a bude mu na CPU běžet. V životě by ale nedal programování na grafikách tak, aby to bylo aspoň trochu efektivní.
Poslat zprávu uživateli Zaatharen
Zaatharen      ---   09:52   03.12. 2014 
V roce 2005 to ještě byla ATi, AMD to koupilo v roce 2006 a nějaké významnější změny se začaly dít tak v roce 2008 co se grafické divize týče.

Co se týče nvidie, tak Gigabyte dělá celkem fajn karty, osobně mám vůči Asusu a MSI celkem averzi. Prý ještě EVGA je hodně kvalitní. Rozhodně dej pozor abys nenarazil kartu, které pískají cívky, i když to se spíš týká GTX970/980.

Dnešní CPU právě jsou oproti velkým GPU a hlavně více velkým GPU úplně na hovno co se týče nějakých matematických výpočtů, ten rozdíl ve výkonu je kulervoucí, SW optimalizace je jiná věc.
Poslat zprávu uživateli cermi
cermi      ---   00:27   03.12. 2014 
I tak, počítání na grafikách je dost specifické a obtížné na návrh algoritmu - moc dobře si pamatuju nekonečné hodiny strávené laděním toho, proč jsou data v jiné paměti než bych je čekal případně když se mi kvůli blbé podmínce rozjely jádra a výkon šel do kytek. Málokterá úloha vůbec grafikou řešitelná, musí to jít skvěle paralelizovat na kousky se stejným zpracováním, data nesmí být moc velká, zato složitě vypočítatelná. Nevím, jestli se mi do toho chce znova, možná jako zábavu na večery ... ale kdo mi to zaplatí? Dnešní CPU drtivou většinu byznys aplikací urvou hrubou sílou a problém je spíš v absenci velké rychlé paměti (ať už RAM nebo nějaký storage) ...