45 GHz je od tvůrců taky marketing (když už ne podvod), protože pak by AMD mohlo psát 56GHz (3.5*16) a to nemluvě o tom, že budou úlohy rozhodně lépe škálovat na 16 jádrech než na 64.
+1
-11
-1
Je komentář přínosný?
45 GHz je od tvůrců taky
Pavel Francírek https://cdr.cz/profil/pavel-francirek
24. 4. 2013 - 14:18https://cdr.cz/clanek/preview-minipocitace-parallella-paralelni-vypocty-pro-kazdeho/diskuse45 GHz je od tvůrců taky marketing (když už ne podvod), protože pak by AMD mohlo psát 56GHz (3.5*16) a to nemluvě o tom, že budou úlohy rozhodně lépe škálovat na 16 jádrech než na 64.https://cdr.cz/clanek/preview-minipocitace-parallella-paralelni-vypocty-pro-kazdeho/diskuse#comment-651629
+
To proto, že jsou psané jako málovláknové. Tohle je dobrý způsob (nenákladný), jak vývojáře přimět laborovat s více vlákny, a nakonec psát silně multivláknové algoritmy, a za to palec hore...
+1
-5
-1
Je komentář přínosný?
To proto, že jsou psané jako
Tomáš Bohuněk https://cdr.cz/profil/tomas-bohunek
24. 4. 2013 - 16:41https://cdr.cz/clanek/preview-minipocitace-parallella-paralelni-vypocty-pro-kazdeho/diskuseTo proto, že jsou psané jako málovláknové. Tohle je dobrý způsob (nenákladný), jak vývojáře přimět laborovat s více vlákny, a nakonec psát silně multivláknové algoritmy, a za to palec hore...https://cdr.cz/clanek/preview-minipocitace-parallella-paralelni-vypocty-pro-kazdeho/diskuse#comment-651651
+
Uz sa predsa davno pisu multivlaknove algoritmy ;-).Hlavne tie co ide dobre paralelizovat. Vid GPU akceleracia grafiky, Larabi Cuda, Open CL na GPU, programy na supercomputer clustre a podobne. Vyslovene sekvencne algoritmy sa paralelizovat nedaju. Maximalne bezia viacere naraz=to je uloha OS aby efektivne rozdeloval zataz medzi dostupne jadra.
+1
-4
-1
Je komentář přínosný?
Uz sa predsa davno pisu
AndyF1 https://cdr.cz/profil/andyf1
24. 4. 2013 - 17:12https://cdr.cz/clanek/preview-minipocitace-parallella-paralelni-vypocty-pro-kazdeho/diskuseUz sa predsa davno pisu multivlaknove algoritmy ;-).Hlavne tie co ide dobre paralelizovat. Vid GPU akceleracia grafiky, Larabi Cuda, Open CL na GPU, programy na supercomputer clustre a podobne. Vyslovene sekvencne algoritmy sa paralelizovat nedaju. Maximalne bezia viacere naraz=to je uloha OS aby efektivne rozdeloval zataz medzi dostupne jadra.https://cdr.cz/clanek/preview-minipocitace-parallella-paralelni-vypocty-pro-kazdeho/diskuse#comment-651658
+
Prosim otvorte si task manager a skontrolujte pocet procesov a ich vlaken - co vam brani napisat 500 vlaknovy algoritmus na jednojadrovom CPU ?
Ak algoritmus nie je 100% datovo nezavisly medzi vlaknami (typicky "GPGPU foreach"), tak paralelizovat ho na 64 vlaken je dost velka hlupost.
Aplikovat nejaky algoritmus na kazdy element pola zvladaju dnesne GPU extremne dobre.
Na domovskej stranke si este vypisu:
"The CPU has an efficient general-purpose instruction set that excels at compute intensive applications while being efficiently programmable in C/C++ without any need to write code using assembly or processor specific intrinsics."
Ok, takze CPU je blackbox a pouzivatel ma len pisat Cckovy kod ? ehm. Co tak rovno sa pustit do C++AMP, OpenCL alebo CUDA, ktore maju realne vyuzitie (je po nich dopyt na trhu)?
Ak sa ma vsak jednat o datovo zavisle vlakna, tak znova nerozumiem na aku vyuku je dobre na ARMv7 s RISC koprocesorom (s boh vie akou instrukcnou sadou) pisat tzv. paralelne programy. To seriozne ocakavaju, ze na CortexA9 dvojjadre sa bude v Eclipse debugovat ? Odhliadnuc od narusenia psychickeho zdravia tych nestastnikov, ktori sa na to podujmu to moze byt aj znacny technicky problem. Ono totiz cela masina ma 1GB RAM > wtf. Ak to niekto planuje vyvijat na x86 PC, tak potom toto zariadenie vobec netreba. Napise, zdebuguje aj sprofiluje algoritmy rovno na danom PC.
Btw samozrejme dalsi kickstarter projekt, ktory ziskal zadarmo reklamu vo vyssej sume nez o aku dokazu osklbat ludi - pocitacovych analfabetov.
+1
-6
-1
Je komentář přínosný?
Prosim otvorte si task
Trovaricon https://cdr.cz/profil/trovaricon
24. 4. 2013 - 18:46https://cdr.cz/clanek/preview-minipocitace-parallella-paralelni-vypocty-pro-kazdeho/diskuseProsim otvorte si task manager a skontrolujte pocet procesov a ich vlaken - co vam brani napisat 500 vlaknovy algoritmus na jednojadrovom CPU ?
Ak algoritmus nie je 100% datovo nezavisly medzi vlaknami (typicky "GPGPU foreach"), tak paralelizovat ho na 64 vlaken je dost velka hlupost.
Aplikovat nejaky algoritmus na kazdy element pola zvladaju dnesne GPU extremne dobre.
Na domovskej stranke si este vypisu:
"The CPU has an efficient general-purpose instruction set that excels at compute intensive applications while being efficiently programmable in C/C++ without any need to write code using assembly or processor specific intrinsics."
Ok, takze CPU je blackbox a pouzivatel ma len pisat Cckovy kod ? ehm. Co tak rovno sa pustit do C++AMP, OpenCL alebo CUDA, ktore maju realne vyuzitie (je po nich dopyt na trhu)?
Ak sa ma vsak jednat o datovo zavisle vlakna, tak znova nerozumiem na aku vyuku je dobre na ARMv7 s RISC koprocesorom (s boh vie akou instrukcnou sadou) pisat tzv. paralelne programy. To seriozne ocakavaju, ze na CortexA9 dvojjadre sa bude v Eclipse debugovat ? Odhliadnuc od narusenia psychickeho zdravia tych nestastnikov, ktori sa na to podujmu to moze byt aj znacny technicky problem. Ono totiz cela masina ma 1GB RAM > wtf. Ak to niekto planuje vyvijat na x86 PC, tak potom toto zariadenie vobec netreba. Napise, zdebuguje aj sprofiluje algoritmy rovno na danom PC.
Btw samozrejme dalsi kickstarter projekt, ktory ziskal zadarmo reklamu vo vyssej sume nez o aku dokazu osklbat ludi - pocitacovych analfabetov.https://cdr.cz/clanek/preview-minipocitace-parallella-paralelni-vypocty-pro-kazdeho/diskuse#comment-651670
+
oni tam maju 2 jadrovy ARM na obsluhu asi + 64 jadrovu paramelnu svinu co zlada OpenCL alebo neaky ich jazyk.
Skratka kasila ako Tesla masiny: X86 cpu + Tesly(CUDA a opencl,..)
rozdiel je ale v tom ze toto zere par W a par dolacov a ta Tesla zere tak 1kW a stoji 2000$ a viac mam ten pocit
cca to iste planuje nVIDIA alebo sa daju aj na youtube najst uz neake videa
+1
-12
-1
Je komentář přínosný?
oni tam maju 2 jadrovy ARM na
Michal Lazo https://cdr.cz/profil/miskol
24. 4. 2013 - 20:53https://cdr.cz/clanek/preview-minipocitace-parallella-paralelni-vypocty-pro-kazdeho/diskuseoni tam maju 2 jadrovy ARM na obsluhu asi + 64 jadrovu paramelnu svinu co zlada OpenCL alebo neaky ich jazyk.
Skratka kasila ako Tesla masiny: X86 cpu + Tesly(CUDA a opencl,..)
rozdiel je ale v tom ze toto zere par W a par dolacov a ta Tesla zere tak 1kW a stoji 2000$ a viac mam ten pocit
cca to iste planuje nVIDIA alebo sa daju aj na youtube najst uz neake videahttps://cdr.cz/clanek/preview-minipocitace-parallella-paralelni-vypocty-pro-kazdeho/diskuse#comment-651682
+
Skus seriozne pouzivat Eclipse (vid. stranka vyrobcu: "GNU/Eclipse based tool chain") na Pentium III s 1GB RAM, ktory je zdielany aj pre koprocesor !!! a pochopis o com pisem s tym vykonom ARM-u.
Doska s amd E-350 stoji od 60€ + 15€ za 4GB RAM. Akurat ze tam nikoho nenapadlo na koprocesor (GPU) napisat, ze je to 80 jadrovy "CPU", ktory ma 40GHz (0.5GHz * 80, 80 gflops). Narozriel od tohto "wow riesenia" podporuje ten AMD system DC (C++AMP) aj OpenCL.
Preco to porovnavas s prac.stanicou s Teslou ? Ved ta je vykonom v totalne inej kategorii. To je ako porovnavat vrtulku na dyname z bicykla za zahradou na potoku s jadrovym reaktorom... Toto riesenie len s prizmurenymi ocami mozes porovnavat so spominanym E-350, ktory je navyse x86 (oproti 1GHz A9 je "trochu" vykonnejsi).
AD Tesla:
Ano urcite 1kW - riesenie dlhodobeho chladenia takeho cipu (vzhladom na rozmery) by bolo asi na Nobelovu cenu... Tesly vacsinou zeru menej / porovnatelne (tie s vela RAM) s ich desktopovymi ekvivalentmi.
>"64 jadrovu paramelnu svinu co zlada OpenCL alebo neaky ich jazyk."
Prave o tom pisem, ze to podporuje c/c++ nie openCL. Proste uzavrete riesenie absolutne nevhodne na ucebne ucely. Napisat algoritmus, ktory sa ma aplikovat na kazdy prvok pola vie aj opica po lobotomii (a to DX11 GPU zvladne rovnako dobre ako tento risc). Pri rieseni paralelizovania algoritmov je takato masina uplne nahovno, pretoze nesplna ani parametre testovacieho simulatora. Totiz... ako sa tu simuluje NUMA system ? Zaroven ked 64 vlaken zacne tlacit na pilu tomu (zrejme) jednokanalovemu nahovno (cortex-A9) radicu, tak akademicke vysledky s tymto "omg superpocitac za 2 stovky" budu, ze "j*bat paralelizaciu, singlethread ide rychlejsie"
Ja proste zboznujem tie perly ked sa hardveristi zacnu vyjadrovat o softverovych architekturach.
+1
-5
-1
Je komentář přínosný?
Skus seriozne pouzivat
Trovaricon https://cdr.cz/profil/trovaricon
24. 4. 2013 - 22:50https://cdr.cz/clanek/preview-minipocitace-parallella-paralelni-vypocty-pro-kazdeho/diskuseSkus seriozne pouzivat Eclipse (vid. stranka vyrobcu: "GNU/Eclipse based tool chain") na Pentium III s 1GB RAM, ktory je zdielany aj pre koprocesor !!! a pochopis o com pisem s tym vykonom ARM-u.
Doska s amd E-350 stoji od 60€ + 15€ za 4GB RAM. Akurat ze tam nikoho nenapadlo na koprocesor (GPU) napisat, ze je to 80 jadrovy "CPU", ktory ma 40GHz (0.5GHz * 80, 80 gflops). Narozriel od tohto "wow riesenia" podporuje ten AMD system DC (C++AMP) aj OpenCL.
Preco to porovnavas s prac.stanicou s Teslou ? Ved ta je vykonom v totalne inej kategorii. To je ako porovnavat vrtulku na dyname z bicykla za zahradou na potoku s jadrovym reaktorom... Toto riesenie len s prizmurenymi ocami mozes porovnavat so spominanym E-350, ktory je navyse x86 (oproti 1GHz A9 je "trochu" vykonnejsi).
AD Tesla:
Ano urcite 1kW - riesenie dlhodobeho chladenia takeho cipu (vzhladom na rozmery) by bolo asi na Nobelovu cenu... Tesly vacsinou zeru menej / porovnatelne (tie s vela RAM) s ich desktopovymi ekvivalentmi.
>"64 jadrovu paramelnu svinu co zlada OpenCL alebo neaky ich jazyk."
Prave o tom pisem, ze to podporuje c/c++ nie openCL. Proste uzavrete riesenie absolutne nevhodne na ucebne ucely. Napisat algoritmus, ktory sa ma aplikovat na kazdy prvok pola vie aj opica po lobotomii (a to DX11 GPU zvladne rovnako dobre ako tento risc). Pri rieseni paralelizovania algoritmov je takato masina uplne nahovno, pretoze nesplna ani parametre testovacieho simulatora. Totiz... ako sa tu simuluje NUMA system ? Zaroven ked 64 vlaken zacne tlacit na pilu tomu (zrejme) jednokanalovemu nahovno (cortex-A9) radicu, tak akademicke vysledky s tymto "omg superpocitac za 2 stovky" budu, ze "j*bat paralelizaciu, singlethread ide rychlejsie"
Ja proste zboznujem tie perly ked sa hardveristi zacnu vyjadrovat o softverovych architekturach.https://cdr.cz/clanek/preview-minipocitace-parallella-paralelni-vypocty-pro-kazdeho/diskuse#comment-651694
+
1.
ja si nemyslim ze ta ich doska je myslena ako nahrada tesly
ber to tak ze vo vela situaciach potrebujes lowcost lowpower zariadenie
a pre taketo veci je to myslene,
mozno este aj ako neake vyukove zariadenie
podobne ako raspberry pi.
2. v sucastnosti vlastne neexistuje embeded zariadenie ktore podporuje openCL
az tie najnovsie GPU podporuju opencL a moc zariadeni ich nema
v notebooku jedine s ati alebo nvidia gpu, a az najnovsie intel hd 4000
vykon radsej nekomentujem. ale ten vykon na vat moze byt samozrejme zaujimavy
+1
-3
-1
Je komentář přínosný?
pisu tu ze to podporuje
Michal Lazo https://cdr.cz/profil/miskol
25. 4. 2013 - 10:57https://cdr.cz/clanek/preview-minipocitace-parallella-paralelni-vypocty-pro-kazdeho/diskusepisu tu ze to podporuje openCL
http://www.parallella.org/developers/
1.
ja si nemyslim ze ta ich doska je myslena ako nahrada tesly
ber to tak ze vo vela situaciach potrebujes lowcost lowpower zariadenie
a pre taketo veci je to myslene,
mozno este aj ako neake vyukove zariadenie
podobne ako raspberry pi.
2. v sucastnosti vlastne neexistuje embeded zariadenie ktore podporuje openCL
az tie najnovsie GPU podporuju opencL a moc zariadeni ich nema
v notebooku jedine s ati alebo nvidia gpu, a az najnovsie intel hd 4000
vykon radsej nekomentujem. ale ten vykon na vat moze byt samozrejme zaujimavy
https://cdr.cz/clanek/preview-minipocitace-parallella-paralelni-vypocty-pro-kazdeho/diskuse#comment-651745
+
Ved prave o pouziti ako vyukoveho zariadenia je tento clanok. Ja som len podotkol, ze ako vyukove zariadenie to stoji za velke H. Ako zo stranky financnej tak aj vykonovej. Rozumej: nie je to zariadenie na development ale na deployment.
+1
-6
-1
Je komentář přínosný?
Ved prave o pouziti ako
Trovaricon https://cdr.cz/profil/trovaricon
25. 4. 2013 - 18:48https://cdr.cz/clanek/preview-minipocitace-parallella-paralelni-vypocty-pro-kazdeho/diskuseVed prave o pouziti ako vyukoveho zariadenia je tento clanok. Ja som len podotkol, ze ako vyukove zariadenie to stoji za velke H. Ako zo stranky financnej tak aj vykonovej. Rozumej: nie je to zariadenie na development ale na deployment.https://cdr.cz/clanek/preview-minipocitace-parallella-paralelni-vypocty-pro-kazdeho/diskuse#comment-651812
+
45 GHz je od tvůrců taky marketing (když už ne podvod), protože pak by AMD mohlo psát 56GHz (3.5*16) a to nemluvě o tom, že budou úlohy rozhodně lépe škálovat na 16 jádrech než na 64.
To proto, že jsou psané jako málovláknové. Tohle je dobrý způsob (nenákladný), jak vývojáře přimět laborovat s více vlákny, a nakonec psát silně multivláknové algoritmy, a za to palec hore...
Uz sa predsa davno pisu multivlaknove algoritmy ;-).Hlavne tie co ide dobre paralelizovat. Vid GPU akceleracia grafiky, Larabi Cuda, Open CL na GPU, programy na supercomputer clustre a podobne. Vyslovene sekvencne algoritmy sa paralelizovat nedaju. Maximalne bezia viacere naraz=to je uloha OS aby efektivne rozdeloval zataz medzi dostupne jadra.
Prosim otvorte si task manager a skontrolujte pocet procesov a ich vlaken - co vam brani napisat 500 vlaknovy algoritmus na jednojadrovom CPU ?
Ak algoritmus nie je 100% datovo nezavisly medzi vlaknami (typicky "GPGPU foreach"), tak paralelizovat ho na 64 vlaken je dost velka hlupost.
Aplikovat nejaky algoritmus na kazdy element pola zvladaju dnesne GPU extremne dobre.
Na domovskej stranke si este vypisu:
"The CPU has an efficient general-purpose instruction set that excels at compute intensive applications while being efficiently programmable in C/C++ without any need to write code using assembly or processor specific intrinsics."
Ok, takze CPU je blackbox a pouzivatel ma len pisat Cckovy kod ? ehm. Co tak rovno sa pustit do C++AMP, OpenCL alebo CUDA, ktore maju realne vyuzitie (je po nich dopyt na trhu)?
Ak sa ma vsak jednat o datovo zavisle vlakna, tak znova nerozumiem na aku vyuku je dobre na ARMv7 s RISC koprocesorom (s boh vie akou instrukcnou sadou) pisat tzv. paralelne programy. To seriozne ocakavaju, ze na CortexA9 dvojjadre sa bude v Eclipse debugovat ? Odhliadnuc od narusenia psychickeho zdravia tych nestastnikov, ktori sa na to podujmu to moze byt aj znacny technicky problem. Ono totiz cela masina ma 1GB RAM > wtf. Ak to niekto planuje vyvijat na x86 PC, tak potom toto zariadenie vobec netreba. Napise, zdebuguje aj sprofiluje algoritmy rovno na danom PC.
Btw samozrejme dalsi kickstarter projekt, ktory ziskal zadarmo reklamu vo vyssej sume nez o aku dokazu osklbat ludi - pocitacovych analfabetov.
oni tam maju 2 jadrovy ARM na obsluhu asi + 64 jadrovu paramelnu svinu co zlada OpenCL alebo neaky ich jazyk.
Skratka kasila ako Tesla masiny: X86 cpu + Tesly(CUDA a opencl,..)
rozdiel je ale v tom ze toto zere par W a par dolacov a ta Tesla zere tak 1kW a stoji 2000$ a viac mam ten pocit
cca to iste planuje nVIDIA alebo sa daju aj na youtube najst uz neake videa
Skus seriozne pouzivat Eclipse (vid. stranka vyrobcu: "GNU/Eclipse based tool chain") na Pentium III s 1GB RAM, ktory je zdielany aj pre koprocesor !!! a pochopis o com pisem s tym vykonom ARM-u.
Doska s amd E-350 stoji od 60€ + 15€ za 4GB RAM. Akurat ze tam nikoho nenapadlo na koprocesor (GPU) napisat, ze je to 80 jadrovy "CPU", ktory ma 40GHz (0.5GHz * 80, 80 gflops). Narozriel od tohto "wow riesenia" podporuje ten AMD system DC (C++AMP) aj OpenCL.
Preco to porovnavas s prac.stanicou s Teslou ? Ved ta je vykonom v totalne inej kategorii. To je ako porovnavat vrtulku na dyname z bicykla za zahradou na potoku s jadrovym reaktorom... Toto riesenie len s prizmurenymi ocami mozes porovnavat so spominanym E-350, ktory je navyse x86 (oproti 1GHz A9 je "trochu" vykonnejsi).
AD Tesla:
Ano urcite 1kW - riesenie dlhodobeho chladenia takeho cipu (vzhladom na rozmery) by bolo asi na Nobelovu cenu... Tesly vacsinou zeru menej / porovnatelne (tie s vela RAM) s ich desktopovymi ekvivalentmi.
>"64 jadrovu paramelnu svinu co zlada OpenCL alebo neaky ich jazyk."
Prave o tom pisem, ze to podporuje c/c++ nie openCL. Proste uzavrete riesenie absolutne nevhodne na ucebne ucely. Napisat algoritmus, ktory sa ma aplikovat na kazdy prvok pola vie aj opica po lobotomii (a to DX11 GPU zvladne rovnako dobre ako tento risc). Pri rieseni paralelizovania algoritmov je takato masina uplne nahovno, pretoze nesplna ani parametre testovacieho simulatora. Totiz... ako sa tu simuluje NUMA system ? Zaroven ked 64 vlaken zacne tlacit na pilu tomu (zrejme) jednokanalovemu nahovno (cortex-A9) radicu, tak akademicke vysledky s tymto "omg superpocitac za 2 stovky" budu, ze "j*bat paralelizaciu, singlethread ide rychlejsie"
Ja proste zboznujem tie perly ked sa hardveristi zacnu vyjadrovat o softverovych architekturach.
Errata: 30€ za RAM (wtf, riadne zdrazeli...)
pisu tu ze to podporuje openCL
http://www.parallella.org/developers/
1.
ja si nemyslim ze ta ich doska je myslena ako nahrada tesly
ber to tak ze vo vela situaciach potrebujes lowcost lowpower zariadenie
a pre taketo veci je to myslene,
mozno este aj ako neake vyukove zariadenie
podobne ako raspberry pi.
2. v sucastnosti vlastne neexistuje embeded zariadenie ktore podporuje openCL
az tie najnovsie GPU podporuju opencL a moc zariadeni ich nema
v notebooku jedine s ati alebo nvidia gpu, a az najnovsie intel hd 4000
vykon radsej nekomentujem. ale ten vykon na vat moze byt samozrejme zaujimavy
Ved prave o pouziti ako vyukoveho zariadenia je tento clanok. Ja som len podotkol, ze ako vyukove zariadenie to stoji za velke H. Ako zo stranky financnej tak aj vykonovej. Rozumej: nie je to zariadenie na development ale na deployment.
Pro psaní komentářů se, prosím, přihlaste nebo registrujte.