Paralelní procesory a série

Procesor.

Paralelní zpracování

Paralelní zpracování vyžaduje techniku, při níž jsou složité datové sady rozděleny do jednotlivých vláken a zpracovávány současně jedním nebo více jádry. Jak AMD, tak Intel integrovali tuto techniku ​​(známou jako HTT) tak, aby výrazně zvýšily rychlost, s jakou pracují. Až donedávna to neznamenalo vždy výrazný nárůst rychlosti, protože technologie pro rozdělení datových sad a jejich opětovné sestavení byla v jejich zásadách.

Sériové zpracování

Sériové zpracování vyžaduje techniku, při které jsou data objednávána postupně a poté vypočtena jednotlivým procesorem. Tato technika pracuje velmi dobře s objednanými seznamy, které používají podobné kontrakce. Největším problémem je, že lze zpracovat pouze jeden bit dat a komplexní programy nelze rozdělit na menší segmenty.

Superpočítač

Mnoho vývojářů vyvinulo vývoj paralelního zpracování na další krok vytvořením sítí výkonných superpočítačů. Tyto sítě pracují společně pomocí komplikovaného softwaru řadiče, který dělá komplexní programování a rovnice v síti a poté shromažďuje celkové údaje. Některé z nejvýkonnějších superpočítačů byly zpočátku vojenským nebo vzdělávacím vývojem, až do roku 2000, kdy větší clustery byly provozovány společnostmi videohry pro podporu masivních multiplayerových online her (MMOG). V roce 2008 byla největší superpočítačová síť z projektu Folding @ home, který se skládá z několika milionů Playstation 3 na celém světě.

Význam

Podle zákona společnosti Moore (Gordon Moore, Intel Corporation) se výkonová náročnost (hustota tranzistorů) počítačů zvyšuje s pevnou rychlostí a zdvojnásobuje přibližně každý určitý počet let. Zavedení pokročilých výrobních procesů méně než 65 nanometrů umožnilo významný vývoj v síle procesorů, zejména díky možnosti umístit několik jader pro zpracování v jediné součásti. Nyní, když byla vyvinuta dostatečná řídicí architektura pro správné dekódování a sestavování složitých programových struktur, paralelní procesory značně překročily své předchůdce.

Závěry

Sériové zpracování bylo nejlepším způsobem zpracování datových množin, dokud se hardwarové a softwarové technologie konečně sloučily a nebylo možné paralelní zpracování. Projekt lidského genomu má tři miliardy dat a předpokládalo se, že bude trvat zhruba 100 let, než bude plně dekódováno. Ovšem téměř celý řetězec DNA homo sapiens byl dekódován za pouhých 13 let díky masivním sítím superpočítačů a použití paralelního zpracování.