(c) Graphicstock

TPU: Koprocesory Googlu pro neuronové sítě

Google Tensor Processing Unit je specializovaný tištěný obvod, který funguje jako zásuvná karta do serveru. Připojuje se přes běžnou sběrnici SATA a hraje roli koprocesoru, který je speciálně určen pro urychlování výpočtů v oblasti neuronových sítí/strojového učení.

Google nyní zveřejnil benchmarky, které porovnávají výkon jeho TPU s klasickými i grafickými procesory. Pro specializované TPU (nepřekvapivě) tyto výsledky vycházejí velmi dobře, a to především z hlediska výkonu na spotřebovanou jednotku energie (30-80krát větší účinnost, bilion operací na 1 watt). Nicméně i co se týče samotného výkonu, mají být TPU až řádově (15-30krát) rychlejší než Intel Xeon nebo grafické procesory Nvidia. Další výhodou má být, že neuronové sítě pracující na TPU jsou často úsporné v tom smyslu, že k jejich napsání stačí jen relativně krátký kód. Nejčastěji je vytvořen v prostředí TensorFlow, což je open source platforma Googlu právě pro strojové učení.
Google uvedl, že potřeba vlastních procesorů se objevila už asi před 6 lety, když čím dál více produktů Googlu začalo pracovat s hlubokým učením. Například hlasové vyhledávání/rozpoznávání mluvené řeči by bez specializovaného hardwaru bylo příliš náročné a vyžadovalo další obří investice do hardwaru datových center. TPU nyní podstatně zrychlují i provoz Google Image Search, Google Photos (tedy zpracování grafické informace) a Google Cloud Vision API. Tyto TPU měly rovněž umožnit přechod překladače Googlu od statistické analýzy textu k modelům založených právě na neuronových sítích a podpořily také vývoj umělé inteligence v programu AlphaGo, který už před více než rokem pokořil člověka ve hře Go.
Procesory TPU jsou určeny pro specializovaný typ úloh, spíše operace s 8bitovými celými čísly než přesné výpočty v plovoucí řádové čárce. Zejména mají být ideální pro část práce neuronové sítě, tzv. inferenci. (Inference následuje po fázi tréninku, jde o vlastní funkčnost systému, tedy např. rozpoznání řeči. Jak uvádí na blogu Googlu hardwarový inženýr Norm Jouppi, pro samotný trénink TPU obvykle nepoužívají.) Procesor TPU přitom přijímá příkazy pro příslušné operace z CPU, podobně jako např. matematický koprocesor/FPU.
Google sám ve svých datových centrech používá TPU od roku 2015 a publikované benchmarky se podle firmy týkají úloh, které se v tomto prostředí skutečně realizují. Google předpokládá, že vývoj aplikací strojového učení a obecně umělé inteligence bude stále více svázán se specializovaným hardwarem a tím, jak se řada funkcí bude realizovat „přímo v křemíku“.

K benchmarkům publikovaným Googlem se vyjádřila i Nvidia. Podle ní jsou zavádějící, protože srovnávají TPU Googlu (z roku 2015) s řadou grafických karet Tesla K80 (2012), zatímco novější Tesla P4/P40 (2016) jsou také navrženy speciálně pro umělou inteligenci/neuronové sítě a v řadě ohledů Google překonávají.

Zdroj: TechXplore.com, The Register a další

Voda v kráteru Gale na Marsu přetrvávala déle, než se myslelo

Mezinárodní tým vědců pod vedením Imperial College London objevil doklady otm, že v marsovském kráteru …

Napsat komentář

Vaše e-mailová adresa nebude zveřejněna. Vyžadované informace jsou označeny *

Používáme soubory cookies pro přizpůsobení obsahu webu a sledování návštěvnosti. Data o používání webu sdílíme s našimi partnery pro cílení reklamy a analýzu návštěvnosti. Více informací

The cookie settings on this website are set to "allow cookies" to give you the best browsing experience possible. If you continue to use this website without changing your cookie settings or you click "Accept" below then you are consenting to this.

Close