Впервые про специализированные интегральные схемы Google Tensor Processing Unit (TPU) мы узнали в мае 2016 года. Это специальное решение для работы систем машинного обучения, которое поисковый гигант разработал для собственных нужд.
На тот момент Google негласно использовала TPU для некоторых задач уже около года. Спустя год мы узнали про TPU второго поколения. Блок из 64 ASIC второго поколения характеризуется производительностью в задачах машинного обучения на уровне 11,5 PFLOPS.
До недавнего момента всё это было доступно лишь самой Google, однако несколько дней назад компания объявила, что в рамках платформы Google Cloud Platform её клиенты могут получить доступ к Cloud TPU, то есть к облачной платформе, основанной именно на этих самых ASIC.
Это даст возможность компаниями, которые не могут позволить себе собственные программно-аппаратные комплексы для машинного обучения, использовать впечатляющую производительность систем Google удалённо и за условно небольшую плату. Если точнее, то клиентам это обойдётся всего в 6,5 доллара в час, однако стоит понимать, что количество вычислительных блоков TPU у Google весьма ограничено, поэтому желающие должны регистрироваться заранее.
Будет ли Google в будущем продавать решения на основе таких TPU, пока неизвестно.