Google afirma que seus chips proprietários superam CPUS tradicionais em 30 vezes

Mestre Jedi Google afirma que seus chips proprietários superam CPUS tradicionais em 30 vezes

Em maio de 2016, o Google surpreendeu muita gente ao anunciar a produção de processadores proprietários. Chamados de Tensor Processing Units (TPUs), os pequenos notáveis foram concebidos com a função clara de auxiliar os algoritmos de aprendizado de máquina da empresa, o que aparentemente eles têm feito muitíssimo bem.

Tanto é que o Google veio a público pela primeira vez para dar mais detalhes sobre os chips, com direito a benchmark e tudo. Segundo as avaliações feitas pela própria empresa, seus TPUs superam de 15 a 30 vezes o desempenho dos CPUs e GPUs tradicionais. Os gráficos divulgados pela empresa mostram as combinações do TPU com os processadores Intel Haswell e GPUs Nvidia K80.

Mestre Jedi Google afirma que seus chips proprietários superam CPUS tradicionais em 30 vezes
Gráfico divulgado pelo Google sobre o desempenho comparado de TPU, CPU e GPU. (Foto: Reprodução/Google)

A avaliação levou em conta o desempenho do hardware ao realizar as tarefas do aprendizado de máquina do Google, mas não deixam de trazer resultados interessantes. Além da velocidade superior, os processadores do Google também oferecem uma maior quantidade de TeraOps/Watt — de 30 a 80 vezes mais do que os dispositivos convencionais.

Trabalho focado

Parte do segredo do sucesso das TPUs do Google reside no fato de que elas são pensadas de forma específica para aquilo que vão desempenhar. Segundo a própria empresa, enquanto a maioria das arquiteturas de processamento é feita para trabalhar com redes neurais convolucionais, a desenvolvida pela empresa trabalha com perceptron de múltiplas camadas.

No documento liberado nesta quarta-feira (5) a respeito do seu processador, o Google informa que já considerava a possibilidade de usar chips próprios desde 2006. Naquela época, porém, não havia tantas tarefas que poderiam ser beneficiadas com este tipo de tecnologia.

“A conversa mudou em 2013, quando nós projetamos que as redes neurais profundas poderiam se tornar tão populares que seriam capazes de duplicar as demandas computacionais em nossos data centers, o que seria bastante caro de manter usando CPUs convencionais”, informa a empresa.

Se você se interessa pelo tema, pode conferir o artigo na íntegra (em inglês).

Fonte: Google