A Google está buscando tornar o Google Cloud uma plataforma onipresente, como fez a Amazon, de forma a oferecer melhores ferramentas para o aprendizado de máquina. Para alcançar tal objetivo, a empresa está anunciando o Tensor Processor Unit 3.0, um novo TPU que promete ser oito vezes mais poderoso que o hardware lançado no ano passado, com até 100 petaflops de desempenho e otimização voltada para o TensorFlow.
Cada vez mais as empresas trabalham com conjuntos complexos de dados que requerem soluções específicas para o aprendizado de máquina, o que inclui o hardware. O Facebook, por exemplo, utiliza hardware otimizado para seu framework Caffe2, projetado com o intuito de lidar com a enorme quantidade de dados que a empresa detém sobre seus usuários. A Intel está investindo em FPGA, uma tecnologia versátil e flexível, embora tenha o obstáculo da falta de mão de obra especializada. Quem também está investindo em FPGA é a Microsoft, que em sua conferência BUILD voltada para sua plataforma de nuvem Azure, na última segunda-feira (7), revelou estar trabalhando em seu projeto Brainwave.
Na última quarta-feira (2), o Facebook anunciou, durante a conferência F8, a atualização de seu framework, o PyTorch. Caso a Google consiga acompanhar a corrida, uma nova geração de hardwares pode estar prestes a fazer parte do cotidiano dos desenvolvedores.
Fonte: TechCrunch
Nenhum comentário:
Postar um comentário