23/10/2020 às 15h53min - Atualizada em 25/10/2020 às 00h00min

NVIDIA Enterprise quebra recordes de desempenho em inferência de Inteligência Artificial

NVIDIA estende a liderança no benchmark MLPerf com A100, entregando inferência de IA até 237 vezes mais rápida do que CPUs, permitindo que as empresas movam a inteligência artificial da pesquisa para a produção

DINO


A NVIDIA Enterprise anuncia que sua plataforma de computação de inteligência artificial novamente bateu recordes de desempenho na última rodada de medição do MLPerf, que mede o desempenho de IA de hardware, software e serviços. MLPerf é o único benchmark independente e líder na indústria.

A NVIDIA venceu todos os testes em todas as seis áreas de aplicação para data center e sistemas de computação na borda na segunda versão do MLPerf Inference. Os testes vão além dos dois originais para visão computacional, cobrindo também as quatro áreas de IA com crescimento mais rápido: sistemas de recomendação, compreensão de linguagem natural, reconhecimento de fala e imagens médicas.

Organizações em diversos setores já estão aproveitando o desempenho de inferência excepcional da GPU NVIDIA® A100 Tensor Core para levar a IA de seus grupos de pesquisa para as operações diárias. As instituições financeiras estão usando IA de conversação para responder às perguntas dos clientes com mais rapidez; os varejistas, para manter as prateleiras abastecidas; e os profissionais de saúde tem usado IA para analisar milhões de imagens médicas para identificar doenças com mais precisão e ajudar a salvar vidas

"Estamos em um ponto crítico, pois cada setor busca as melhores maneiras de aplicar a IA para oferecer novos serviços e expandir seus negócios", diz Ian Buck, gerente geral e vice-presidente de computação acelerada da NVIDIA. "O trabalho que fizemos para alcançar esses resultados no MLPerf oferece às empresas um novo nível de desempenho de IA para melhorar nossas vidas diárias."

Os resultados mais recentes do MLPerf aparecem quando a marca NVIDIA, para inferência de IA, cresceu excessivamente. Cinco anos atrás, apenas um punhado de empresas líderes de alta tecnologia usavam GPUs para inferência. Agora, com a plataforma de IA da NVIDIA disponível em todos os principais fornecedores de infraestrutura de nuvem e data center, empresas que representam uma ampla gama de setores estão usando sua plataforma de inferência de IA para melhorar suas operações de negócios e oferecer serviços adicionais.

Além disso, pela primeira vez, as GPUs NVIDIA oferecem mais capacidade de inferência de IA na nuvem pública do que as CPUs. A capacidade total de computação de inferência de IA em nuvem nas GPUs NVIDIA tem crescido cerca de 10 vezes a cada dois anos.

"É sempre um grande reconhecimento continuar líder e batendo recordes no MLPerf, que é o único benchmark independente da indústria. Isso mostra que estamos no caminho certo das inovações para melhorar a qualidade de vida de todos", explica Marcio Aguiar, diretor da NVIDIA Enterprise para América Latina. "Com data centers e nuvens com capacidades cada vez maiores, todas as regiões, incluindo a América Latina, terão mais possibilidades para trabalhar com a inteligência artificial e melhorar os negócios, tendo maior eficiência no custo".

NVIDIA Enterprise leva a inferência de IA para novos patamares

A NVIDIA Enterprise e seus parceiros enviaram seus resultados do MLPerf 0.7 usando a plataforma de aceleração da NVIDIA, que inclui GPUs de data center NVIDIA, aceleradores de IA na borda e software otimizado da NVIDIA.

A NVIDIA A100, lançada no início deste ano e apresentando a tecnologia de GPU Tensor Cores e Multi-Instance de terceira geração, aumentou sua liderança no teste ResNet-50, superando as CPUs em 30 vezes contra 6 vezes na última rodada. Além disso, a A100 superou as CPUs mais recentes em até 237 vezes no teste de recomendação recém-adicionado para inferência de data center, de acordo com os benchmarks MLPerf Inference 0.7.

Isso significa que um único servidor NVIDIA DGX A100™ pode fornecer o mesmo desempenho que cerca de 1.000 servidores de CPU de soquete duplo, oferecendo aos clientes extrema eficiência de custo ao levar seus modelos de recomendação de IA da pesquisa à produção.

Os benchmarks também mostram que a GPU NVIDIA T4 Tensor Core continua a ser uma plataforma de inferência sólida para empresas convencionais, servidores na borda e instâncias de nuvem econômicas. As GPUs NVIDIA T4 superaram as CPUs em até 28 vezes nos mesmos testes. Além disso, a NVIDIA Jetson AGX Xavier™ é líder em desempenho entre os dispositivos baseados em SoC na borda.

Alcançar esses resultados exigiu softwares altamente otimizados, incluindo o otimizador de inferência NVIDIA TensorRT™ e o software de servidor de inferência NVIDIA Triton™, ambos disponíveis no NGC™, o catálogo de softwares da NVIDIA.

Além dos envios da própria NVIDIA, 11 parceiros da NVIDIA Enterprise enviaram um total de 1.029 resultados usando GPUs NVIDIA, representando mais de 85% do total de envios nas categorias de data center e na borda.

Link
Notícias Relacionadas »
Comentários »
Fale pelo Whatsapp
Atendimento
Precisa de ajuda? Fale conosco pelo Whatsapp