THE NEW YORK TIMES – Em setembro, a Amazon disse que investiria US$ 4 bilhões na Anthropic, startup fundada pelo brasileiro Daniel de Freitas que trabalha com inteligência artificial (IA).
Logo depois, um executivo da Amazon enviou uma mensagem privada a um executivo de outra empresa. Ele disse que a Anthropic havia ganhado o negócio porque concordou em desenvolver sua IA usando chips de computador especializados projetados pela Amazon.
A Amazon, escreveu ele, queria criar um concorrente viável para a fabricante de chips Nvidia, uma das principais empresas do campo da IA atualmente.
O boom da IA generativa no último ano expôs o quanto as grandes empresas de tecnologia se tornaram dependentes da Nvidia. Elas não podem criar chatbots e outros sistemas de IA sem um tipo especial de chip que a Nvidia dominou nos últimos anos. Elas gastaram bilhões de dólares com os sistemas da Nvidia, e a fabricante de chips não conseguiu acompanhar a demanda.
Portanto, a Amazon e outros gigantes do setor – incluindo Google, Meta e Microsoft – estão criando seus próprios chips de I.A. Com esses chips, os gigantes da tecnologia poderiam controlar seu próprio destino. Elas poderiam controlar os custos, eliminar a escassez de chips e, por fim, vender o acesso a seus chips para empresas que usam seus serviços de nuvem.
Enquanto a Nvidia vendeu 2,5 milhões de chips no ano passado, o Google gastou de US$ 2 bilhões a US$ 3 bilhões na construção de cerca de um milhão de seus próprios chips de IA, diz Pierre Ferragu, analista da New Street Research.
A Amazon gastou US$ 200 milhões em 100 mil chips no ano passado, segundo ele.
A Microsoft disse que começou a testar seu primeiro chip de IA.
Mas fazer isso é um ato de equilíbrio entre competir com a Nvidia e, ao mesmo tempo, trabalhar em estreita colaboração com a fabricante de chips e seu poderoso executivo-chefe, Jensen Huang.
A empresa de Huang é responsável por mais de 70% das vendas de chips de IA, de acordo com a empresa de pesquisa Omdia. Ela fornece uma porcentagem ainda maior dos sistemas usados na criação de IA generativa. As vendas da Nvidia aumentaram 206% no último ano, e a empresa adicionou cerca de US$ 1 trilhão em valor de mercado.
No entanto, o que é receita para a Nvidia é um custo para os gigantes da tecnologia. Os pedidos de Microsoft e Meta representaram cerca de um quarto das vendas da Nvidia nos dois últimos trimestres completos, diz Gil Luria, analista do banco de investimentos D.A. Davidson.
A Nvidia vende seus chips por cerca de US$ 15 mil cada, enquanto o Google gasta uma média de apenas US$ 2 mil a US$ 3 mil em cada um deles, de acordo com Ferragu. “Quando eles se depararam com um fornecedor que os pressionou, eles reagiram com veemência”, diz Luria.
As empresas cortejam constantemente Huang, disputando para estar na frente da fila dos pedidos. Ele aparece regularmente em palcos de eventos com seus executivos-chefes, e as empresas são rápidas em dizer que continuam comprometidas com suas parcerias com a Nvidia. Todas elas planejam continuar oferecendo chips da fabricante juntamente com os seus próprios processadores.
Enquanto as grandes empresas de tecnologia estão entrando nos negócios da Nvidia, ela está entrando nos seus. No ano passado, a Nvidia iniciou seu próprio serviço de nuvem, no qual as empresas podem usar seus chips, e está canalizando chips para uma nova onda de provedores de nuvem, como a CoreWeave, que concorrem com as três grandes: Amazon, Google e Microsoft.
“As tensões aqui são mil vezes maiores do que a disputa usual entre clientes e fornecedores”, diz Charles Fitzgerald, consultor de tecnologia e investidor.
A Nvidia não quis comentar.
O mercado de chips de IA deverá mais do que dobrar até 2027, chegando a cerca de US$ 140 bilhões, de acordo com a empresa de pesquisa Gartner. Fabricantes de chips consagrados, como AMD e Intel, também estão desenvolvendo chips especializados em IA, assim como empresas iniciantes, como Cerebras e SambaNova. Mas a Amazon e outros gigantes da tecnologia podem fazer coisas que os concorrentes menores não podem.
“Em teoria, se conseguirem atingir um volume suficientemente alto e reduzir seus custos, essas empresas devem ser capazes de fornecer algo ainda melhor do que a Nvidia”, disse Naveen Rao, que fundou uma das primeiras empresas de chips de IA e depois a vendeu para a Intel.
O que são GPUs
A Nvidia constrói as chamadas unidades de processamento gráfico, ou GPUs, que foram originalmente projetadas para ajudar a renderizar imagens para videogames. Porém, há uma década, os pesquisadores acadêmicos perceberam que esses chips também eram muito bons na criação de sistemas, chamados de redes neurais, que agora impulsionam a IA generativa.
Quando essa tecnologia decolou, Huang rapidamente começou a modificar os chips da Nvidia e o software relacionado para IA, e eles se tornaram o padrão na indústria. A maioria dos sistemas de software usados para treinar tecnologias de IA foi adaptada para funcionar com os chips da Nvidia.
“A Nvidia tem ótimos chips e, o que é mais importante, tem um ecossistema incrível”, diz Dave Brown, que dirige os esforços de chips da Amazon. Isso faz com que conseguir que os clientes usem um novo tipo de chip de IA seja “muito, muito desafiador”, disse ele.
Reescrever o código do software para usar um novo chip é tão difícil e demorado que muitas empresas nem sequer tentam, diz Mike Schroepfer, consultor e ex-diretor de tecnologia da Meta. “O problema com o desenvolvimento tecnológico é que grande parte dele morre antes mesmo de ser iniciado”, explica ele.
Rani Borkar, que supervisiona a infraestrutura de hardware da Microsoft, disse que a Microsoft e seus pares precisavam fazer com que os clientes pudessem alternar entre chips de diferentes empresas de forma “perfeita
A Amazon, disse Brown, está trabalhando para tornar a troca de chips “tão simples quanto possível”.
Como está a corrida dos chips
Alguns gigantes da tecnologia obtiveram sucesso ao fabricar seus próprios chips. A Apple projeta os processadores do iPhone e do Mac, e a Amazon implantou mais de dois milhões de seus próprios chips de servidor tradicionais em seus data centers de computação em nuvem. Mas conquistas como essas levam anos de desenvolvimento de hardware e software.
O Google tem a maior vantagem inicial no desenvolvimento de chips de IA. Em 2017, apresentou sua unidade de processamento de tensores, ou TPU, cujo nome deriva de um tipo de cálculo vital para a criação de inteligência artificial. O Google usou dezenas de milhares de TPUs para criar produtos de IA, incluindo o chatbot Bard. E outras empresas usam o chip por meio do serviço de nuvem do Google para criar tecnologias semelhantes, incluindo a startup Cohere.
A Amazon está agora na segunda geração do Trainium, seu chip para a criação de sistemas de IA, e tem um segundo chip feito apenas para fornecer modelos de IA aos clientes. Em maio, a Meta anunciou planos para trabalhar em um chip de IA adaptado às suas necessidades, embora ele ainda não esteja em uso. Em novembro, a Microsoft anunciou seu primeiro chip de IA, o Maia, que se concentrará inicialmente na execução dos produtos de IA da própria Microsoft.
Os rivais da Nvidia usam seus investimentos em startups de IA para estimular o uso de seus chips. A Microsoft comprometeu-se a investir US$ 13 bilhões na OpenAI, fabricante do ChatGPT, e seu chip Maia servirá as tecnologias da OpenAI para os clientes da Microsoft. Assim como a Amazon, o Google investiu bilhões na Anthropic, que também está usando os chips de IA do Google.
A Anthropic, que usou chips da Nvidia e do Google, está entre as várias empresas que estão trabalhando para desenvolver a IA usando o maior número possível de chips especializados. A Amazon disse que se empresas como a Anthropic usassem os chips da Amazon em uma escala cada vez maior e até mesmo ajudassem a projetar futuros chips, isso poderia reduzir o custo e melhorar o desempenho desses processadores. A Anthropic não quis comentar.
Apesar dos esforços, nenhuma dessas empresas ultrapassará a Nvidia tão cedo. Seus chips podem ser caros, mas estão entre os mais rápidos do mercado. E a empresa continuará a melhorar sua velocidade.
Rao diz que sua empresa, a Databricks, treinou alguns sistemas experimentais de IA usando os chips da Amazon, mas construiu seus maiores e mais importantes sistemas usando os produtos da Nvidia porque eles proporcionavam maior desempenho e funcionavam bem com uma variedade maior de software. (Foto: Nvidia/Reprodução/
Nota: Texto traduzido de publicação do jornal The New York Time)