Quando o presidente-executivo da Nvidia, Jensen Huang, subir ao palco esta semana para a conferência anual de desenvolvedores de software da empresa, ele defenderá o domínio da companhia sobre o mercado de inteligência artificial, embora a empresa venha sofrendo pressão de rivais e de clientes que querem reduzir os custos da tecnologia.
A conferência da Nvidia acontece depois que a DeepSeek surpreendeu investidores nos Estados Unidos com um chatbot competitivo que, segundo ela, exigiu menos poder de computação do que os rivais para ser criado.
As ações da Nvidia caíram porque a venda de poder de computação na forma de chips que custam dezenas de milhares de dólares cada um é o que ajudou a receita da Nvidia a mais do que quadruplicar nos últimos três anos, chegando a US$ 130,5 bilhões.
Na conferência, a Nvidia deve revelar detalhes de um sistema de chips chamado Vera Rubin, nomeado em homenagem à astrônoma norte-americana pioneira no conceito de matéria escura, com a expectativa de que o sistema entre em produção em massa ainda este ano.
Esses detalhes serão revelados mesmo quando o antecessor de Rubin, um chip que leva o nome do matemático David Blackwell, anunciado no ano passado, estiver chegando ao mercado após atrasos na produção que prejudicaram as margens de lucro da Nvidia.
Os chips da Nvidia enfrentam pressão de mudanças tecnológicas, conforme os mercados de IA mudam o foco de “treinamento”, que é o processo de entregar a modelos de IA, como chatbots, grandes quantidades de dados para torná-los “inteligentes”, para “inferência”, que é quando o modelo usa essa “inteligência” para produzir respostas para os usuários.
A Nvidia, com uma participação de mercado superior a 90%, domina o mercado de treinamento, mas enfrenta a concorrência na inferência – e a participação de mercado desses concorrentes dependerá de como a computação de inferência é realizada.
A computação de inferência é apresentada de várias formas, desde um smartphone que reescreve emails até um data center que produz análises complexas de documentos financeiros. Várias empresas iniciantes no Vale do Silício e em outros lugares, bem como as rivais tradicionais da Nvidia, como a AMD, estão apostando que podem vender chips que farão o trabalho a um custo geral mais baixo – especialmente os custos de eletricidade, em que os chips da Nvidia consomem tanta energia que as empresas de IA estão recorrendo ao uso de reatores nucleares.




