Os Segredos da Nvidia

E suas vantagens competitivas

O bsb é uma newsletter (quase sempre) semanal sobre a arte e ciência de construir e investir em empresas de tecnologia. Para receber nossos e-mails, clique abaixo:

Para ouvir a edição de hoje no Spotify, basta clicar AQUI

Olá, pessoal! As últimas duas semanas fiquei sem publicar artigos, mas o hiato foi bem utilizado na pesquisa de novos assuntos e temas. Estou animado para compartilhar com vocês nas próximas semanas.

A valorização recente da Nvidia é impressionante. Fundada em 1993, a empresa está avaliada hoje em US$2,3 trilhões. Somente este ano, suas ações subiram 84% e triplicaram nos últimos 12 meses. O gráfico que compara o desempenho das ações da Nvidia com o índice de ações americano S&P 500 nos últimos cinco anos é chocante.

Nvidia em verde e S&P 500 em laranja

Mas, o que explica essa performance excepcional? Inteligência Artificial. As receitas da divisão de negócios de data centers da Nvidia quadruplicaram em um ano. Grandes empresas como Amazon Web Services, Microsoft Azure e Google Cloud, não param de comprar os chips de IA da companhia. Nos últimos 12 meses, suas receitas totais dobraram, enquanto suas despesas aumentaram apenas 10%.

No entanto, o valor de mercado reflete não apenas a situação atual, mas principalmente as expectativas de lucros futuros. O foco do artigo de hoje é justamente oferecer uma análise mais aprofundada sobre a companhia. Para aproveitar ao máximo este texto, vale a pena revisitar nosso primeiro artigo sobre a empresa.

Se tiver apenas um minuto, segue o resumo:

  • A dominância da Nvidia em Inteligência Artificial é uma aula de estratégia calcada em princípios básicos (i) Foco nos Clientes; (ii) Conseguir se antecipar a novas demandas e (iii) Especialização e parcerias estratégicas.

  • A Nvidia possui vantagens competitivas tanto no hardware quanto no software. Na verdade, essa relação entre os dois ajuda a companhia a capturar mais valor econômico.

  • A empresa possui diversos competidores, mas nenhuma que consegue rivalizar com ela no segmento de chips para IA.

  • Consciente que sua dominância no mercado de IA não deve continuar de forma tão absoluta quanto hoje, a Nvidia esta atacando outras frentes. Aplicativos de IA e Omniverso são duas apostas da empresa.

A Aposta em Inteligência Artificial

Jensen Huang, co-fundador e CEO da Nvidia foi o primeiro líder de uma empresa de chips semicondutores a apostar agressivamente em Inteligência Artificial.

Inspirado pelo sucesso da AlexNet, uma competição acadêmica de algoritmos, onde os vencedores da edição de 2012 utilizaram uma abordagem baseada em redes neurais para alcançar resultados excepcionais. Foi nesta época que Jensen percebeu o potencial de IA.

As redes neurais imitam a estrutura cerebral de um mamífero, organizando múltiplos "neurônios" que realizam cálculos simples e interagem entre si. Para desenvolver sua tecnologia, os participantes da AlexNet optaram por utilizar as GPUs (Unidades de Processamento Gráfico) da Nvidia, que se mostraram mais eficazes que os tradicionais CPUs (Unidades de Processamento Central) para executar os cálculos paralelos requeridos pela inteligência artificial.

Já fazia algum tempo que equipe da Nvidia demonstrava interesse pelas redes neurais, estudando os trabalhos de Ilya Sutskever, ex-pesquisador sênior da OpenAI, e de Geoffrey Hinton, frequentemente citado como o "padrinho das redes neurais modernas".

Esquema de uma rede neural

Diferentemente dos softwares convencionais, que são desenvolvidos antes de serem testados contra os resultados desejados, as redes neurais começam com o resultado final em mente, ajustando-se progressivamente até atingirem esse objetivo. Convencido dessa nova direção no desenvolvimento de software, Jensen e sua equipe fizeram uma das apostas mais acertadas do capitalismo moderno. Eles tiveram uma visão clara e precisa do futuro.

OpenAI: o Primeiro Cliente

A Nvidia, originalmente conhecida por seus chips GPUs, amplamente utilizados em jogos 3D para computadores, buscava novos horizontes. Apesar de seu sucesso nesse nicho, as ações da empresa não apresentavam grandes movimentações há anos, levando-a a explorar outros mercados potenciais.

Foi então que a empresa decidiu desenvolver um supercomputador especificamente para equipes focadas no desenvolvimento de redes neurais:

As pessoas pensam que construímos GPUs. Mas esta GPU pesa 32 quilos e tem 35.000 peças. Dessas, 8 são da TSMC. É tão pesada que precisa de robôs para ser construída. Parece mais com um carro elétrico e consome 10.000 amperes. Vendemos por US$ 250.000. É um supercomputador.

Durante uma conferência no início da década de 2010, Jensen mencionou seu "Supercomputador de Inteligência Artificial". Elon Musk, interessado pelo projeto enquanto doador da OpenAI, uma organização filantrópica focada em desenvolvimento de IA, contatou Jensen dizendo: "Eu quero um desses!". É muito legal ouvir ele contando a história:

Em 2016, o supercomputador DGX foi concluído, e Jensen fez questão de entregar pessoalmente a primeira unidade à OpenAI. Ele sabia a importância desse momento.

Jensen Huang e Elon Musk

Voltando ao tema central, a expectativa de lucros futuros de uma empresa está intrinsicamente ligada ao tamanho do seu mercado. Para a Nvidia, as oportunidades com IA são vastas. Outro fator crucial são as barreiras à entrada que a empresa impôs. No caso da Nvidia, ela detém vantagens significativas tanto no hardware quanto no software, posicionando-a como líder em um campo altamente competitivo e lucrativo.

Um Hardware Desejado por Todos

Os supercomputadores de IA da Nvidia estão no centro do desenvolvimento de modelos de inteligência artificial como o ChatGPT.

Treinamento é o processo onde um modelo de IA aprende a realizar uma tarefa específica, como responder a um chat. Isso é feito alimentando o modelo com grandes quantidades de dados e ajustando seus parâmetros internos, o que permite ao modelo desenvolver padrões e entender como os dados se relacionam.

Inferência, por outro lado, é o uso de um modelo já treinado para fazer previsões ou tomar decisões com base em novos dados. Quando interagimos com um modelo como o ChatGPT, estamos realizando inferências.

Treinamento exige uma quantidade substancial de poder computacional, enquanto a inferência é geralmente mais rápida e consome menos recursos. O gargalo atual da indústria são os supercomputadores voltados ao treinamento.

Desenho representativo do treinamento de modelos

Grandes empresas como Meta, Google e OpenAI possuem "fazendas" de supercomputadores IA, onde treinam modelos intensivamente — algumas vezes por centenas ou até milhares de dias para um único modelo.

Para ilustrar a escala envolvida, usando a mais recente arquitetura de chips da Nvidia, a Hopper, a OpenAI conseguiu treinar um modelo com 1,8 trilhões de parâmetros em aproximadamente 21 milhões de "horas Hopper". Com um conjunto de cerca de 16.000 chips, isso levaria 54 dias, custando US$63 milhões.

A Nvidia tem se dedicado a aumentar a capacidade de processamento de seus chips. Em sua última conferência anual, ela apresentou uma nova arquitetura chamada Blackwell, que permitiria à OpenAI treinar o mesmo modelo em apenas 11 dias.

Desde o lançamento de sua primeira arquitetura de supercomputador em 2016 a Nvidia aumentou a capacidade de processamento dos seus supercomputadores em 260 vezes em oito anos.

A empresa não só foca em chips que realizam mais cálculos por segundo, mas também na capacidade de comunicação entre eles, crucial para computação paralela e redes neurais. Essa eficiência também contribui para reduzir o tempo necessário para treinar um modelo. Além disso, os novos núcleos tensoriais Blackwell reduzem significativamente os custos operacionais e o consumo de energia, tornando a operação até 25 vezes mais barata.

Estas melhorias têm implicações profundas, possibilitando o desenvolvimento de modelos de IA mais avançados e abrindo portas para aplicações até então inviáveis, marcando uma era de inovação sem precedentes na computação.

No entanto, o hardware não é a única vantagem da Nvidia.

O Software CUDA

Como destacado no artigo sobre a App Store, a dominância em hardware se torna substancialmente mais valiosa quando acompanhada pelo controle do software. Um exemplo é a Apple com o iPhone, onde todos os dispositivos devem obrigatoriamente utilizar o sistema operacional iOS.

Os acionistas da Nvidia têm motivos para se sentirem confiantes, pois a empresa estabeleceu uma relação similar entre hardware e software com o CUDA (Compute Unified Device Architecture). CUDA é uma plataforma e modelo de programação desenvolvidos pela Nvidia que facilita a programação de suas GPUs. Antes de sua criação, programar GPUs exigia uma equipe especializada e, muitas vezes, um PhD na área.

CUDA oferece uma extensa biblioteca de códigos, debuggers e APIs, permitindo que programadores utilizem linguagens simples e comuns que normalmente não são adequadas para manipular diretamente o hardware. Isso proporciona uma maior agilidade e eficiência quando programadores utilizam GPUs da Nvidia, tornando o CUDA o padrão para os principais modelos de IA em uso hoje.

Do ponto de vista econômico, a estratégia com CUDA foi uma jogada de mestre. O software opera em uma arquitetura fechada, o que significa que um algoritmo escrito em CUDA só funcionará em chips da Nvidia. Isso eleva significativamente o custo de troca para clientes que consideram migrar para GPUs de concorrentes.

Explicada as principais barreiras de entrada, vamos cobrir brevemente a concorrência:

Competição na Indústria de Chips

Intel e AMD

A Intel, outrora líder indiscutível no mercado de semicondutores, viu sua posição ser abalada por uma série de erros estratégicos. A empresa, que opera de forma verticalizada — desenhando e produzindo seus próprios chips —, encontrou desafios tanto no design, competindo com Nvidia e AMD, quanto na produção, enfrentando a TSMC. Esses desafios resultaram na perda da liderança técnica em chips para a TSMC, um revés do qual a Intel ainda não se recuperou. Em um encontro com investidores, o próprio CEO da Intel expressou que é "embaraçoso" admitir que a tecnologia de data center da empresa não avançou em cinco anos. Adicionalmente, fracassos no mercado de chips para celulares exacerbaram suas dificuldades tecnológicas. Atualmente, a Intel é a empresa que mais perde participação no mercado de data centers. O preço de sua ação reflete essa dinâmica:

Por outro lado, a AMD, sob a liderança de uma CEO que é prima de Jensen Huang, conseguiu desenvolver um hardware que, em alguns casos, é considerado igual ou até superior ao da Nvidia para processos de inferência. No entanto, quando considerados conjuntamente, os produtos da Nvidia ainda se mostram superiores. Embora a AMD tenha adotado uma abordagem de software mais aberta do que a Nvidia, o que poderia agradar a comunidade de desenvolvedores, sua adoção ainda é relativamente baixa. Atualmente, a AMD detém 7% do mercado de chips para IA, enquanto a Nvidia possui uma dominante participação de 70%.

Gigantes da Tecnologia: Google, Amazon e Apple

  • Google: Conhecido por sua densidade de talentos e lucratividade, o Google desenvolveu seu próprio modelo de IA, o Gemini, treinado em suas unidades de processamento tensorial, TPUs. Ao lançar o TensorFlow, o Google se propõe a oferecer uma alternativa viável ao ecossistema CUDA da Nvidia. No entanto, apesar de ter sido líder incontestável, permitiu que a Nvidia o ultrapassasse.

  • Amazon: A gigante liderada por Jeff Bezos introduziu seus próprios chips, Trainium e Inferentia, mas parece estar atrás de seus concorrentes no desenvolvimento de chips e software de IA. No entanto, com o poder da AWS e recursos financeiros abundantes, a Amazon está bem posicionada para capitalizar no mercado de IA.

  • Apple: Rumores indicam que a Apple está desenvolvendo seus próprios chips de IA. Contudo, parece que a empresa tem se concentrado mais em retornar capital aos acionistas por meio de recompra de ações do que em investir em inovação.

Disruptores e Competidores Emergentes

Além dos grandes nomes, várias startups bem financiadas, como Grog, Cerebras e Graphcore, estão entrando no mercado de chips para IA. Pessoalmente acredito ser muito difícil para uma startup conseguir vencer nesse mercado. Por fim, existem mais de 50 empresas na China estão buscando uma fatia deste mercado, impulsionadas pelo contexto geopolítico atual, o que adiciona uma camada extra de competição global.

O Futuro da IA & Nvidia

Com 70% de participação de mercado em um setor tão dinâmico quanto a Inteligência Artificial, é improvável que a Nvidia mantenha um domínio tão expressivo indefinidamente. Uma participação de mercado de 30-40% me parece mais provável no futuro. Isso não significa, no entanto, um pessimismo em relação à empresa. Pelo contrário, acredito que ela continuará como líder incontestável. No entanto, grandes empresas como a Amazon vão conseguir capturar parte do mercado, especialmente em suas áreas de influência. Capacidade de distribuição nunca deve ser subestimada. Também veremos o crescimento de empresas chinesas, que devem ganhar mercado, mesmo que apenas localmente.

Jensen Huang e a liderança da Nvidia parecem preparados para esses desafios. Eles estão posicionando a empresa para transcender seu papel atual como um mero fabricante de supercomputadores e chips para IA, explorando novos territórios:

Aplicações de IA

A Nvidia está de olho no mercado de aplicações de IA, uma estratégia que se assemelha à abordagem da Apple com seus serviços, como o AppleTV+. A Nvidia já possui aplicações de IA em desenvolvimento para áreas como a descoberta de medicamentos e suporte a enfermeiras, mostrando seu potencial de diversificar para além do hardware. Esse pode ser um nicho muito interessante, especialmente devido a falta de investimentos em empresas de aplicação.

Metaverso & Omniverso

O conceito de metaverso, que gerou grande expectativa antes de ser ofuscado pelo avanço da IA, ainda representa uma área de interesse para a Nvidia. Após os cortes significativos de investimento da Meta no projeto do metaverso, a Nvidia enxerga uma oportunidade de atuar como provedora de infraestrutura para essa nova fronteira digital, algo que chamam de Omniverso.

Essa direção é uma extensão natural do histórico da Nvidia no mercado de jogos 3D para computadores e reflete sua capacidade de adaptar sua expertise tecnológica a novas aplicações e mercados.

Aprendizados

Analisar a trajetória da Nvidia é como participar de uma aula magistral sobre estratégia. Embora algumas pessoas argumentem que a sinergia entre redes neurais e os GPUs da Nvidia tenha sido parcialmente fruto do acaso, isso não diminui em nada as conquistas significativas da empresa. Aqui estão alguns aprendizados importantes que podemos extrair da história da Nvidia:

  • Foco nos Consumidores: A equipe da Nvidia manteve-se atenta ao uso que os pesquisadores faziam de suas GPUs. Essa atenção aos detalhes e às necessidades dos usuários guiou o desenvolvimento dos produtos. A lição é clara e valiosa: sempre ouça seus clientes.

  • Antecipar o Futuro: Wayne Gretzky, frequentemente comparado a Michael Jordan no hóquei, quando questionado sobre o segredo de seu sucesso, disse: "Eu patino para onde o disco vai estar, não onde ele está." Jensen Huang mostrou uma visão semelhante ao posicionar a Nvidia no então nascente mercado de IA, uma decisão que provou ser extremamente acertada.

  • Especialização e Parcerias Estratégicas: A colaboração entre a TSMC e a Nvidia é um dos casos de maior sucesso no capitalismo moderno. Separadamente, talvez nenhuma das duas empresas conseguisse superar a Intel, mas juntas, elas se posicionaram anos à frente de qualquer outro concorrente.

Quer saber mais?

Para aqueles interessados em aprofundar seu entendimento sobre IA e o papel da Nvidia neste campo, recomendo explorar uma série de artigos do bsb relacionados ao tema que podem enriquecer ainda mais seu conhecimento:

Grande abraço

Edu

DISCLAIMER: essa newsletter não é recomendação de investimentos. Seu propósito é puramente de entretenimento e não constitui aconselhamento financeiro ou solicitação para comprar ou vender qualquer ativo. Faça a sua própria pesquisa. Todas as opiniões e visões são pessoais do próprio autor e não constituem a visão institucional de nenhuma empresa da qual ele seja sócio, colaborador ou investidor.