Há um quarto de século, um estudante montou 32 placas gráficas GeForce para jogar Quake III, daí surgiu o CUDA

  • Hoje, CUDA é o verdadeiro trunfo da NVIDIA para dominar segmento de IA;

  • Ele não foi criado exatamente para isso.

Arquitetura de IA nasceu com Quake
Sem comentários Facebook Twitter Flipboard E-mail
pedro-mota

PH Mota

Redator
pedro-mota

PH Mota

Redator

Jornalista há 15 anos, teve uma infância analógica cada vez mais conquistada pelos charmes das novas tecnologias. Do videocassete ao streaming, do Windows 3.1 aos celulares cada vez menores.

1307 publicaciones de PH Mota

Em 2000, Ian Buck queria fazer algo que parecia impossível: jogar Quake III em resolução 8K. Ele estudava ciência da computação em Stanford, com especialização em computação gráfica, quando teve uma ideia maluca: juntar 32 placas de vídeo GeForce e renderizar Quake III em oito projetores estrategicamente posicionados.

"Aquilo", explicou ele anos depois, "foi lindo".

Buck contou essa história em "The Thining Machine", ensaio publicado por Stephen Witt em 2025 que traça a história da NVIDIA. Claro, uma das partes fundamentais dessa história é a origem do CUDA, a arquitetura que os desenvolvedores de IA transformaram em uma joia e que possibilitou impulsionar a empresa e torná-la a mais importante do mundo em valor de mercado.

E tudo começou com Quake III.

GPU como supercomputador doméstico

Aquilo, claro, foi apenas um experimento divertido, mas para Buck foi uma revelação, porque ali ele descobriu que talvez chips gráficos especializados (GPUs) pudessem fazer mais do que apenas desenhar triângulos e renderizar frames de Quake.

Em 2006, GeForce 8800 GTS (e sua versão superior, a GTX) inaugurou era CUDA Em 2006, GeForce 8800 GTS (e sua versão superior, a GTX) inaugurou era CUDA

Para descobrir, ele mergulhou nos aspectos técnicos dos processadores gráficos da NVIDIA e começou a pesquisar suas possibilidades como parte de seu doutorado em Stanford. Ele reuniu um pequeno grupo de pesquisadores e, com uma bolsa da DARPA (Agência de Projetos de Pesquisa Avançada de Defesa), começou a trabalhar numa linguagem de programação de código aberto que chamou de Brook.

Essa linguagem permitiu algo incrível: transformar placas gráficas em supercomputadores domésticos. Buck mostrou que as GPUs, teoricamente dedicadas ao processamento gráfico, podiam resolver problemas de propósito geral, aproveitando o paralelismo oferecido por esses chips.

Assim, enquanto uma parte do chip iluminava o triângulo A, outra já estava rasterizando o triângulo B e outra gravando o triângulo C na memória. Não era exatamente como o paralelismo de dados de hoje, mas ainda oferecia um poder computacional incrível, muito superior a qualquer CPU da época.

Essa linguagem especializada acabou se tornando um artigo chamado "Brook para GPUs: computação de fluxo em hardware gráfico". De repente, a computação paralela estava disponível para todos e, embora o projeto tenha tido pouca repercussão pública, tornou-se algo que uma pessoa sabia ser importante.

Essa pessoa era Jensen Huang.

Pouco depois da publicação do estudo, o fundador da NVIDIA se encontrou com Buck e o contratou imediatamente. Ele percebeu que a capacidade dos processadores gráficos podia e devia ser explorada e começou a dedicar cada vez mais recursos a isso.

Nasce o CUDA

Quando a Silicon Graphics faliu em 2005 — por causa de uma NVIDIA que era inviável em estações de trabalho — muitos de seus funcionários acabaram trabalhando para a empresa. 1,2 mil deles, na verdade, foram diretamente para a divisão de P&D, e um dos grandes projetos dessa divisão foi justamente explorar a capacidade dessas placas.

John Nickolls / Ian Buck John Nickolls / Ian Buck

Assim que chegou à NVIDIA, Ian Buck começou a trabalhar com John Nickolls, que antes de ingressar na empresa havia tentado – sem sucesso – antecipar o futuro com seu compromisso com a computação paralela. Essa tentativa falhou, mas, junto com Buck e alguns outros engenheiros, ele lançou um projeto ao qual a NVIDIA preferiu dar um nome um tanto confuso: Compute Unified Domain Architecture (CUDA).

Assim nasceu a CUDA

O trabalho na CUDA progrediu rapidamente e a NVIDIA lançou a primeira versão da tecnologia em novembro de 2006. O software era gratuito, mas compatível apenas com hardware NVIDIA. E, como costuma acontecer com muitas revoluções, a CUDA levou tempo para se consolidar.

Em 2007, a plataforma de software foi baixada 13 mil vezes: as centenas de milhões de usuários de placas gráficas NVIDIA as queriam apenas para jogos, e assim permaneceu por muito tempo. Programar para tirar proveito do CUDA era difícil, e os primeiros dias foram muito difíceis para este projeto, que consumiu muito talento e recursos financeiros da NVIDIA sem nenhum benefício real.

Na verdade, os primeiros usos do CUDA não tinham nada a ver com inteligência artificial, pois quase não se falava nisso na época. Quem aproveitou essa tecnologia foram os departamentos científicos, e somente anos depois a revolução que essa tecnologia poderia trazer tomaria forma.

Sucesso tardio (mas merecido)

O próprio Buck destacou isso em uma entrevista de 2012 para o Tom's Hardware. Quando o entrevistador lhe perguntou quais usos futuros ele previa para a tecnologia GPGPU oferecida pelo CUDA, ele deu alguns exemplos, mencionando empresas que utilizavam a tecnologia para projetar roupas ou carros de última geração, mas acrescentou algo importante:

"No futuro, continuaremos a ver oportunidades em mídias pessoais, como a classificação e busca de fotos com base no conteúdo da imagem, ou seja, rostos, localização, etc., uma operação que exige muita capacidade de processamento."

Aqui, Buck sabia do que estava falando, embora não imaginasse que aquele seria o início da verdadeira revolução do CUDA. Em 2012, dois jovens doutorandos, Alex Krizhevsky e Ilya Sutskever, desenvolveram um projeto sob a orientação de seu supervisor, Geoffrey Hinton.

Esse projeto era nada menos que o AlexNet, o software que permitia a classificação automática de imagens, algo que até então era um desafio inútil devido ao alto custo computacional exigido. Foi então que esses acadêmicos treinaram uma rede neural com placas gráficas NVIDIA e o software CUDA.

De repente, a IA e o CUDA começaram a fazer sentido.

O resto, como se costuma dizer, é história.

Inicio