IA generativa é uma criação de 2017 que ganhou escala global com o ChatGPT (novembro de 2022), software de maior crescimento da história. Geeks ficaram eufóricos, mas os questionamentos não tardaram: o software capaz de criar receitas com frango ao estilo de Camões cometia erros de lógica triviais.
Uma alternativa para elevar o seu QI foi concebida no ano seguinte e descrita no Brasil em primeira mão aqui na Folha. GPTs geram torrentes de palavras que lembram o pensamento associativo de Kahneman e Tversky (que os economistas comportamentais chamam de sistema 1).
Porém, se orientados a dividir seus deveres em etapas e a explorar múltiplas alternativas em cada uma delas, passam a imitar o pensamento deliberativo (Sistema 2). Essa metodologia ficou conhecida como corrente de pensamento e deu origem às IAs de raciocínio, que hoje superam a média dos médicos em diagnósticos complexos, advogados em análises processuais e assim por diante.
O problema é que custam muito para serem desenvolvidas e operadas —realidade ilustrada pelo o3 (OpenAI; prestes a lançar), que exigiu dezenas de milhões em investimento e consome o equivalente a três tanques de gasolina por desafio lógico enfrentado.
É aí que entra o DeepSeek r1, mostrando que é possível criar IAs de raciocínio sem depender de infraestrutura bilionária —e, mais crucial ainda, operá-las a custos radicalmente menores.
A construção barateada envolve dois insights. Enquanto os modelos estabelecidos passam por um refinamento manual exaustivo —com milhares de indianos e africanos criando exemplos de respostas para alimentar a máquina—, a empresa chinesa usa aprendizado por reforçamento (técnica que rendeu o Nobel de Química de 2024) para automatizar o processo.
O segundo se chama destilação e consiste no uso de IAs como o Llama (OpenSource) para ajudar a treinar o r1 e este para instruir versões menores (r1-Distill), que agem como especialistas em subáreas do conhecimento. Ciente da técnica, a OpenAI acusou a DeepSeek de ter usado seus modelos proprietários na destilação do r1, o que seria tão grave quanto usar reportagens e artigos protegidos por paywalls para treinar o ChatGPT.
A execução barateada, por sua vez, decorre de um outro par de técnicas avançadas. A mais importante é a mistura de experts (MoE): ao invés de acionar toda a rede neural, uma IA coordenadora seleciona o especialista mais adequado para a tarefa em curso, na linha do que o cérebro humano faz.
A outra é a transparência total do raciocínio maquínico, que permite ao usuário identificar erros de entendimento e contextualizar melhor as respostas geradas, tal como a nossa metacognição. A transparência é um avanço mais conceitual do que computacional, tornado possível pelo caráter 100% aberto do r1 —o único modelo de raciocínio a publicar seus pesos neuronais.
Enquanto gigantes como OpenAI e Google tratam seus algoritmos como segredo de Estado, a empresa distribuiu as chaves do cofre, na linha do que fez a Linux nos anos 1990. Isso aumenta a esperança de democratização da tecnologia que definirá a primeira metade do século 21, ainda que exija manobras para pesquisar temas específicos, como a atuação repressiva da ditadura chinesa, que bloqueia o acesso ao tema na versão online (V3) do software da DeepSeek e está pensando seu papel nessa corrida de forma análoga a Trump.