A Miopia do Especialista: Por Que o Ceticismo Técnico Sobre IA Pode Cegar para a Revolução

A Miopia do Especialista Fabio Akita no Flow – Por que o Ceticismo Técnico Sobre IA Não Dá Conta da Mudança de Paradigma

Por que o Ceticismo Técnico de Fábio Akita sobre IA Não Dá Conta da Mudança de Paradigma – Flow Podcast (13/06/2025)

Los Angeles, 2013. A Miopia do Especialista. Salão de convenções de um hotel em Burbank, evento do Google sobre o “Futuro das Coisas”. Lembro-me de estar sentado na terceira fileira, caderno aberto, caneta na mão, absorvendo cada palavra dos engenheiros que acabavam de apresentar as “próximas duas décadas de inovação tecnológica”.

A apresentação era fascinante: carros autônomos, computação quântica, realidade aumentada, inteligência artificial aplicada. Mas quando chegaram ao tema tradução automática, o tom mudou completamente. “Esta é uma área”, disse o apresentador, “onde certamente ainda estamos muito distantes de uma solução eficiente. Tradução realmente boa feita unicamente por computadores? Dificilmente veremos isso em nossas vidas.”

Hoje, onze anos depois, escrevo este texto alternando entre português e inglês, com o Google Tradutor e o Claude Sonnet oferecendo traduções que frequentemente superam as de tradutores humanos iniciantes. A predição de “impossível em nossas vidas” se tornou realidade cotidiana em pouco mais de uma década.

E aqui está o paradoxo fascinante da expertise técnica: ela pode ser simultaneamente a bússola mais precisa e a venda mais espessa para enxergar o futuro.

Fábio Akita ocupa hoje um papel semelhante no ecossistema tecnológico brasileiro. Engenheiro veterano, cético profissional, tradutor impiedoso dos discursos corporativos inflados que atravessam o Vale do Silício. Sua voz tornou-se sinônimo de vigilância intelectual em meio à euforia acrítica. E, como aqueles engenheiros do Google em 2013, ele está tecnicamente correto em quase tudo que diz sobre os limites atuais da inteligência artificial.

Mas será que estar certo sobre o motor nos impede de enxergar aonde a viagem está nos levando?

A Virtude do Ceticismo: Onde Akita Acerta

Para construir um diálogo intelectualmente honesto, comecemos reconhecendo onde Akita brilha. Sua definição dos Large Language Models como “autocompletadores de texto glorificados” é mais que uma provocação: é uma lâmina cirúrgica que corta através da antropomorfização fácil desses sistemas.

Quando ele diz que “LLMs não pensam, não têm intenção nem consciência”, está erguendo uma barreira necessária contra a tentação de projetar alma humana em estatística avançada. É uma advertência que ecoa dos grandes pensadores da filosofia da mente: cuidado para não confundir simulação com experiência, processamento com compreensão.

Sua defesa de fundamentos sólidos de programação, frente ao que chama de “vibe coding”, é outro alerta necessário. Em uma era onde algoritmos começam a escrever algoritmos, Akita nos lembra que entender o que está acontecendo por baixo do capô não é luxo intelectual, mas responsabilidade profissional.

E quando aponta para os custos energéticos monumentais desses sistemas (o ChatGPT queimando energia equivalente a dias inteiros de uma metrópole), ele nos força a encarar uma verdade desconfortável: há um preço material, muitas vezes invisível, por trás da aparente leveza da inteligência artificial.

Essas são contribuições valiosas, sobretudo num cenário saturado de promessas messiânicas e quarterly reports disfarçados de revolução tecnológica.

Mas é justamente quando Akita extrapola dessas constatações técnicas para fazer julgamentos estratégicos e filosóficos mais amplos que sua análise revela fissuras reveladoras.

As Contradições que Revelam o Homem Por Trás da Crítica

Talvez não seja coincidência que as contradições mais interessantes em qualquer pensador apareçam não nas suas teses principais, mas nas frestas entre discurso e prática, entre o que se prega e o que se vive.

Tome a questão energética. Akita monta uma narrativa dramática sobre o consumo “insustentável” da IA, mas essa análise merece exame mais nuançado. Consumo energético por si só não é métrica definitiva de valor ou sustentabilidade.

Data centers globais consomem 200 TWh anuais para manter nossa infraestrutura digital. Streaming de vídeo representa 1% do consumo global de energia. A pergunta relevante não é “quanto consome?”, mas “qual valor é gerado por unidade de energia?”

Quando 92% das Fortune 500 reportam ganhos mensuráveis de produtividade e $10 bilhões em receita anual emergem de uma tecnologia, o cálculo energético deve incluir eficiências criadas: automação de tarefas repetitivas, aceleração de descobertas científicas, otimização de processos industriais. O custo real não é energia gasta, mas oportunidade perdida de não utilizar a ferramenta.

Mas a contradição mais reveladora reside na lacuna entre o discurso público e a prática cotidiana. Enquanto descreve os LLMs como “lero-lero” e “autocomplete glorificado”, Akita simultaneamente compartilha casos de uso sofisticados dessas ferramentas: refatoração de código, otimização de fluxos, assistência técnica em linguagens como Zig.

E aqui chegamos ao ponto nevrálgico: se o modelo é fundamentalmente irrelevante, por que ele se tornou parte integral do fluxo de trabalho de alguém tão tecnicamente exigente? A resposta implícita é clara como cristal: a ferramenta é útil, muito mais útil do que o discurso permite reconhecer.

Essa dissonância se intensifica quando consideramos a forma como ele recomenda interagir com IAs. Akita sugere que a melhor estratégia é ser “grosso, direto, quase cruel”, eliminando formalidades. O argumento revela uma inversão conceitual fascinante: se, por um lado, ele rejeita a antropomorfização da IA como erro fundamental, por outro, atribui ao modelo uma sensibilidade quase humana à linguagem de comando, como se “obedecesse melhor” sob pressão.

É, ironicamente, uma antropomorfização às avessas: trata-se a IA como um subordinado teimoso que só responde no grito. Mas o que observamos na prática, entre pesquisadores e heavy users, é precisamente o contrário: os melhores resultados emergem de interações estruturadas, precisas e até colaborativas. A IA responde melhor à clareza, não à agressividade. À precisão, não à brutalidade.

Os Números que Akita Ignora

Toda narrativa de declínio tecnológico tem seus profetas do fim. Eles aparecem em cada ciclo de inovação, armados com análises tecnicamente corretas sobre limitações atuais e extrapolações catastróficas sobre futuros impossíveis. Akita assumiu esse papel com relação à IA, e suas duas principais profecias merecem exame cuidadoso.

A primeira: “raspamos toda a internet e não há mais dados”.

É verdade que os datasets públicos de alta qualidade estão próximos do esgotamento. Pesquisas da Epoch AI projetam que dados públicos de texto serão totalmente utilizados entre 2028 e 2032. Mas essa análise comete o erro de tratar “dados” como sinônimo de “internet pública em texto”.

A realidade é significativamente mais nuançada. Dados sintéticos já demonstram eficiência 8 vezes superior em domínios como matemática. Modelos multimodais processam imagens, vídeo, áudio (universos de informação que mal começamos a explorar). Dados científicos especializados representam petabytes inexplorados em medicina, astronomia, física. E técnicas como RAG (Retrieval-Augmented Generation) e contextos estendidos estão redefinindo o que significa “treinar” um modelo.

Mais importante: o próprio DeepSeek R1 provou que inovações metodológicas (reinforcement learning, chain-of-thought, fine-tuning especializado) podem compensar limitações de dados brutos. Não se trata apenas de quantidade, mas de qualidade e organização da informação.

A segunda profecia: o “teto do hardware”.

Akita projeta um cenário onde a eficiência energética da IA estagnou, ignorando marcos recentes como a TPU v7 do Google ou o Blackwell da NVIDIA, que dobram ou triplicam performance por watt. Da mesma forma que a mineração de criptomoedas migrou de CPUs para ASICs otimizados, o universo da IA está sendo redefinido por arquiteturas customizadas.

O argumento do “gasto energético impossível” já foi usado contra o YouTube, contra streaming, contra smartphones. Em todos os casos, foi superado pela engenharia e pela economia de escala.

Mas há uma terceira limitação, talvez mais sutil: o teto cognitivo. Akita insiste que, como LLMs “apenas completam texto”, não podem desenvolver raciocínio verdadeiro.

E aqui reside a questão mais profunda: o que exatamente queremos dizer com “raciocínio”?

Capacidades Emergentes: O que o Cético Não Previu

Quando o GPT-4 salta de 13% para 83% de precisão em problemas de olimpíada de matemática usando chain-of-thought prompting, estamos diante de algo que não pode ser explicado por “autocomplete melhorado”. Quando o O3 Mini alcança 90.32% de acerto em raciocínio matemático, superando humanos especialistas, que tipo de “completar texto” é esse?

O que emerge nesses modelos não é inteligência programada, mas inteligência emergente: capacidades que surgem da escala, da densidade de parâmetros, da interação complexa entre bilhões de conexões que nenhum engenheiro codificou explicitamente.

E talvez esse seja o ponto cego fundamental da visão puramente técnica: ela assume que inteligência só pode surgir quando imita exatamente o raciocínio humano. Mas e se o raciocínio humano for apenas uma entre muitas formas possíveis de navegar a realidade simbólica?

Os dados falam por si: 400 milhões de usuários ativos semanais. $10 bilhões em receita anual para a OpenAI. 92% das Fortune 500 integrando esses “autocompletadores” em operações críticas. Equipes reportando 12% de aumento em produtividade e 25% de aceleração em tarefas complexas.

Não são números de hype, mas indicadores de transformação econômica mensurável.

Talvez estejamos cometendo o que poderíamos chamar de “falácia da forma”: assumir que inteligência deve necessariamente espelhar nossa própria arquitetura cognitiva. Quando Akita insiste que LLMs “não raciocinam”, ele está aplicando uma métrica fenomenológica (raciocínio como experiência consciente) a uma manifestação instrumental (raciocínio como capacidade de navegar problemas complexos). Mas e se a questão não for “como” a máquina raciocina, mas “se” ela produz resultados que requerem raciocínio? Quando um sistema resolve problemas matemáticos olímpicos, diagnostica doenças raras, ou escreve código funcional, estamos diante de inteligência instrumental genuína, mesmo que fenomenologicamente distinta da nossa. A crítica puramente técnica erra ao exigir que a máquina sinta o que pensa, quando talvez devêssemos medir o que ela consegue fazer com o que processa.

Harari vs. Akita: Duas Formas de Ceticismo

É fascinante contrastar a abordagem de Akita com a de outro cético proeminente da IA: Yuval Noah Harari. Ambos compartilham desconfiança profunda sobre as promessas tecnológicas, mas suas perspectivas revelam horizontes intelectuais completamente diferentes.

Onde Akita vê limitações técnicas e custos energéticos, Harari enxerga transformações antropológicas. O historiador israelense não questiona se a IA funcionará, mas sim o que ela fará conosco quando funcionar. Sua preocupação não é com tokens ou parâmetros, mas com algoritmos que “nos conhecem melhor do que nós mesmos”.

Harari alerta para uma IA que pode hackear o sistema operacional humano, não através de superinteligência, mas através de compreensão profunda de nossos padrões comportamentais, emocionais e cognitivos. “Você não precisa de consciência para manipular consciências”, escreve ele. “Você precisa de dados.”

Essa é uma forma de ceticismo mais sofisticada: não nega a potência da tecnologia, mas questiona suas implicações sistêmicas. Harari entende que a revolução da IA não será medida em benchmarks técnicos, mas em reconfiguração de relações de poder, economia da atenção, e definição de verdade.

Onde Akita vê “lero-lero”, Harari vê reorganização civilizacional. Ambos podem estar parcialmente corretos, mas apenas um está fazendo as perguntas certas sobre o que realmente importa.

A Miopia do Especialista

E assim chegamos ao coração da questão. Fábio Akita representa um tipo específico de intelectual: o especialista cético, cuja autoridade deriva de conhecimento técnico profundo e de uma capacidade rara de desmontar narrativas infladas. É uma figura necessária, até essencial, no ecossistema tecnológico.

Mas toda forma de visão tem seus pontos cegos. A mesma acuidade que permite detectar limitações atuais pode, quando não calibrada, criar resistência desnecessária a transformações genuínas.

A história da tecnologia está repleta de experts que estavam tecnicamente corretos sobre limitações específicas, mas fundamentalmente errados sobre trajetórias emergentes. Aqueles engenheiros do Google em 2013 estavam certos sobre a dificuldade técnica da tradução automática naquele momento. Mas estavam errados sobre a velocidade da inovação e a direção do progresso.

Akita pode estar certo sobre as limitações atuais dos LLMs. Mas talvez esteja perdendo de vista algo mais fundamental: a revolução não está acontecendo dentro dos modelos, mas na interface entre humanos e máquinas, na forma como essas ferramentas amplificam capacidades cognitivas, aceleram processos criativos, democratizam acesso ao conhecimento.

Tome a descoberta de medicamentos para doenças raras como a fibrose cística. Humano sozinho: Possui intuição clínica, compreende necessidades dos pacientes, mas não consegue processar milhões de combinações moleculares. IA sozinha: Pode analisar bilhões de estruturas químicas, mas não compreende relevância clínica nem pode interpretar sintomas complexos.

Juntos: Médico define parâmetros clínicos críticos → IA processa 100 milhões de compostos em horas → identifica 1.000 candidatos → médico aplica conhecimento clínico para filtrar 50 → IA simula interações moleculares → médico seleciona 5 para testes → IA otimiza dosagens → resultado: Trikafta, medicamento que trata 90% dos casos de fibrose cística, descoberto em 18 meses vs. 10-15 anos do processo tradicional.

Nem o melhor médico do mundo nem a IA mais sofisticada conseguiriam esse resultado isoladamente.

A inteligência emerge na interface, na dança entre intuição humana e processamento computacional.

A inteligência, aqui, não é atributo da máquina. É propriedade emergente da relação.

Um Convite à Calibração

Não pretendo converter céticos em evangelistas da IA. A crítica ao hype é necessária. A vigilância sobre promessas infladas, saudável. A atenção aos custos reais (energéticos, sociais, epistêmicos) é responsabilidade intelectual.

Mas o verdadeiro desafio do nosso tempo talvez seja mais sutil: aprender a distinguir entre limitações temporárias e impossibilidades fundamentais. Entre ceticismo saudável e conservadorismo epistêmico. Entre análise técnica rigorosa e profecia tecnológica.

Como aqueles engenheiros do Google em 2013, Akita possui expertise genuína sobre a infraestrutura atual. Sua análise dos limites técnicos é valiosa. Mas talvez seja hora de considerar que a revolução mais profunda não acontece no nível da engenharia, mas no nível da experiência humana.

A IA não está moldando o mundo porque entendeu o que significa ser humana. Está moldando o mundo porque nos obriga a entender melhor o que significa pensar, criar, aprender… e questionar.

E quem sabe essa não seja a verdadeira medida de qualquer tecnologia transformadora: não o que ela faz por si mesma, mas o que nos força a nos tornar.

Por isso, o convite final não é para abandonar o ceticismo, mas para calibrá-lo. Não para aceitar promessas sem evidências, mas para reconhecer transformações quando elas se manifestam em dados concretos.

Porque o território, esse, definitivamente já começou a mudar.

A crítica técnica nos ensina sobre os limites do presente. A imaginação informada nos prepara para as possibilidades do futuro. Talvez precisemos de ambas.

Relacionados

Deixe um comentário