IA gera pesquisa de nível de doutorado em menos de duas horas, diz vencedor da Fields Medal
Timothy Gowers, matemático da Universidade de Cambridge e vencedor da Fields Medal, publicou em 8 de maio de 2026 um relato detalhado de sua experiência com o ChatGPT 5.5 Pro da OpenAI. O resultado: o modelo produziu uma pesquisa de nível de doutorado em teoria aditiva dos números em menos de duas horas, com contribuição matemática zero de Gowers. Ele limitou-se a formular o problema — toda a criatividade e o trabalho técnico vieram da IA.
Isso não é um benchmark sintético nem um problema de olimpíada. Trata-se de um problema aberto real proposto pelo teórico dos números Mel Nathanson, com resultados prévios do estudante de PhD do MIT Isaac Rajagopal. A IA melhorou limites conhecidos de exponenciais para polinomiais usando uma ideia que Rajagopal classificou como “completamente original” e “bastante engenhosa”.
O que o ChatGPT 5.5 Pro resolveu exatamente
O problema central envolve conjuntos de somas de inteiros — estruturas fundamentais em combinatória e teoria dos números. Dado um conjunto A de k inteiros, define-se hA como o conjunto de todas as somas possíveis de h elementos de A. A questão de Nathanson perguntava qual é o menor intervalo {0, 1, …, N} necessário para construir conjuntos que alcancem todos os tamanhos possíveis de hA.
Nathanson havia demonstrado que N cresce exponencialmente com k. Rajagopal, em trabalho publicado na arXiv, mostrou que essa dependência exponencial persiste para o caso geral. O ChatGPT 5.5 Pro reduziu essa bound exponencial para um bound polinomial — especificamente O(k^(10h³)) — em menos de uma hora de trabalho autônomo.
A inovação técnica: conjuntos h²-dissociados
A abordagem de Rajagopal usava séries geométricas com elementos que crescem exponencialmente, o que limitava a eficiência do método. O ChatGPT 5.5 Pro substituiu essa construção por conjuntos h²-dissociados construídos a partir de corpos finitos — uma técnica clássica da combinatória (tipo Bose-Chowla) cuja aplicação a esse problema específico não era óbvia.
A ideia-chave é que conjuntos h²-dissociados permitem controlar relações de ordem até h² entre os elementos, mantendo as propriedades combinatórias necessárias para a prova, mas com elementos de tamanho polinomial em vez de exponencial. Rajagopal avaliou que “é o tipo de ideia de que eu me orgulharia muito de ter tido após uma ou duas semanas de reflexão, e levou o ChatGPT menos de uma hora para encontrar e provar”.
Cronologia do desempenho da IA em matemática
O caso de Gowers não é isolado — ele se insere em uma aceleração clara das capacidades de raciocínio matemático de modelos de linguagem:
| Período | Modelo | Conquista |
|---|---|---|
| Início 2025 | GPT-5 | “Encontrou” solução para problema de Erdős — na verdade apenas localizou literatura existente |
| Meio 2025 | GPT-5.2 Pro | Resolveu problema de Erdős #728 de forma “mais ou menos autônoma” — sem solução existente na literatura |
| Fim 2025 | GPT-5.4 Pro | Resolveu problema aberto de longa data de Erdős em menos de 2 horas |
| Dez 2025 | GPT-5 | Físico Steve Hsu publicou paper cuja ideia central veio do modelo |
| Maio 2026 | ChatGPT 5.5 Pro | Pesquisa original de nível de doutorado com ideias “completamente originais” |
Por que isso importa além da matemática
A demonstração de Gowers é significativa porque atinge o que pesquisadores de IA chamam de “fronteira da criatividade”. Não se trata de seguir um template ou combinar resultados conhecidos de forma mecânica — a ideia dos conjuntos h²-dissociados aplicada a esse problema foi genuinamente nova, verificada por um especialista da área como original.
Gowers argumenta que isso redefine o piso de contribuição aceitável na matemática. Segundo ele, “o limite inferior para contribuir com a matemática será agora provar algo que LLMs não conseguem provar, em vez de simplesmente provar algo que ninguém provou até agora”. A implicação é clara: tarefas que antes exigiam anos de treinamento especializado podem ser executadas por IA em minutos, deslocando o valor humano para a formulação de problemas, verificação e integração de resultados em programas de pesquisa mais amplos.
Terence Tao, outro matemático de elite, já havia antecipado esse cenário ao falar de “matemática em escala industrial” — grandes equipes com suporte de IA realizando varreduras sistemáticas de problemas. O que a experiência de Gowers mostra é que essa escala industrial pode não precisar de equipes grandes: um único pesquisador com acesso ao modelo certo pode produzir resultados que antes demandariam semanas de um doutorando experiente.
Implicações para formação e pesquisa
Gowers levanta questões desconfortáveis sobre o futuro da educação matemática. Se IA resolve “problemas gentis” — aqueles que orientadores costumam dar a alunos iniciantes de PhD para que ganhem confiança —, o treinamento de novos pesquisadores precisa ser repensado. A alternativa que ele propõe é que estudantes aprendam a trabalhar em colaboração com IA, mas reconhece que a qualidade dessa colaboração depende da intuição matemática humana prévia, assim como “bons programadores são melhores em vibe coding do que programadores medianos”.
Há também a questão da atribuição. Gowers propõe um experimento mental: se um matemático resolvesse um problema importante tendo uma longa conversa com um LLM onde o modelo fez todo o trabalho técnico e teve as ideias principais, consideraríamos isso uma grande conquista do matemático? A resposta implícita é não — e isso coloca em xeque noções profundas sobre autoria e mérito intelectual.
O que vem a seguir
A OpenAI já havia relatado que uma versão customizada do GPT-5.5 ajudou pesquisadores a descobrir uma nova prova sobre números de Ramsey, verificada no Lean, conforme detalhado no anúncio oficial do modelo. A experiência de Gowers mostra que essas capacidades não estão restritas a laboratórios internos — estão disponíveis para qualquer pesquisador com acesso à API.
Gowers prevê que quem iniciar um doutorado hoje e terminar em 2029 verá a pesquisa matemática “transformada além do reconhecimento”. Se a trajetória dos últimos 18 meses se mantiver, essa previsão pode ser conservadora.
FAQ
O ChatGPT 5.5 Pro realmente fez pesquisa original?
Sim, no sentido estrito. A ideia central — usar conjuntos h²-dissociados para comprimir estruturas algébricas — foi classificada por Isaac Rajagopal, cujo trabalho a IA expandiu, como “completamente original”. O resultado não existia na literatura e passou por verificação independente.
Isso significa que matemáticos vão ficar desnecessários?
Não necessariamente, mas o papel muda. Gowers argumenta que o valor se desloca para a formulação de problemas, verificação rigorosa e capacidade de dirigir a IA de forma produtiva. Matemáticos com intuição profunda provavelmente usarão essas ferramentas de forma mais eficaz do que leigos.
Que tipo de problemas a IA ainda não consegue resolver?
Áreas da matemática que dependem de exploração aberta a partir de um círculo de ideias — em oposição à resolução retroativa de problemas bem definidos — parecem mais resistentes. Gowers especula que combinatória é particularmente vulnerável por ser orientada a problemas, enquanto campos mais exploratórios podem resistir por mais tempo.
Como acessar o ChatGPT 5.5 Pro?
O modelo está disponível na API da OpenAI desde abril de 2026. Gowers teve acesso antecipado como parte de um programa da empresa com pesquisadores acadêmicos, mas a versão Pro é acessível a qualquer desenvolvedor com conta API, conforme documentação oficial.
Fontes
- A recent experience with ChatGPT 5.5 Pro — Timothy Gowers (blog pessoal)
- Fields Medalist says ChatGPT 5.5 Pro delivered “PhD-level” math research — The Decoder
- Introducing GPT-5.5 — OpenAI
- Rajagopal, I. — On the minimum range of integer sumsets (arXiv)
- OpenAI releases GPT-5.5 with advanced math, coding capabilities — SiliconANGLE
- Discussão no r/singularity — Reddit



