Inovação de verdade em IA: o que o Reddit está expondo sobre o abismo entre demo e operação
A cena é quase caricata, mas real: um robô-cão comercial, comprado pronto, aparece em um evento de IA como se fosse avanço local de fronteira. O vídeo viraliza, a narrativa desanda, e a conversa no Reddit sai do meme para um ponto sério: estamos confundindo encenação tecnológica com capacidade de inovar. Para quem lidera produto, operação ou estratégia, a pergunta é menos “quem passou vergonha” e mais “como evitar que a minha empresa faça o mesmo com orçamento maior e impacto pior”.
Este artigo mergulha nesse problema com método editorial: parte de discussões recentes no Reddit (r/artificial, r/Futurology e r/technology), cruza com dados de mercado e produtividade, e chega a um plano de execução para transformar IA em resultado verificável. Sem hype, sem sermão e sem atalhos retóricos.
O gatilho: quando a comunidade detecta inovação de fachada em minutos
Um dos tópicos recentes que mais circulou em r/artificial foi o caso do India AI Impact Summit 2026, no qual um Unitree Go2 (produto já comercializado internacionalmente) teria sido apresentado com framing de “inovação local inédita”. O valor do episódio não está na fofoca de evento. Está no diagnóstico coletivo que ele produz:
- A comunidade técnica identifica rapidamente quando há reembalagem de tecnologia existente como se fosse ruptura.
- A credibilidade de um projeto de IA pode ruir em horas, porque o escrutínio distribuído é imediato.
- Narrativa sem lastro técnico não só falha em convencer especialistas; ela também contamina a percepção de investidores, parceiros e talento.
Esse padrão conversa com outro debate visto em r/technology sobre “AI washing”: empresas atribuindo decisões de corte, pivô ou reposicionamento à IA, mesmo quando o fator causal principal é financeiro, estratégico ou simplesmente má gestão. Ou seja: IA vira álibi de gestão.
Quando esse comportamento escala, acontece algo mais grave: times sérios, com bons experimentos, passam a ser avaliados no mesmo pacote dos oportunistas. O custo reputacional deixa de ser individual e vira custo de categoria.
O termômetro do Reddit importa mais do que parece
Muita gente trata Reddit como ruído. Isso é erro tático. O que aparece em comunidades como r/artificial e r/Futurology costuma antecipar três dinâmicas:
1. Linguagem de mercado: os termos que investidores e imprensa passarão a usar (“agentic”, “copilot fatigue”, “AI washing”, “model commoditization”).
2. Critérios informais de credibilidade: o que passa por “prova” versus o que já é visto como marketing vazio.
3. Mudança de risco reputacional: projetos com narrativa frágil são desmontados publicamente com alta velocidade.
A consequência prática: quem lidera inovação não pode planejar só para conselho e diretoria; precisa planejar para um ambiente em que qualquer decisão vira tese pública. Não é governar por rede social. É reconhecer que reputação técnica hoje é construída em circuito aberto.
O paradoxo de 2026: investimento recorde, maturidade operacional desigual
Os dados mais recentes reforçam o paradoxo. De um lado, aceleração robusta:
- O AI Index 2025 (Stanford HAI) destaca avanço expressivo de desempenho em benchmarks exigentes de modelo em um único ano.
- O mesmo relatório aponta forte avanço de uso empresarial e investimento privado em IA, com liderança de volume pelos EUA e aproximação de desempenho por outros polos.
- O AI Jobs Barometer 2025 (PwC), baseado em grande volume de vagas globais, mostra aceleração de mudança de habilidades, prêmio salarial para competências de IA e crescimento de produtividade em setores mais expostos.
Do outro lado, a maturidade de execução segue heterogênea:
- Empresas compram licença e chamam de transformação.
- Pilotos não viram processo.
- Processo não vira indicador de negócio.
- Indicador não vira rotina de gestão.
O resultado é uma economia de dois trilhos. Um grupo transforma IA em vantagem acumulativa (mais velocidade, melhor margem, melhor qualidade). Outro grupo produz “projeto de palco”: muito lançamento, pouca consequência.
A anatomia da falsa inovação em IA (e por que ela é tão sedutora)
A inovação de fachada em IA normalmente combina cinco elementos:
1) Substituição de problema por vitrine
Em vez de atacar gargalo real (tempo de resposta, retrabalho, erro operacional, custo de aquisição, churn), escolhe-se uma demonstração vistosa. O demo é bonito e irrelevante.
2) Métrica de adoção no lugar de métrica de valor
“Temos 3 mil usuários ativos no chatbot interno” não responde se houve ganho de margem, ciclo menor de entrega ou qualidade superior. Adoção é meio, não fim.
3) Dependência de caso heróico
Se o resultado depende de duas pessoas fora da curva e de um gerente que supervisiona tudo manualmente, não é sistema; é exceção.
4) Comunicação que promete autonomia onde há roteiro rígido
Muitas “IAs autônomas” funcionam bem apenas em tarefas altamente delimitadas. Não há problema nisso. O problema é vender robustez geral quando só existe desempenho em faixa estreita.
5) Governança reativa
Compliance, segurança e risco entram tarde, como etapa de aprovação final. Quando chegam, travam tudo — e o projeto “morre por burocracia”. Na prática, morreu por desenho ruim desde o início.
Essa anatomia é sedutora porque gera aplauso rápido. O que ela não gera é tese sustentável.
O que os dados de produtividade já permitem afirmar sem romantismo
Apesar do excesso de propaganda, já existe evidência concreta de impacto produtivo em casos específicos. O estudo “Generative AI at Work” (NBER), com milhares de agentes de atendimento, mostrou ganho médio de produtividade relevante, com efeitos maiores em profissionais novatos e melhora em indicadores de qualidade de atendimento.
A leitura madura desse tipo de evidência é:
- IA pode elevar produtividade de forma mensurável em tarefas padronizáveis e intensivas em texto.
- O efeito é distribuído de forma desigual: muitas vezes ajuda mais a base do que o topo.
- O design de processo importa tanto quanto o modelo. Ferramenta sem fluxo vira ruído.
Esse ponto é central para evitar decepção de board. O ganho não vem porque “a IA é poderosa”. O ganho vem quando o trabalho foi reestruturado para capturar essa potência. Em outras palavras: valor nasce na interface entre produto, processo e gestão.
Três níveis de inovação com IA: cosmético, funcional e estrutural
Uma forma prática de evitar autoengano é classificar iniciativas em três níveis.
Nível 1 — Cosmético
- Entregável: assistente, plugin, resumo automático, recurso “AI-enabled” na interface.
- Sinal típico: boa demo, baixa integração com operação.
- Impacto provável: percepção de modernidade, pouco efeito econômico.
Nível 2 — Funcional
- Entregável: automação de tarefas em fluxo existente (suporte, prospecção, documentação, QA).
- Sinal típico: redução de tempo/custo em etapas específicas.
- Impacto provável: ganho incremental relevante, ainda limitado por arquitetura antiga.
Nível 3 — Estrutural
- Entregável: redesenho de como o trabalho é feito (papéis, handoffs, SLAs, decisão, controle de qualidade).
- Sinal típico: combinação de IA + novos ritos operacionais + gestão por indicadores.
- Impacto provável: vantagem cumulativa, difícil de copiar rapidamente.
A maior parte das empresas está entre o nível 1 e o 2. A criação real de vantagem competitiva começa no 3. E é exatamente no 3 que a maioria para, porque exige mudança organizacional, não só compra de tecnologia.
O trade-off que ninguém gosta de discutir: velocidade versus confiabilidade
Quase toda operação de IA enfrenta o mesmo dilema: quanto mais você acelera lançamento, maior a chance de erro, alucinação, vazamento contextual ou ação inconsistente. Quanto mais você endurece governança, maior o risco de engessar.
Resolver esse trade-off exige engenharia de operação, não opinião. Algumas práticas que funcionam:
– Faixas de autonomia por risco: IA com ação automática em tarefas de baixo risco; revisão humana obrigatória em tarefas de alto impacto.
– Orçamento de erro explícito: definir taxa tolerável de falha por tipo de caso, com gatilho de rollback.
– Camada de observabilidade: logs úteis, avaliação contínua e auditoria amostral.
– Controle de contexto: políticas claras de quais dados entram no prompt, quando, e com qual retenção.
– Fallback desenhado: quando o sistema falha, o processo humano assume sem colapsar SLA.
Sem isso, a empresa alterna entre dois extremos ruins: ousadia irresponsável e paralisia burocrática.
O playbook editorial-operacional: como sair da fase “demo bonita”
A seguir, um plano em oito frentes para organizações que querem inovação de verdade com IA.
1) Defina tese de valor por unidade de negócio
Não comece por ferramenta. Comece por fricção econômica.
Perguntas úteis:
- Onde temos maior desperdício de horas qualificadas?
- Onde o lead time prejudica receita ou experiência?
- Onde erro de execução custa margem ou risco jurídico?
Cada tese deve nascer com métrica alvo (ex.: reduzir tempo médio de atendimento em 25%, aumentar taxa de resolução no primeiro contato em 12%, cortar retrabalho em 30%).
2) Faça inventário de tarefas, não só de cargos
Transformação séria exige decompor trabalho em tarefas e decisões. “Analista de operações” é rótulo; o que interessa é o conjunto de atividades dentro do cargo.
Classifique tarefas em:
- automatizáveis,
- aumentáveis (IA apoia, humano decide),
- essencialmente humanas (negociação sensível, julgamento contextual profundo, responsabilização final).
Isso evita duas ilusões: “tudo será automatizado” e “nada pode ser automatizado”.
3) Construa trilhas de adoção por risco
Cada caso de uso entra em uma trilha:
– Baixo risco: texto interno, resumo, apoio a documentação.
– Médio risco: respostas ao cliente com revisão, apoio a decisão operacional.
– Alto risco: decisões financeiras, jurídicas, de saúde, segurança ou compliance.
Com trilhas, a governança deixa de ser barreira genérica e vira critério técnico proporcional.
4) Trate dados como produto operacional
Muitos programas falham porque a empresa tenta “fazer IA” sem governar dados mínimos: versionamento, qualidade, direitos de acesso, taxonomia, ciclo de atualização.
Sem esse básico, o modelo pode ser excelente e ainda assim entregar resposta errada por contexto ruim.
5) Redesenhe incentivos de liderança intermediária
Gerentes médios são pivô da adoção real. Se forem cobrados apenas por estabilidade de curto prazo, bloquearão mudança por autoproteção. Se forem cobrados por “usar IA” sem critério, empurrarão teatro tecnológico.
O incentivo correto mistura:
- resultado operacional,
- qualidade/risco,
- aprendizado validado.
6) Institua “comitê de verdade operacional” mensal
Não é comitê para slide. É para decisão.
Rito sugerido:
- 30% do tempo: indicadores de valor (custo, velocidade, qualidade, receita).
- 30%: incidentes, risco e aprendizado.
- 20%: backlog de melhorias com dono e prazo.
- 20%: critérios de escalar, pausar ou encerrar casos.
A regra de ouro: projeto sem evidência sai do portfólio.
7) Treine para função, não para moda
Treinamento genérico de “prompt” sem contexto de trabalho real tem efeito limitado. O que funciona é capacitação por cenário:
- vendedor treinando IA para pré-qualificação e follow-up;
- jurídico treinando revisão assistida com matriz de risco;
- suporte treinando resposta contextual com política clara de escalonamento.
8) Institua política anti-AI-washing
Toda comunicação externa e interna sobre IA deve responder a quatro perguntas:
1. Qual problema específico foi resolvido?
2. Qual métrica melhorou e em quanto?
3. Qual limite da solução hoje?
4. Qual risco permanece aberto?
Se não há resposta para as quatro, não é caso de sucesso; é material promocional.
Exemplo concreto de aplicação: operação de atendimento e retenção
Para tornar acionável, imagine uma empresa SaaS B2B de médio porte com as seguintes dores:
- fila de suporte acima de SLA em picos;
- inconsistência de respostas entre analistas;
- churn elevado em contas SMB por baixa resolução inicial.
Situação inicial (90 dias antes)
- Tempo médio de primeira resposta alto.
- Resolução no primeiro contato abaixo do desejável.
- Base de conhecimento desatualizada.
- Treinamento de novos analistas lento.
Intervenção com IA (sem fantasia de autonomia total)
1. Motor de sugestão de resposta com contexto da base e histórico da conta.
2. Classificador de prioridade e risco do ticket.
3. Assistente de atualização de artigos de base de conhecimento.
4. Painel de auditoria com amostra semanal de qualidade.
5. Regra de revisão humana em casos de cobrança, contrato e incidentes críticos.
Resultado esperado plausível
- redução de tempo de resposta,
- ganho de consistência em linguagem e política,
- aceleração da curva de aprendizado de novatos,
- melhora de satisfação.
Observe: nada aqui depende de “AGI”. Depende de processo, contexto e disciplina de gestão. É menos cinematográfico e muito mais rentável.
O erro estratégico mais caro: confundir compra de modelo com construção de capacidade
Com a corrida por modelos cada vez mais acessíveis, muita liderança conclui que vantagem competitiva em IA será impossível porque “todo mundo terá acesso ao mesmo modelo”. Metade dessa frase é verdade. A outra metade é preguiça analítica.
Se o modelo base tende à comoditização, a vantagem migra para:
- qualidade e governança de dados internos;
- integração de IA nos fluxos proprietários da operação;
- velocidade de aprendizado organizacional;
- capacidade de avaliar e trocar componentes sem trauma.
Em resumo: a ferramenta pode ser parecida entre concorrentes; o sistema operacional da empresa não.
O que separar imediatamente: inovação legítima versus performance de palco
Use esta régua simples no próximo trimestre.
Sinal de inovação legítima:
- há problema econômico claro;
- há baseline antes/depois;
- há dono do indicador;
- há limite declarado da solução;
- há ciclo de melhoria contínua documentado.
Sinal de performance de palco:
- foco em “lançamento” e não em resultado;
- uso de termos amplos sem métrica;
- ausência de critérios de desligamento do projeto;
- material de comunicação mais robusto que a operação;
- dependência de narrativas grandiosas para sustentar decisão fraca.
Essa distinção parece óbvia, mas é justamente onde muitos programas de IA se perdem.
Checklist prático para os próximos 60 dias
Use este checklist como sprint executivo.
- [ ] Escolher 3 casos de uso com impacto econômico claro e baixo/médio risco.
- [ ] Definir baseline de métricas antes da intervenção.
- [ ] Nomear dono de negócio e dono técnico por caso.
- [ ] Especificar limites operacionais e critérios de revisão humana.
- [ ] Criar painel quinzenal com custo, tempo, qualidade e risco.
- [ ] Rodar piloto de 4 semanas com grupo de controle quando possível.
- [ ] Publicar lições aprendidas internas (o que funcionou / o que falhou).
- [ ] Encerrar pelo menos 1 iniciativa sem valor comprovado.
- [ ] Reinvestir orçamento do projeto encerrado no caso de maior evidência.
- [ ] Padronizar política anti-AI-washing para comunicação interna e externa.
Se o seu programa não consegue cumprir esse checklist, ele não está em fase de escala. Está em fase de descoberta — e tudo bem, desde que isso seja assumido com transparência.
Matriz de decisão: onde investir primeiro (e onde segurar)
Uma crítica comum aos programas de IA é que “tudo parece prioridade”. Quando tudo é prioridade, nada avança com qualidade. A matriz abaixo ajuda a priorizar sem cair em paralisia.
Eixo 1: impacto econômico potencial
Avalie em cinco níveis:
- redução de custo direto,
- aumento de produtividade com impacto em receita,
- melhoria de experiência com efeito em retenção,
- mitigação de risco regulatório/jurídico,
- criação de nova oferta comercial.
Um caso de uso pode pontuar alto em mais de um critério, mas o ideal é escolher um critério primário para evitar confusão de narrativa.
Eixo 2: prontidão operacional
Aqui entram perguntas que pouca gente faz no início:
- temos dados minimamente organizados para esse caso?
- temos processo claro hoje (mesmo que ineficiente)?
- existe dono de negócio com poder de decisão?
- existe time técnico disponível para integração e monitoramento?
- temos margem de erro aceitável para experimentar?
Casos de alto impacto e baixa prontidão não devem ser descartados, mas precisam de fase preparatória explícita. O erro clássico é prometer resultado de negócio antes de construir fundação operacional.
Eixo 3: risco reputacional e regulatório
Nem toda automação é neutra. Decisões que envolvem crédito, saúde, cobrança, reputação de marca ou dados sensíveis exigem camada extra de explicabilidade e supervisão.
Regra prática:
– alto impacto + alto risco + baixa prontidão = não escalar;
– alto impacto + risco controlável + prontidão média = piloto com guarda forte;
– impacto médio + baixo risco + alta prontidão = quick win disciplinado.
Quando essa matriz vira rotina trimestral, o portfólio de IA deixa de ser coleção de apostas e passa a ser carteira de ativos operacionais.
Roteiro de 12 meses para transformar IA em capacidade institucional
Muitas empresas organizam IA por “ondas de moda”. É melhor organizar por capacidade crescente. A seguir, um roteiro de 12 meses dividido em quatro ciclos.
Ciclo 1 (meses 1-3): fundação e clareza de valor
Objetivos:
- selecionar 2 a 4 casos com problema econômico claro;
- definir métricas de baseline;
- mapear riscos e políticas de uso;
- desenhar arquitetura mínima de integração.
Entregáveis:
- documento de tese por caso;
- padrão de medição (antes/depois);
- protocolo de revisão humana por risco;
- backlog técnico priorizado por valor.
Erro a evitar: iniciar treinamento massivo sem casos concretos. Isso gera entusiasmo inicial e frustração rápida.
Ciclo 2 (meses 4-6): pilotos orientados a decisão
Objetivos:
- executar pilotos curtos com grupo de controle quando possível;
- medir resultado semanalmente;
- capturar incidentes e ajustar processo.
Entregáveis:
- relatório de desempenho por caso;
- mapa de falhas recorrentes;
- decisão de escalar, corrigir ou encerrar.
Erro a evitar: “salvar” piloto ruim por apego político. Projeto sem evidência consome recursos que poderiam ampliar um caso realmente promissor.
Ciclo 3 (meses 7-9): escala com governança
Objetivos:
- expandir casos aprovados para novas equipes/regiões;
- padronizar monitoramento de qualidade;
- integrar indicadores de IA ao cockpit executivo.
Entregáveis:
- playbook operacional de escala;
- painel único com métricas de valor e risco;
- rotina de auditoria e melhoria contínua.
Erro a evitar: escalar sem padronização mínima de dados e sem trilha de fallback. Isso transforma ganho inicial em dívida operacional.
Ciclo 4 (meses 10-12): institucionalização e diferenciação
Objetivos:
- consolidar biblioteca de componentes reutilizáveis;
- formalizar política anti-AI-washing;
- alinhar estratégia de talentos para nova divisão de trabalho.
Entregáveis:
- catálogo de casos replicáveis;
- framework oficial de comunicação de resultados;
- plano anual de capacitação por função.
Erro a evitar: tratar o fim do primeiro ano como “projeto concluído”. IA é disciplina contínua, não campanha anual.
Como o board deve cobrar IA sem incentivar teatro
Conselhos e diretorias têm papel decisivo na qualidade da transformação. O problema é que perguntas mal formuladas induzem respostas cosméticas.
Perguntas que atrapalham:
- “Quando teremos IA em toda a empresa?”
- “Qual é a nossa grande aposta disruptiva para anunciar no evento X?”
- “Podemos prometer X% de eficiência ainda este trimestre?”
Perguntas que ajudam:
- “Qual iniciativa está entregando valor líquido comprovado?”
- “Qual é o principal risco operacional hoje e como está sendo mitigado?”
- “Que projeto será encerrado este trimestre por falta de evidência?”
- “Qual aprendizado mudará nossa alocação de orçamento no próximo ciclo?”
Board bom não premia apenas coragem de testar; premia capacidade de decidir com base em evidência.
Sinais precoces de que seu programa de IA está entrando em zona de risco
Há sinais que aparecem antes do fracasso explícito. Se três ou mais estiverem presentes, é hora de correção imediata:
- reuniões cheias de demos e pobres de métricas;
- confusão recorrente entre POC, piloto e produto;
- dependência de consultoria para operar rotina básica;
- ausência de incident log com ação corretiva;
- conflito entre áreas sobre “quem é dono” do caso;
- satisfação do usuário final piorando apesar de “mais IA”;
- comunicação externa mais madura que operação interna.
A correção costuma passar por menos espetáculo e mais gestão de portfólio.
FAQ — perguntas que líderes realmente fazem (e nem sempre em público)
1) “Se eu não usar IA em tudo agora, vou ficar para trás?”
Não. Apressar sem foco destrói confiança e orçamento. Ficar para trás não é usar menos casos; é aprender mais devagar que o mercado sobre onde a IA gera valor real.
2) “Como evitar que a empresa faça AI washing sem perceber?”
Exija prova de impacto antes de celebrar iniciativa. Não aceite “adoção” como métrica final. Institua revisão editorial/técnica para toda comunicação de sucesso com IA.
3) “Qual a melhor forma de começar: copiloto horizontal ou caso vertical?”
Para captura de valor, caso vertical (fluxo específico com métrica de negócio) tende a gerar resultado mais rápido. Copiloto horizontal é útil para letramento e ganho difuso, mas costuma diluir accountability.
4) “IA vai reduzir equipe necessariamente?”
Não necessariamente. Em muitos cenários, o primeiro efeito é redistribuição de tarefas e aumento de capacidade. O impacto em headcount depende de estratégia de crescimento, qualidade e serviço, não só de tecnologia.
5) “Como lidar com erro da IA em ambiente crítico?”
Definindo trilhas de risco, revisão humana para casos sensíveis, logs auditáveis e fallback operacional. Erro não é exceção; é variável de projeto.
6) “Vale desenvolver modelo próprio?”
Só quando há vantagem clara em dados, requisito regulatório específico ou necessidade de controle fino de custo/desempenho. Na maioria dos casos iniciais, integração e processo entregam mais valor que treino proprietário.
7) “Como medir ROI de forma honesta?”
Combine métricas diretas (tempo, custo, conversão, churn, qualidade) com custos completos (licença, integração, governança, treinamento, retrabalho). ROI sem custo total é propaganda.
8) “Qual perfil de liderança faz IA funcionar?”
Líder que sustenta três frentes ao mesmo tempo: pragmatismo de operação, disciplina de risco e capacidade de comunicação sem exagero. Nem tecnofetichista, nem cético paralisante.
9) “Como usar sinais do Reddit sem virar refém de trend?”
Use Reddit como radar de percepção e de risco narrativo, não como bússola de estratégia. A estratégia vem dos seus dados operacionais.
10) “Quando escalar nacional/globalmente um caso de IA?”
Quando o caso mostrar estabilidade de resultado por ciclos sucessivos, comportamento previsível em picos e governança pronta para incidentes. Escala antes disso amplifica problema.
Conclusão executiva: 5 decisões para não cair no teatro da IA
Se você é CEO, diretor ou gestor de transformação, aqui está o resumo acionável:
1. Troque discurso por tese econômica.
IA sem problema de negócio bem definido vira gasto de inovação sem retorno.
2. Desenhe governança desde o início.
Segurança e compliance não são etapa final; são arquitetura de implantação.
3. Meça valor, não entusiasmo.
Usuário ativo e demo elogiada são sinais fracos. O que importa é desempenho operacional.
4. Aceite que transformação é organizacional.
Comprar tecnologia é fácil; mudar processo, incentivo e rotina de decisão é o trabalho real.
5. Comunique com precisão brutal.
Em 2026, a comunidade técnica desmonta exagero em tempo real. A reputação mais valiosa é a de quem entrega e admite limites.
A lição do momento é simples e exigente: inovação com IA não é sobre parecer avançado. É sobre construir capacidade que aguenta auditoria, escala e tempo.
Se você levar uma única decisão deste texto para a próxima reunião executiva, leve esta: troque a pergunta “que ferramenta nova vamos lançar?” por “que resultado operacional vamos defender em público daqui a 90 dias?”. Essa troca muda orçamento, muda prioridade e muda comportamento de liderança. E, sobretudo, impede que a empresa confunda presença em conversa de inovação com construção real de competitividade.
Em mercados pressionados por margem, talento escasso e velocidade de resposta, IA não é enfeite estratégico. É infraestrutura de decisão. Quem tratar como vitrine vai colecionar anúncios. Quem tratar como disciplina vai acumular resultado.
Referências
- Reddit (r/artificial): At the India AI Impact Summit 2026, Galgotias University showcased a Unitree Go2 robot dog — a commercially available Chinese product — and presented it as an Indian breakthrough innovation. https://www.reddit.com/r/artificial/comments/1r81g0b/at_the_india_ai_impact_summit_2026_galgotias/
- Reddit (r/Futurology): The Worst-Case Future for White-Collar Workers. https://www.reddit.com/r/Futurology/comments/1r8bwbl/the_worstcase_future_for_whitecollar_workers/
- Reddit (r/technology): US companies accused of ‘AI washing’ in citing artificial intelligence for job losses. https://www.reddit.com/r/technology/comments/1qzprpk/us_companies_accused_of_ai_washing_in_citing/
- Stanford HAI — The 2025 AI Index Report. https://hai.stanford.edu/ai-index/2025-ai-index-report
- NBER Working Paper 31161 — Generative AI at Work. https://www.nber.org/papers/w31161
- PwC — The Fearless Future: 2025 Global AI Jobs Barometer. https://www.pwc.com/gx/en/services/ai/ai-jobs-barometer.html
- Microsoft Work Trend Index (2025). https://www.microsoft.com/en-us/worklab/work-trend-index



