A Anthropic publicou a página do time de Societal Impacts, grupo técnico que estuda como a IA é usada (e mal usada) no mundo real. Trabalha colado com os times de Policy e Safeguards, desenvolve experimentos, métodos de treino e avaliações. A página lista pesquisas recentes, incluindo o estudo com 81 mil users do Claude.ai e relatórios sobre impacto no trabalho de engenharia.
A Anthropic atualizou a página do Societal Impacts, time técnico de pesquisa que investiga como a IA roda no mundo real. O grupo trabalha junto com os times de Policy e Safeguards da casa.
O que o time faz
Duas frentes principais:
- Alinhamento sociotécnico: quais valores humanos os modelos de IA devem carregar, e como agir diante de valores conflitantes ou ambíguos? Como a IA é usada (e mal usada) na vida real? Como antecipar usos futuros e riscos? Os pesquisadores desenvolvem experimentos, métodos de treino e avaliações pra responder essas perguntas.
- Relevância pra política pública: apesar de ser técnico, o time escolhe perguntas com impacto em policy. A aposta é que pesquisa confiável sobre temas que policymakers se importam leva a decisões melhores pra todo mundo.
A leitura honesta aqui: Societal Impacts é o braço que dá munição empírica pros argumentos de policy da Anthropic em Washington e Bruxelas. Não é pesquisa desinteressada, é infraestrutura de influência regulatória feita com rigor técnico.
Pesquisas em destaque
A página elenca trabalhos recentes que valem o radar:
- O que 81 mil pessoas querem da IA (18 de março de 2026): convidaram users do Claude.ai a contar como usam IA, o que sonham que ela possibilite e o que temem. Quase 81 mil participaram. Descrito como o maior e mais multilíngue estudo qualitativo do tipo.
- Como a IA transforma o trabalho na Anthropic (2 de dezembro de 2025): pesquisa com engenheiros e pesquisadores da própria Anthropic, entrevistas qualitativas e análise de uso interno do Claude Code. Conclusão: IA está mudando radicalmente a natureza do trabalho de dev.
- Anthropic Interviewer (4 de dezembro de 2025): ferramenta de entrevista automatizada movida a Claude. Rodou com 1.250 profissionais pra entender como trabalham com IA.
- Values in the wild (21 de abril de 2025): análise de 700 mil interações reais pra mapear quais valores o Claude expressa em conversa. Achado central: o modelo espelha os valores do user na maioria dos casos, mas resiste quando princípios centrais estão em jogo.
- Predictability and Surprise in Large Generative Models (15 de fevereiro de 2022): modelos grandes têm loss previsível via scaling laws, mas capacidades imprevisíveis. Essa tensão tem implicações sérias de policy.
Outras publicações listadas
- Measuring AI agent autonomy in practice (18 de fevereiro de 2026)
- Anthropic Education Report: How educators use Claude (27 de agosto de 2025)
- How people use Claude for support, advice, and companionship (27 de junho de 2025)
- Anthropic Economic Index: AI's impact on software development (28 de abril de 2025)
- Anthropic Education Report: How university students use Claude (8 de abril de 2025)
- Anthropic Economic Index: Insights from Claude 3.7 Sonnet (27 de março de 2025)
- The Anthropic Economic Index (10 de fevereiro de 2025)
Pra quem acompanha a conversa sobre impacto econômico e social de IA, o Economic Index e os Education Reports são as fontes mais citáveis da Anthropic. Vale salvar a página pra consulta quando precisar de dado empírico em apresentação ou relatório.
O time segue contratando. Vagas abertas em anthropic.com.
☕ comentários · 0