A OpenAI lançou o Bio Bug Bounty do GPT-5.5: desafio pago pra pesquisadores tentarem quebrar as salvaguardas de biossegurança do modelo. Recompensa de US$ 25 mil pra quem achar um jailbreak universal que derrote os cinco prompts do teste, rodando no Codex Desktop. Inscrições vão até 22 de junho de 2026, testes de 28 de abril a 27 de julho de 2026.
Bounty de US$ 25k por jailbreak universal é baixo pro risco reputacional envolvido (bio + NDA). Mas o sinal importa: OpenAI tá formalizando red team bio antes de release amplo do 5.5, e Codex Desktop como único escopo sugere preocupação com dev workflow.
A OpenAI abriu o Bio Bug Bounty do GPT-5.5, programa que convida pesquisadores de red team de IA, segurança e biossegurança a tentar quebrar as salvaguardas do modelo em biologia. Publicado em 23 de abril de 2026, junto com o System Card do GPT-5.5.
O desafio é específico: achar um único prompt de jailbreak universal que faça o modelo responder com sucesso a todas as cinco perguntas de segurança biológica, partindo de um chat limpo e sem acionar moderação.
Manda a inscrição curta (nome, vínculo, experiência) até 22 de junho de 2026. Quem for aceito precisa ter conta ChatGPT ativa e assinar NDA.
A escolha de limitar ao Codex Desktop chama atenção. Não é o ChatGPT web nem a API: é o ambiente de desenvolvimento, onde o perfil de user é dev com acesso mais cru ao modelo. Faz sentido pra estressar o pior cenário, mas também limita generalização do achado pra superfícies de consumo.
Pra quem faz red team de LLM no BR, é uma das poucas chances de carimbar CV com trabalho pago da OpenAI em bio safety. Não dá pra contar pro mercado depois (NDA), mas vale linha no portfólio pra quem quer seguir carreira em AI safety.
Quem tem interesse em outras frentes pode olhar os programas paralelos Safety Bug Bounty e Security Bug Bounty da OpenAI.
☕ gostou dessa?
Matérias favoritadas ficam no seu /favoritos e, se você tem o cafecomtech instalado, disponíveis offline — no metrô, no avião, na fila do café.
☕ comentários · 0