
• davi •
May 15, 2025 at 10:42 PM
O artigo “We’re Definitely Going to Build a Bunker Before We Release AGI”, de Karen Hao, publicado na The Atlantic, é um trecho de seu livro Empire of AI, que mergulha nas complexas dinâmicas internas da OpenAI. A narrativa revela como a empresa, fundada com ideais altruístas, evoluiu para uma entidade poderosa e enigmática no campo da inteligência artificial.  
A história se concentra em Ilya Sutskever, cofundador e cientista-chefe da OpenAI, cuja visão sobre a iminente chegada da inteligência artificial geral (AGI) o levou a propor medidas drásticas, como a construção de um bunker para proteger os principais cientistas da empresa. Essa proposta reflete suas crescentes preocupações com os riscos existenciais associados à AGI.
Em 2023, divergências internas culminaram na demissão temporária do CEO Sam Altman, impulsionada por Sutskever e pela então CTO Mira Murati, que questionavam a liderança de Altman e a direção ética da empresa. No entanto, pressões internas e de investidores resultaram na rápida reinstalação de Altman, evidenciando a fragilidade do modelo de governança da OpenAI. 
O episódio, apelidado de “The Blip”, marcou um ponto de inflexão na trajetória da empresa, destacando como disputas de poder entre executivos moldam o futuro da inteligência artificial. Desde então, a OpenAI tem sido criticada por priorizar o crescimento acelerado e a valorização financeira, em detrimento de considerações éticas e sociais. 
Hao conclui com uma reflexão crítica: como garantir que o desenvolvimento da inteligência artificial beneficie a sociedade como um todo, em vez de aprofundar desigualdades e concentrar poder nas mãos de poucos? 
Acesse o artigo completo: https://www.theatlantic.com/technology/archive/2025/05/karen-hao-empire-of-ai-excerpt/682798/