
Há três semanas, Calvin French-Owen, um dos engenheiros por trás de um dos produtos mais promissores da OpenAI, despediu-se. Agora, quebrou o silêncio e, numa fascinante reflexão no seu blog pessoal, descreveu como foi trabalhar durante um ano no epicentro da revolução da inteligência artificial, incluindo o sprint alucinante para construir o Codex, o agente de programação da OpenAI que concorre com ferramentas como o Cursor e o Claude Code da Anthropic.
French-Owen faz questão de sublinhar que a sua saída não se deveu a qualquer “drama” interno, mas sim ao desejo de regressar às suas raízes como fundador de startups. Antes da sua passagem pela OpenAI, foi cofundador da Segment, uma plataforma de dados de clientes que foi adquirida pela Twilio em 2020 por 3,2 mil milhões de dólares.
As suas observações confirmam alguns estereótipos sobre a cultura da OpenAI, mas também desfazem vários mitos sobre a empresa que domina o setor da IA.
Crescimento explosivo e o caos organizado
O crescimento da OpenAI tem sido vertiginoso. French-Owen relata que, no ano em que lá esteve, a empresa saltou de 1.000 para 3.000 funcionários. Este crescimento acelerado tem um preço. “Tudo se parte quando se escala tão rapidamente: a comunicação interna, as estruturas hierárquicas, o processo de desenvolvimento de produtos, a gestão de equipas, os processos de contratação, etc.”, escreveu.
Apesar da escala, a empresa mantém uma cultura de startup, onde os funcionários têm autonomia para agir rapidamente sobre as suas ideias sem grande burocracia. Contudo, isto leva a uma duplicação de esforços, com várias equipas a criar soluções para os mesmos problemas. “Devo ter visto meia dúzia de bibliotecas para coisas como gestão de filas ou ciclos de agentes”, exemplificou.
A diversidade de talento também contribui para o caos. A empresa junta engenheiros experientes da Google, habituados a escrever código para milhares de milhões de utilizadores, com recém-doutorados sem a mesma experiência de programação. Isto, combinado com a flexibilidade da linguagem Python, transformou o repositório central de código, o “monólito de backend”, numa “espécie de aterro”, descreve. As falhas são frequentes, mas a gestão de topo está ciente dos problemas e a trabalhar em melhorias.
O espírito de startup que recusa morrer
Aparentemente, a OpenAI ainda não se apercebeu da sua dimensão, operando quase inteiramente através do Slack, ao estilo “move-fast-and-break-things” que caracterizou os primeiros anos da Meta (Facebook). A empresa está, de resto, repleta de ex-funcionários da gigante das redes sociais.
French-Owen descreve como a sua equipa, composta por cerca de oito engenheiros, quatro investigadores, dois designers, dois profissionais de marketing e um gestor de produto, conseguiu construir e lançar o Codex em apenas sete semanas, um período de trabalho intenso e quase sem dormir.
O lançamento, segundo ele, foi mágico. Apenas por ativarem a funcionalidade, os utilizadores apareceram. “Nunca vi um produto ter uma adesão tão imediata apenas por aparecer numa barra lateral, mas esse é o poder do ChatGPT”, afirmou.
Viver numa “gaiola de ouro” secreta e… influenciada pelo Twitter?
O ChatGPT é um produto extremamente escrutinado, o que levou a OpenAI a adotar uma cultura de secretismo para tentar controlar as fugas de informação. Ao mesmo tempo, a empresa está muito atenta ao que se passa no X (anteriormente Twitter). Se uma publicação se torna viral, é muito provável que a OpenAI a veja e reaja. “Um amigo meu brincou, ‘esta empresa funciona com as vibes do Twitter’”, escreveu French-Owen.
O maior mito sobre a OpenAI: a segurança
French-Owen sugere que a maior ideia errada sobre a OpenAI é que a empresa não se preocupa tanto com a segurança como deveria. Embora muitos especialistas em segurança de IA, incluindo ex-funcionários, tenham criticado os seus processos, a realidade interna é diferente.
Enquanto alguns “profetas da desgraça” se preocupam com riscos teóricos para a humanidade, o foco interno está em problemas de segurança práticos e imediatos, como “discurso de ódio, abuso, manipulação de vieses políticos, criação de bio-armas, auto-mutilação e ‘prompt injection’”.
Isto não significa que os impactos a longo prazo sejam ignorados. Existem investigadores dedicados a analisá-los, e a empresa está ciente de que centenas de milhões de pessoas usam os seus modelos para tudo, desde aconselhamento médico a terapia. Com governos e concorrentes a observar cada passo, “a fasquia parece estar muito alta”.
(TT)
