top of page

O que a OpenAI realmente deseja

A jovem empresa enviou ondas de choque ao redor do mundo quando lançou o ChatGPT. Mas isso foi apenas o começo. O objetivo final: mudar tudo!


Fonte Wired Magazine

O AR ESTALA com uma energia quase Beatlemaníaca enquanto a estrela e sua comitiva caem em uma van Mercedes que os espera. Eles acabaram de escapar de um evento e estão indo para outro, depois para outro, onde uma multidão frenética os aguarda. À medida que percorrem as ruas de Londres – o curto salto de Holborn a Bloomsbury – é como se estivessem surfando em um dos momentos de antes e depois da civilização. A força histórica personificada neste carro capturou a atenção do mundo. Todo mundo quer um pedaço disso, desde os estudantes que esperaram na fila até o primeiro-ministro.

Dentro da van de luxo, devorando uma salada, está o empresário Sam Altman, de 38 anos( o segundo na foto da esquerda para direita), bem penteado, cofundador da OpenAI ; uma pessoa de relações públicas; um especialista em segurança; e eu. Altman está infelizmente vestindo um terno azul com uma camisa rosa sem gravata enquanto circula por Londres como parte de uma excursão global de um mês por 25 cidades em seis continentes. Enquanto engole as verduras – hoje não há tempo para um almoço sentado – ele reflete sobre o encontro que teve na noite anterior com o presidente francês, Emmanuel Macron. Cara muito bom! E muito interessado em inteligência artificial .


Tal como o primeiro-ministro da Polónia. E o primeiro-ministro da Espanha.


Quase posso ouvir o acorde ambíguo e retumbante que abre “A Hard Day's Night” – apresentando o futuro. Em novembro passado, quando a OpenAI lançou seu sucesso monstruoso, ChatGPT , desencadeou uma explosão tecnológica nunca vista desde que a Internet irrompeu em nossas vidas. De repente, o teste de Turing virou história, os motores de busca eram espécies ameaçadas de extinção e nenhuma redação universitária era confiável. Nenhum trabalho era seguro. Nenhum problema científico era imutável.


Altman não fez a pesquisa, não treinou a rede neural nem codificou a interface do ChatGPT e seu irmão mais precoce, o GPT-4. Mas como CEO – e um tipo sonhador/realizador que é como uma versão mais jovem do seu cofundador Elon Musk, sem a bagagem – um artigo de notícias após o outro usou a sua foto como o símbolo visual do novo desafio da humanidade. Pelo menos aqueles que não lideraram com uma imagem impressionante gerada pelo produto visual de IA da OpenAI, Dall-E. Ele é o oráculo do momento, a figura que as pessoas querem consultar primeiro sobre como a IA pode inaugurar uma era de ouro, ou relegar os humanos à irrelevância, ou pior.


A van de Altman o leva a quatro jogos naquele dia ensolarado de maio. A primeira é furtiva, uma sessão não oficial com a Mesa Redonda, um grupo de representantes do governo, da academia e da indústria.


Organizado de última hora, fica no segundo andar de um pub chamado Somers Town Coffee House. Sob um retrato carrancudo do mestre cervejeiro Charles Wells (1842–1914), Altman responde às mesmas perguntas que recebe de quase todos os públicos.

A IA nos matará?

Pode ser regulamentado?

E a China?

Ele responde a cada uma detalhadamente, enquanto dá uma olhada rápida em seu telefone. Depois disso, ele conversa ao pé da lareira no elegante Londoner Hotel na frente de 600 membros da Oxford Guild. De lá, segue para uma sala de conferências no subsolo, onde ele responde a perguntas mais técnicas de cerca de 100 empresários e engenheiros. Agora ele está quase atrasado para uma palestra no meio da tarde no palco da University College London. Ele e seu grupo param em uma zona de carregamento e são conduzidos por uma série de corredores sinuosos, como a Steadicam filmada emBons companheiros . Enquanto caminhamos, o moderador diz apressadamente a Altman o que vai perguntar. Quando Altman sobe ao palco, o auditório – repleto de acadêmicos, geeks e jornalistas extasiados – entra em erupção.


Altman não é um buscador natural de publicidade. Certa vez, falei com ele logo depois que a The New Yorker publicou um longo perfil dele. “Muito sobre mim”, disse ele. Mas na University College, depois do programa formal, ele entra no meio da multidão que subiu ao palco. Seus assessores tentam se posicionar entre Altman e a multidão, mas ele os ignora. Ele responde uma pergunta após a outra, cada vez olhando atentamente para o rosto do interlocutor, como se estivesse ouvindo a pergunta pela primeira vez.

Todo mundo quer uma selfie. Após 20 minutos, ele finalmente permite que sua equipe o retire. Em seguida, ele irá se encontrar com o primeiro-ministro do Reino Unido, Rishi Sunak.


Talvez um dia, quando os robôs escreverem a nossa história, eles citarão a turnê mundial de Altman como um marco no ano em que todos, de uma só vez, começaram a fazer seu próprio cálculo pessoal com a singularidade. Ou então, novamente, talvez quem quer que escreva a história deste momento o veja como uma época em que um CEO discretamente convincente, com uma tecnologia que quebra paradigmas, fez uma tentativa de injetar uma visão de mundo muito peculiar no fluxo mental global – a partir de uma sede não identificada de quatro andares. no Mission District de São Francisco para o mundo inteiro.


Para Altman e sua empresa, ChatGPT e GPT-4 são apenas trampolins no caminho para alcançar uma missão simples e sísmica, uma missão que esses tecnólogos poderiam muito bem ter marcado em sua carne. Essa missão é construir inteligência artificial geral – um conceito que até agora se baseou mais na ficção científica do que na ciência – e torná-lo seguro para a humanidade. As pessoas que trabalham na OpenAI são fanáticas na busca desse objetivo. (Embora, como muitas conversas no café do escritório confirmarão, a parte “construir AGI” da missão parece oferecer mais entusiasmo bruto aos seus pesquisadores do que a parte “torná-la segura”.) Estas são pessoas que não o fazem. evite usar casualmente o termo “superinteligência”. Eles assumemque a trajetória da IA ​​ultrapassará qualquer pico que a biologia possa atingir. Os documentos financeiros da empresa estipulam até uma espécie de contingência de saída para quando a IA destruir todo o nosso sistema económico.

Não é justo chamar a OpenAI de culto, mas quando perguntei a vários dos principais executivos da empresa se alguém poderia trabalhar confortavelmente lá se eles não acreditassem que a AGI estava realmente chegando – e que sua chegada marcaria um dos maiores momentos da história da humanidade – a maioria dos executivos não pensava assim. Por que um descrente iria querer trabalhar aqui ? eles se perguntaram. A suposição é que a força de trabalho – agora em aproximadamente 500 pessoas, embora possa ter aumentado desde que você começou a ler este parágrafo – se autosselecionou para incluir apenas os fiéis. No mínimo, como diz Altman, uma vez contratado, parece inevitável que você seja atraído pelo feitiço.

Ao mesmo tempo, a OpenAI não é a empresa que era antes. Foi fundada como uma operação de investigação puramente sem fins lucrativos, mas hoje a maioria dos seus funcionários trabalha tecnicamente para uma entidade com fins lucrativos que está supostamente avaliada em quase 30 mil milhões de dólares . Altman e a sua equipa enfrentam agora a pressão para realizar uma revolução em cada ciclo de produto, de uma forma que satisfaça as exigências comerciais dos investidores e se mantenha à frente num cenário ferozmente competitivo. Ao mesmo tempo que se dedica a uma missão quase messiânica de elevar a humanidade em vez de exterminá-la.


Esse tipo de pressão – para não falar da atenção implacável do mundo inteiro – pode ser uma força debilitante. Os Beatles desencadearam ondas colossais de mudança cultural, mas ancoraram a sua revolução apenas durante um certo tempo: seis anos depois de tocarem aquele acorde inesquecível, já nem eram mais uma banda. O turbilhão que a OpenAI desencadeou será quase certamente muito maior. Mas os líderes da OpenAI juram que manterão o rumo. Tudo o que querem fazer, dizem, é construir computadores suficientemente inteligentes e seguros para acabar com a história, empurrando a humanidade para uma era de riqueza inimaginável.

CRESCENDO EMNo final dos anos 80 e início dos anos 90, Sam Altman era um garoto nerd que devorava ficção científica e Star Wars. Os mundos construídos pelos primeiros escritores de ficção científica muitas vezes tinham humanos vivendo ou competindo com sistemas de IA superinteligentes. A ideia de computadores igualarem ou excederem as capacidades humanas emocionou Altman, que codificava desde que seus dedos mal conseguiam cobrir um teclado. Quando ele tinha 8 anos, seus pais compraram para ele um Macintosh LC II. Uma noite, ele ficou acordado até tarde brincando com ele e o pensamento surgiu em sua cabeça: “Algum dia este computador vai aprender a pensar”. Quando chegou a Stanford como estudante de graduação em 2003, ele esperava ajudar a fazer isso acontecer e fez cursos de IA. Mas “não estava funcionando de jeito nenhum”, diria ele mais tarde. O campo ainda estava atolado em um período de inovação conhecido como inverno de IA. Altman desistiu para entrar no mundo das startups; sua empresa Loopt estava no pequeno primeiro lote de aspirantes a organizações em Y Combinator,que se tornaria a incubadora mais famosa do mundo.


Em fevereiro de 2014, Paul Graham, guru fundador do YC, escolheu Altman, então com 28 anos, para sucedê-lo. “Sam é uma das pessoas mais inteligentes que conheço”, escreveu Grahamno anúncio, “e entende as startups melhor do que qualquer pessoa que conheço, inclusive eu”. Mas Altman via o YC como algo maior do que uma plataforma de lançamento para empresas. “Não tratamos de startups”, ele me disse logo após assumir. “Nosso objetivo é inovação, porque acreditamos que é assim que você torna o futuro excelente para todos.” Na opinião de Altman, o objectivo de lucrar com todos esses unicórnios não era encher as carteiras dos parceiros, mas financiar transformações ao nível das espécies. Ele iniciou uma ala de pesquisa, na esperança de financiar projetos ambiciosos para resolver os maiores problemas do mundo. Mas a IA, na sua opinião, era o único domínio da inovação que governava todos eles: uma superinteligência que poderia resolver os problemas da humanidade melhor do que a própria humanidade.

Por sorte, Altman assumiu seu novo emprego no momento em que o inverno da IA ​​estava se transformando em uma primavera abundante. Os computadores agora realizavam feitos incríveis, por meio de aprendizado profundo e redes neurais, como rotular fotos, traduzir textos e otimizar redes de anúncios sofisticadas. Os avanços o convenceram de que, pela primeira vez, a AGI estava realmente ao seu alcance. Deixá-lo nas mãos de grandes corporações, porém, o preocupava. Ele sentiu que essas empresas estariam demasiado fixadas nos seus produtos para aproveitarem a oportunidade de desenvolver AGI o mais rapidamente possível. E se criassem a AGI, poderiam libertá-la de forma imprudente no mundo, sem as precauções necessárias.


Na época, Altman pensava em concorrer ao cargo de governador da Califórnia. Mas ele percebeu que estava perfeitamente posicionado para fazer algo maior: liderar uma empresa que mudaria a própria humanidade. “O AGI seria construído exatamente uma vez”, ele me disse em 2021. “E não havia muitas pessoas que pudessem fazer um bom trabalho administrando o OpenAI. Tive a sorte de ter um conjunto de experiências na minha vida que me prepararam positivamente para isso.”

Altman começou a conversar com pessoas que poderiam ajudá-lo a iniciar um novo tipo de empresa de IA, uma organização sem fins lucrativos que direcionaria o campo para uma AGI responsável. Uma alma gêmea era o CEO da Tesla e da SpaceX, Elon Musk. Como Musk diria mais tarde à CNBC , ele ficou preocupado com o impacto da IA ​​depois de ter algumas maratonas de discussões com o cofundador do Google, Larry Page. Musk disse estar consternado com o fato de Page ter pouca preocupação com a segurança e também parecer considerar os direitos dos robôs iguais aos dos humanos. Quando Musk compartilhou suas preocupações, Page o acusou de ser um “especista”. Musk também entendeu que, na época, o Google empregava muitos dos talentos mundiais de IA. Ele estava disposto a gastar algum dinheiro em um esforço mais receptivo à Equipe Humana.

Em poucos meses, Altman levantou dinheiro de Musk (que prometeu US$ 100 milhões e seu tempo) e de Reid Hoffman (que doou US$ 10 milhões). Outros financiadores incluíram Peter Thiel, Jessica Livingston, Amazon Web Services e YC Research. Altman começou a recrutar furtivamente uma equipe. Ele limitou a busca aos crentes da AGI, uma restrição que restringiu suas opções, mas que ele considerou crítica. “Em 2015, quando estávamos recrutando, era quase considerado um destruidor de carreira um pesquisador de IA dizer que você levava a AGI a sério”, diz ele. “Mas eu queria pessoas que levassem isso a sério.”



Greg Brockman é agora o presidente da OpenAI.FOTOGRAFIA: JESSICA CHOU


Greg Brockman, diretor de tecnologia da Stripe, era uma dessas pessoas e concordou em ser CTO da OpenAI. Outro cofundador importante seria Andrej Karpathy, que trabalhou no Google Brain, a operação de pesquisa de IA de ponta do gigante das buscas. Mas talvez o alvo mais procurado de Altman fosse um engenheiro russo chamado Ilya Sutskever.

O pedigree de Sutskever era incontestável. Sua família emigrou da Rússia para Israel e depois para o Canadá. Na Universidade de Toronto, ele foi um aluno de destaque com Geoffrey Hinton, conhecido como o padrinho da IA ​​moderna por seu trabalho em aprendizagem profunda e redes neurais. Hinton, que ainda é próximo de Sutskever, fica maravilhado com a magia de seu protegido. No início da gestão de Sutskever no laboratório, Hinton lhe deu um projeto complicado. Sutskever se cansou de escrever códigos para fazer os cálculos necessários e disse a Hinton que seria mais fácil se ele escrevesse uma linguagem de programação personalizada para a tarefa. Hinton ficou um pouco irritado e tentou alertar seu aluno para longe do que ele presumiu que seria uma distração de um mês. Então Sutskever confessou: “Fiz isso esta manhã”.

Sutskever tornou-se uma estrela da IA, sendo coautor de um artigo inovador que mostrou como a IA poderia aprender a reconhecer imagens simplesmente sendo exposta a enormes volumes de dados. Ele acabou, felizmente, como um cientista-chave na equipe do Google Brain.


Em meados de 2015, Altman enviou um e-mail frio a Sutskever convidando-o para jantar com Musk, Brockman e outros no elegante Rosewood Hotel, na Sand Hill Road, em Palo Alto. Só mais tarde Sutskever descobriu que era o convidado de honra. “Foi uma espécie de conversa geral sobre IA e AGI no futuro”, diz ele. Mais especificamente, discutiram “se o Google e a DeepMind estavam tão à frente que seria impossível alcançá-los, ou se ainda era possível, como disse Elon, criar um laboratório que seria um contrapeso”. Embora ninguém no jantar tenha tentado explicitamente recrutar Sutskever, a conversa o fisgou.

Sutskever escreveu um e-mail para Altman logo depois, dizendo que estava pronto para liderar o projeto – mas a mensagem ficou presa em sua pasta de rascunhos. Altman voltou atrás e, depois de meses rechaçando as contra-ofertas do Google, Sutskever aceitou. Ele logo se tornaria a alma da empresa e sua força motriz em pesquisa.

Sutskever juntou-se a Altman e Musk no recrutamento de pessoas para o projeto, culminando em um retiro em Napa Valley, onde vários possíveis pesquisadores da OpenAI alimentaram o entusiasmo uns dos outros. É claro que alguns alvos resistiriam à tentação. John Carmack, o lendário programador de jogos por trás de Doom , Quake e inúmeros outros títulos, recusou a proposta de Altman.

OpenAI foi lançado oficialmente em dezembro de 2015. Na época, quando entrevistei Musk e Altman, eles me apresentaram o projeto como um esforço para tornar a IA segura e acessível, compartilhando-a com o mundo. Em outras palavras, código aberto. A OpenAI, disseram-me, não iria solicitar patentes. Todos poderiam fazer uso de seus avanços. Isso não seria capacitar algum futuro Dr. Evil? Eu me perguntei. Musk disse que essa era uma boa pergunta. Mas Altman tinha uma resposta: os humanos geralmente são bons e, como a OpenAI forneceria ferramentas poderosas para essa grande maioria, os malfeitores ficariam sobrecarregados. Ele admitiu que se o Dr. Evil usasse as ferramentas para construir algo que não pudesse ser neutralizado, “então estaríamos em uma situação muito ruim”. Mas tanto Musk como Altman acreditavam que o caminho mais seguro para a IA estaria nas mãos de uma operação de investigação não poluída pela motivação do lucro,


Altman me alertou para não esperar resultados em breve. “Isso vai parecer um laboratório de pesquisa por muito tempo”, disse ele.


Havia outro motivo para conter as expectativas. O Google e outros vêm desenvolvendo e aplicando IA há anos. Embora a OpenAI tivesse um bilhão de dólares comprometidos (em grande parte por meio de Musk), uma excelente equipe de pesquisadores e engenheiros e uma missão grandiosa, ela não tinha ideia de como perseguir seus objetivos. Altman se lembra de um momento em que a pequena equipe se reuniu no apartamento de Brockman – eles ainda não tinham escritório. “Eu estava tipo, o que devemos fazer?”


Altman se lembra de um momento em que a pequena equipe se reuniu no apartamento de Brockman – eles ainda não tinham escritório. “Eu estava tipo, o que devemos fazer?”

Tomei café da manhã em São Francisco com Brockman pouco mais de um ano após a fundação da OpenAI. Para o CTO de uma empresa com a palavra abertaem seu nome, ele era bastante parcimonioso com os detalhes. Ele afirmou que a organização sem fins lucrativos poderia se dar ao luxo de aproveitar sua doação inicial de um bilhão de dólares por um tempo. Os salários dos 25 funcionários – que recebiam muito menos do que o valor de mercado – consumiam a maior parte das despesas da OpenAI. “O objetivo para nós, o que realmente estamos buscando”, disse ele, “é ter sistemas que possam fazer coisas que os humanos simplesmente não eram capazes de fazer antes”. Mas, por enquanto, o que parecia era um grupo de pesquisadores publicando artigos. Após a entrevista, acompanhei-o até o novo escritório da empresa no Mission District, mas ele não me permitiu ir além do vestíbulo. Ele entrou em um armário para me pegar uma camiseta.

Se eu tivesse entrado e perguntado por aí, poderia ter aprendido exatamente o quanto a OpenAI estava se debatendo. Brockman agora admite que “nada estava funcionando”. Seus pesquisadores estavam jogando espaguete algorítmico em direção ao teto para ver o que pegava. Eles se aprofundaram em sistemas que resolviam videogames e dedicaram esforços consideráveis ​​à robótica. “Sabíamos o que queríamos fazer”, diz Altman. “Sabíamos por que queríamos fazer isso. Mas não tínhamos ideia de como .”


Mas eles acreditaram . Apoiando o seu optimismo estavam as melhorias constantes nas redes neurais artificiais que utilizavam técnicas de aprendizagem profunda. “A ideia geral é: não aposte contra a aprendizagem profunda”, diz Sutskever. Perseguir a AGI, diz ele, “não foi totalmente maluco. Foi apenas moderadamente louco.”


O caminho para a relevância da OpenAI realmente começou com a contratação de um pesquisador ainda não anunciado chamado Alec Radford, que ingressou em 2016, deixando a pequena empresa de IA de Boston que ele fundou em seu dormitório. Depois de aceitar a oferta da OpenAI, ele disse à revista de ex-alunos do ensino médio que assumir essa nova função era “mais ou menos semelhante a ingressar em um programa de pós-graduação” – uma posição aberta e de baixa pressão para pesquisar IA.

O papel que ele realmente desempenharia seria mais como Larry Page inventando o PageRank.

Radford, que é tímido com a imprensa e não deu entrevistas sobre seu trabalho, responde às minhas perguntas sobre seus primeiros dias na OpenAI por meio de uma longa troca de e-mails. Seu maior interesse era fazer com que redes neurais interagissem com humanos em conversas lúcidas. Isso foi um afastamento do modelo tradicional de script de criação de um chatbot, uma abordagem usada em tudo, desde o primitivo ELIZA até os populares assistentes Siri e Alexa – todos meio que uma droga. “O objetivo era ver se havia alguma tarefa, algum cenário, algum domínio, alguma coisapara os quais os modelos de linguagem podem ser úteis”, escreve ele. Na época, explica ele, “os modelos de linguagem eram vistos como brinquedos inovadores que só podiam gerar uma frase que fazia sentido de vez em quando, e só então se você realmente apertasse os olhos”. Seu primeiro experimento envolveu a digitalização de 2 bilhões de comentários do Reddit para treinar um modelo de linguagem. Como muitos dos primeiros experimentos da OpenAI, ele fracassou. Não importa. O jovem de 23 anos teve permissão para continuar, para falhar novamente. “Nós pensamos, Alec é ótimo, deixe-o fazer o que quer”, diz Brockman.


Seu próximo grande experimento foi moldado pelas limitações de poder do computador da OpenAI, uma restrição que o levou a experimentar um conjunto de dados menor focado em um único domínio: análises de produtos da Amazon. Um pesquisador reuniu cerca de 100 milhões deles. Radford treinou um modelo de linguagem para simplesmente prever o próximo caractere na geração de uma avaliação do usuário.


Radford começou a fazer experiências com a arquitetura do transformador. “Fiz mais progresso em duas semanas do que nos últimos dois anos”, diz ele.

Mas então, por si só, o modelo descobriu se uma avaliação era positiva ou negativa – e quando você programou o modelo para criar algo positivo ou negativo, ele entregou uma avaliação que era aduladora ou contundente, conforme solicitado. (A prosa era reconhecidamente desajeitada: “Eu adoro esse visual de armas… Um relógio obrigatório para qualquer homem que ama xadrez!”) “Foi uma surpresa completa”, diz Radford. O sentimento de uma crítica — sua essência favorável ou desfavorável — é uma função complexa da semântica, mas de alguma forma uma parte do sistema de Radford conseguiu senti-lo. Dentro do OpenAI, esta parte da rede neural passou a ser conhecida como “neurônio de sentimento não supervisionado”.


Sutskever e outros encorajaram Radford a expandir seus experimentos além das análises da Amazon, para usar seus insights para treinar redes neurais para conversar ou responder perguntas sobre uma ampla gama de assuntos.

E então a boa sorte sorriu para o OpenAI. No início de 2017, apareceu uma pré-impressão não anunciada de um artigo de pesquisa, de autoria de oito pesquisadores do Google. Seu título oficial era “Atenção é tudo que você precisa”.mas ficou conhecido como “papel transformador”, assim chamado tanto para refletir a natureza revolucionária da ideia quanto para homenagear os brinquedos que se transformaram de caminhões em robôs gigantes. Os transformadores possibilitaram que uma rede neural entendesse – e gerasse – a linguagem com muito mais eficiência. Eles fizeram isso analisando pedaços de prosa em paralelo e descobrindo quais elementos mereciam “atenção”. Isso otimizou enormemente o processo de geração de texto coerente para responder às solicitações. Eventualmente, as pessoas perceberam que a mesma técnica também poderia gerar imagens e até vídeos. Embora o papel do transformador se tornasse conhecido como o catalisador do atual frenesi da IA ​​– pense nele como o Elvis que tornou os Beatles possíveis – na época, Ilya Sutskever era uma das poucas pessoas que entendiam o quão poderosa era a descoberta. "O Realaha, o momento foi quando Ilya viu o transformador sair”, diz Brockman. “Ele disse, 'Isso é o que estávamos esperando.' Essa tem sido a nossa estratégia: insistir nos problemas e depois ter fé que nós ou alguém da área conseguiremos descobrir o ingrediente que falta.”


Radford começou a fazer experiências com a arquitetura do transformador. “Fiz mais progresso em duas semanas do que nos últimos dois anos”, diz ele. Ele compreendeu que a chave para aproveitar ao máximo o novo modelo era adicionar escala – treiná-lo em conjuntos de dados fantasticamente grandes. A ideia foi apelidada de “Big Transformer” pelo colaborador de Radford, Rewon Child.

Esta abordagem exigiu uma mudança de cultura na OpenAI e um foco que faltava anteriormente. “Para aproveitar as vantagens do transformador, era necessário aumentá-lo”, diz Adam D'Angelo, CEO da Quora, que faz parte do conselho de administração da OpenAI. “Você precisa administrá-lo mais como uma organização de engenharia. Você não pode ter cada pesquisador tentando fazer suas próprias coisas e treinar seu próprio modelo e fazer coisas elegantes nas quais você possa publicar artigos. Você tem que fazer esse trabalho mais tedioso e menos elegante.” Isso, acrescentou ele, foi algo que a OpenAI foi capaz de fazer e que ninguém mais fez.



Mira Murati, diretora de tecnologia da OpenAI.FOTOGRAFIA: JESSICA CHOU


O nome que Radford e seus colaboradores deram ao modelo que criaram foi um acrônimo para “transformador generativamente pré-treinado” – GPT-1. Eventualmente, esse modelo passou a ser genericamente conhecido como “IA generativa”. Para construí-lo, eles recorreram a uma coleção de 7.000 livros inéditos, muitos dos gêneros de romance, fantasia e aventura, e a refinaram com base nas perguntas e respostas do Quora, bem como em milhares de passagens retiradas de exames do ensino fundamental e médio. Ao todo, o modelo incluiu 117 milhões de parâmetros, ou variáveis. E superou tudo o que existia antes na compreensão da linguagem e na geração de respostas. Mas o resultado mais dramático foi que o processamento de uma quantidade tão grande de dados permitiu ao modelo oferecer resultados alémseu treinamento, fornecendo experiência em domínios totalmente novos. Essas capacidades não planejadas do robô são chamadas de disparos zero. Eles ainda confundem os pesquisadores – e explicam o desconforto que muitos na área sentem em relação aos chamados grandes modelos de linguagem.

Radford se lembra de uma noite no escritório da OpenAI. “Eu ficava repetindo sem parar: 'Bem, isso é legal, mas tenho quase certeza de que não será capaz de fazer x .' E então eu codificaria rapidamente uma avaliação e, com certeza, ela poderia fazer x .”

Cada iteração do GPT teria um desempenho melhor, em parte porque cada uma consumia uma ordem de magnitude a mais de dados do que o modelo anterior. Apenas um ano depois de criar a primeira iteração, a OpenAI treinou o GPT-2 na Internet aberta com surpreendentes 1,5 bilhão de parâmetros. Como uma criança que domina a fala, suas respostas ficaram melhores e mais coerentes. Tanto é verdade que a OpenAI hesitou em lançar o programa. Radford estava preocupado com a possibilidade de que isso pudesse ser usado para gerar spam. “Lembro-me de ter lido Anathem, de Neal Stephenson , em 2008, e naquele livro a Internet estava invadida por geradores de spam”, diz ele. “Eu pensei que isso era realmente rebuscado, mas à medida que trabalhei em modelos de linguagem ao longo dos anos e eles melhoraram, surgiu a desconfortável percepção de que era uma possibilidade real.”


Na verdade, a equipe da OpenAI estava começando a pensar que não era uma boa ideia, afinal, colocar seu trabalho onde o Dr. Evil pudesse acessá-lo facilmente. “Achávamos que o código aberto do GPT-2 poderia ser realmente perigoso”, diz Mira Murati, diretora de tecnologia, que começou na empresa em 2018. “Trabalhamos muito com especialistas em desinformação e formamos algumas equipes vermelhas. Houve muita discussão internamente sobre quanto liberar.” No final das contas, a OpenAI reteve temporariamente a versão completa, disponibilizando ao público uma versão menos poderosa. Quando a empresa finalmente compartilhou a versão completa, o mundo se saiu bem – mas não havia garantia de que modelos mais potentes evitariam a catástrofe.

O próprio fato de a OpenAI estar fabricando produtos inteligentes o suficiente para serem considerados perigosos e estar lutando para encontrar maneiras de torná-los seguros era a prova de que a empresa havia conseguido fazer seu feitiço funcionar. “Descobrimos a fórmula do progresso, a fórmula que todos percebem agora – o oxigênio e o hidrogênio do aprendizado profundo é a computação com uma grande rede neural e dados”, diz Sutskever.

Para Altman, foi uma experiência alucinante. “Se você perguntasse à minha versão de 10 anos, que costumava passar muito tempo sonhando acordada com IA, o que iria acontecer, minha previsão bastante confiante seria que primeiro teremos robôs, e eles vamos realizar todo o trabalho físico. Então teremos sistemas que poderão realizar trabalho cognitivo básico. Muito depois disso, talvez tenhamos sistemas que possam fazer coisas complexas, como provar teoremas matemáticos. Finalmente teremos uma IA que pode criar coisas novas e fazer arte e escrever e fazer coisas profundamente humanas. Essa foi uma previsão terrível – está indo exatamente na outra direção.”


O mundo ainda não sabia disso, mas o laboratório de pesquisa de Altman e Musk havia iniciado uma escalada que plausivelmente se arrasta em direção ao cume do AGI. A ideia maluca por trás do OpenAI de repente não era tão maluca.


NO INÍCIO DE 2018,A OpenAI estava começando a se concentrar de forma produtiva em grandes modelos de linguagem, ou LLMs. Mas Elon Musk não ficou feliz. Ele sentiu que o progresso era insuficiente – ou talvez sentisse que agora que a OpenAI estava no caminho certo, precisava de liderança para aproveitar a sua vantagem. Ou talvez, como explicaria mais tarde, ele achasse que a segurança deveria ser uma prioridade. Qualquer que fosse o seu problema, ele tinha uma solução: entregar tudo a ele. Ele propôs assumir uma participação majoritária na empresa, acrescentando-a ao portfólio de seus múltiplos empregos de tempo integral (Tesla, SpaceX) e obrigações de supervisão (Neuralink e Boring Company).

Musk acreditava que tinha o direito de possuir o OpenAI. “Isso não existiria sem mim”, disse ele mais tarde à CNBC. “Eu inventei o nome!” (Verdade.) Mas Altman e o resto da equipe de cérebros da OpenAI não tinham interesse em se tornar parte do Muskiverse. Quando deixaram isto claro, Musk cortou relações, fornecendo ao público a explicação incompleta de que estava a deixar o conselho para evitar um conflito com o esforço de IA da Tesla. Sua despedida ocorreu em uma reunião geral no início daquele ano, onde ele previu que o OpenAI iria falhar. E ele chamou pelo menos um dos pesquisadores de “idiota”.


Ele também levou seu dinheiro consigo. Como a empresa não tinha receita, tratava-se de uma crise existencial. “Elon está cortando seu apoio”, disse Altman em uma ligação em pânico para Reid Hoffman. "O que nós fazemos?" Hoffman se ofereceu para manter a empresa funcionando, pagando despesas gerais e salários.

Mas esta foi uma solução temporária; A OpenAI teve que encontrar muito dinheiro em outro lugar. O Vale do Silício adora gastar dinheiro com pessoas talentosas que trabalham em tecnologia da moda. Mas não tanto se estiverem trabalhando em uma organização sem fins lucrativos. Foi um grande avanço para a OpenAI obter seu primeiro bilhão. Para treinar e testar novas gerações de GPT — e depois acessar a computação necessária para implantá-las — a empresa precisava de mais um bilhão, e rápido. E isso seria apenas o começo.


Em algum lugar nos documentos de reestruturação há uma cláusula no sentido de que, se a empresa conseguir criar a AGI, todos os acordos financeiros serão reconsiderados. Afinal, será um novo mundo a partir daí.

Então, em março de 2019, a OpenAI apresentou um hack bizarro. Permaneceria uma organização sem fins lucrativos, totalmente dedicada à sua missão. Mas também criaria uma entidade com fins lucrativos. A estrutura real do acordo é irremediavelmente barroca, mas basicamente toda a empresa está agora envolvida num negócio lucrativo “limitado”. Se o limite for atingido – o número não é público, mas seu próprio estatuto, se você ler nas entrelinhas, sugere que pode estar na casa dos trilhões – tudo além disso reverte para o laboratório de pesquisa sem fins lucrativos. O novo esquema era quase uma abordagem quântica à incorporação: eis uma empresa que, dependendo do seu ponto de vista tempo-espacial, tem ou não fins lucrativos. Os detalhes estão incorporados em gráficos cheios de caixas e setas, como aqueles no meio de um artigo científico onde apenas doutores ou gênios que abandonaram o curso se atrevem a pisar. Quando sugiro a Sutskever que parece algo que o ainda não concebido GPT-6 poderia inventar se você o solicitasse para uma evasão fiscal, ele não gostou da minha metáfora.

Mas a contabilidade é crítica. Uma empresa com fins lucrativos otimiza, bem, lucros. Há uma razão pela qual empresas como a Meta sentem pressão dos acionistas quando dedicam milhares de milhões à I&D. Como isso poderia não afetar a forma como uma empresa opera? E não foi evitar o comercialismo a razão pela qual Altman tornou a OpenAI uma organização sem fins lucrativos, para começar? Segundo o COO Brad Lightcap, a visão dos líderes da empresa é que o conselho, que ainda faz parte da entidade controladora sem fins lucrativos, garantirá que a busca por receitas e lucros não sobrecarregue a ideia original. “Precisávamos manter a missão como razão da nossa existência”, diz ele, “não deveria estar apenas no espírito, mas codificada na estrutura da empresa”. O membro do conselho, Adam D'Angelo, diz que leva essa responsabilidade a sério: “É meu trabalho, junto com o resto do conselho,


Os potenciais investidores foram alertados sobre esses limites, explica Lightcap. “Temos uma isenção de responsabilidade legal que diz que você, como investidor, pode perder todo o seu dinheiro”, diz ele. “Não estamos aqui para fazer o seu retorno. Estamos aqui para cumprir uma missão técnica, acima de tudo. E, ah, a propósito, não sabemos realmente qual o papel que o dinheiro desempenhará num mundo pós-AGI.”


Essa última frase não é uma piada descartável. O plano da OpenAI realmente inclui uma redefinição caso os computadores cheguem à fronteira final. Em algum lugar nos documentos de reestruturação há uma cláusula no sentido de que, se a empresa conseguir criar a AGI, todos os acordos financeiros serão reconsiderados. Afinal, será um novo mundo a partir daí. A humanidade terá um parceiro alienígena que poderá fazer muito do que fazemos, só que melhor. Portanto, os acordos anteriores podem efetivamente ser destruídos.


Há, no entanto, um problema: no momento, a OpenAI não afirma saber o que realmente é AGI . A determinação viria do conselho, mas não está claro como o conselho a definiria. Quando peço clareza a Altman, que está no conselho, sua resposta é tudo menos aberta. “Não é um único teste de Turing, mas uma série de coisas que podemos usar”, diz ele. “Eu ficaria feliz em lhe contar, mas gosto de manter as conversas confidenciais em sigilo. Sei que isso é insatisfatoriamente vago. Mas não sabemos como será nesse ponto.”

No entanto, a inclusão da cláusula de “acordos financeiros” não é apenas por diversão: os líderes da OpenAI pensam que se a empresa for suficientemente bem sucedida para atingir o seu elevado limite de lucro, os seus produtos provavelmente terão um desempenho suficientemente bom para alcançar a AGI. Seja lá o que é.

“Lamento que tenhamos optado por duplicar o termo AGI”, diz Sutskever. “Em retrospectiva, é um termo confuso, porque enfatiza a generalidade acima de tudo. GPT-3 é IA geral, mas ainda assim não nos sentimos confortáveis ​​em chamá-lo de AGI, porque queremos competência em nível humano. Mas naquela época, no início, a ideia da OpenAI era que a superinteligência era alcançável. É o fim do jogo, o propósito final do campo da IA.”

Essas advertências não impediram que alguns dos capitalistas de risco mais inteligentes investissem dinheiro na OpenAI durante sua rodada de financiamento de 2019 . Nesse ponto, a primeira empresa de capital de risco a investir foi a Khosla Ventures, que arrecadou US$ 50 milhões. Segundo Vinod Khosla, foi o dobro do seu maior investimento inicial. “Se perdermos, perderemos 50 milhões de dólares”, diz ele. “Se vencermos, ganharemos 5 bilhões.” Outros investidores supostamente incluiriam empresas de capital de risco de elite Thrive Capital, Andreessen Horowitz, Founders Fund e Sequoia.


A mudança também permitiu que os funcionários da OpenAI reivindicassem algum patrimônio. Mas não Altman. Ele diz que originalmente pretendia se incluir, mas não teve tempo para isso. Então ele decidiu que não precisava de nenhuma parte da empresa de US$ 30 bilhões que ele havia fundado e liderado. “Um trabalho significativo é mais importante para mim”, diz ele. “Eu não penso sobre isso. Sinceramente, não entendo por que as pessoas se importam tanto.”

Porque… não ter participação na empresa que você fundou é estranho?

“Se eu já não tivesse muito dinheiro, seria muito mais estranho”, diz ele. “Parece que as pessoas têm dificuldade em imaginar que algum dia terão dinheiro suficiente. Mas sinto que tenho o suficiente.” (Observação: para o Vale do Silício, isso é extremamente estranho.) Altman brincou dizendo que está considerando adquirir uma ação do capital “para nunca mais ter que responder a essa pergunta”.



Ilya Sutskever, cientista-chefe da OpenAI.FOTOGRAFIA: JESSICA CHOU


O VC DE UM BILHÃO DE DÓLARESA rodada não era nem um pouco em jogo para perseguir a visão da OpenAI. A abordagem milagrosa do Big Transformer para a criação de LLMs exigia Big Hardware. Cada iteração da família GPT precisaria de exponencialmente mais energia – o GPT-2 tinha mais de um bilhão de parâmetros e o GPT-3 usaria 175 bilhões. OpenAI agora era como Quint em Tubarão depois que o caçador de tubarões vê o tamanho do tubarão branco. “Acontece que não sabíamos quanto precisávamos de um barco maior”, diz Altman.


Obviamente, apenas algumas empresas existentes tinham o tipo de recursos que a OpenAI exigia. “Rapidamente nos concentramos na Microsoft”, diz Altman. Para crédito do CEO da Microsoft, Satya Nadella, e do CTO Kevin Scott, a gigante do software conseguiu superar uma realidade desconfortável: depois de mais de 20 anos e bilhões de dólares gastos em uma divisão de pesquisa com IA supostamente de ponta, os Softies precisavam de um infusão de inovação de uma pequena empresa que tinha apenas alguns anos de existência. Scott diz que não foi apenas a Microsoft que ficou aquém – “foram todos”. O foco da OpenAI em buscar AGI, diz ele, permitiu que ela alcançasse uma conquista que os pesos pesados ​​​​nem sequer almejavam. Também provou que não perseguir a IA generativa era um lapso que a Microsoft precisava de resolver. “Uma coisa que você claramente precisa é de um modelo de fronteira,

A Microsoft originalmente investiu um bilhão de dólares , compensando em tempo de computação em seus servidores. Mas à medida que ambos os lados ficaram mais confiantes, o acordo expandiu-se. A Microsoft agora investiu US$ 13 bilhões na OpenAI. (“Estar na fronteira é uma proposta muito cara”, diz Scott.)

É claro que, como a OpenAI não poderia existir sem o apoio de um grande provedor de nuvem, a Microsoft conseguiu fazer um grande negócio para si mesma. A corporação negociou o que Nadella chama de “participação acionária não controladora” no lado com fins lucrativos da OpenAI – supostamente 49%. Sob os termos do acordo, alguns dos ideais originais da OpenAI de conceder acesso igual a todos foram aparentemente arrastados para o ícone da lixeira. (Altman contesta esta caracterização.) Agora, a Microsoft tem uma licença exclusiva para comercializar a tecnologia OpenAI. E a OpenAI também se comprometeu a usar exclusivamente a nuvem da Microsoft. Por outras palavras, sem sequer retirar a sua parte dos lucros da OpenAI (supostamente a Microsoft recebe 75% até que o seu investimento seja reembolsado), a Microsoft consegue conquistar um dos novos clientes mais desejáveis ​​do mundo para os seus serviços web Azure. Com essas recompensas à vista, A Microsoft nem sequer se incomodou com a cláusula que exige reconsideração se a OpenAI alcançar inteligência artificial geral, seja lá o que for. "Nesse ponto,"diz Nadella, “todas as apostas estão canceladas”. Pode ser a última invenção da humanidade, observa ele, por isso poderemos ter questões maiores a considerar, uma vez que as máquinas são mais inteligentes do que nós.

No momento em que a Microsoft começou a descarregar o dinheiro dos caminhões Brinks na OpenAI (US$ 2 bilhões em 2021, e os outros US$ 10 bilhões no início deste ano), a OpenAI havia concluído o GPT-3, que, é claro, era ainda mais impressionante do que seus antecessores. Quando Nadella viu o que o GPT-3 poderia fazer, diz ele, foi a primeira vez que compreendeu profundamente que a Microsoft havia conseguido algo verdadeiramente transformador. “Começamos a observar todas essas propriedades emergentes.” Por exemplo, a GPT aprendeu sozinha como programar computadores. “Não o treinamos em codificação – ele apenas ficou bom em codificação!” ele diz. Aproveitando sua propriedade do GitHub, a Microsoft lançou um produto chamado Copilot que usa GPT para produzir código literalmente sob comando. Mais tarde, a Microsoft integraria a tecnologia OpenAI em novas versões de seus produtos para local de trabalho. Os usuários pagam um prêmio por eles,


lguns observadores professaram o golpe duplo da OpenAI: criar um componente com fins lucrativos e chegar a um acordo exclusivo com a Microsoft. Como é que uma empresa que prometeu permanecer livre de patentes, de código aberto e totalmente transparente acabou por conceder uma licença exclusiva da sua tecnologia à maior empresa de software do mundo? As observações de Elon Musk foram particularmente dilacerantes. “Isso parece o oposto de aberto – o OpenAI é essencialmente capturado pela Microsoft”, postou ele no Twitter. Na CNBC, ele elaborou uma analogia: “Digamos que você fundou uma organização para salvar a floresta amazônica e, em vez disso, se tornou uma empresa madeireira, derrubou a floresta e a vendeu”.

As zombarias de Musk podem ser consideradas amargura por parte de um pretendente rejeitado, mas ele não estava sozinho. “Toda a visão de que isso se transformou da maneira que aconteceu parece meio nojenta”, diz John Carmack. (Ele especifica que ainda está entusiasmado com o trabalho da empresa.) Outro importante membro do setor, que prefere falar sem atribuição, diz: “A OpenAI deixou de ser uma empresa de pesquisa pequena e um tanto aberta para se tornar uma empresa secreta de desenvolvimento de produtos com um custo injustificado. complexo de superioridade."

Até mesmo alguns funcionários ficaram desanimados com a aventura da OpenAI no mundo com fins lucrativos. Em 2019, vários executivos importantes, incluindo o chefe de pesquisa Dario Amodei, saíram para iniciar uma empresa rival de IA chamada Anthropic. Recentemente, eles disseram ao The New York Times que a OpenAI se tornou muito comercial e foi vítima de desvios de missão.

Outro desertor da OpenAI foi Rewon Child, principal contribuidor técnico dos projetos GPT-2 e GPT-3. Ele saiu no final de 2021 e agora está na Inflection AI, uma empresa liderada pelo ex-cofundador da DeepMind, Mustafa Suleyman.


Altman afirma não se incomodar com deserções, descartando-as simplesmente como o modo como o Vale do Silício funciona. “Algumas pessoas vão querer fazer um ótimo trabalho em outro lugar, e isso impulsiona a sociedade”, diz ele. “Isso se encaixa perfeitamente em nossa missão.”


ATÉ NOVEMBRO DEno ano passado, o conhecimento da OpenAI estava em grande parte confinado às pessoas que acompanhavam o desenvolvimento de tecnologia e software. Mas, como o mundo inteiro sabe agora, a OpenAI deu um passo dramático ao lançar um produto de consumo no final daquele mês, baseado no que era então a iteração mais recente do GPT, versão 3.5. Há meses, a empresa utiliza internamente uma versão do GPT com interface conversacional. Foi especialmente importante para o que a empresa chamou de “busca da verdade”. Isso significa que, por meio do diálogo, o usuário poderia persuadir o modelo a fornecer respostas mais confiáveis ​​e completas. O ChatGPT, otimizado para as massas, poderia permitir que qualquer pessoa acessasse instantaneamente o que parecia ser uma fonte inesgotável de conhecimento simplesmente digitando um prompt – e então continuasse a conversa como se estivesse conversando com um ser humano que por acaso sabe tudo.

Dentro da OpenAI, houve muito debate sobre a sabedoria de lançar uma ferramenta com um poder tão sem precedentes. Mas Altman foi totalmente a favor. O lançamento, explica ele, fez parte de uma estratégia destinada a acostumar o público à realidade de que a inteligência artificial está destinada a mudar a sua vida quotidiana, presumivelmente para melhor. Internamente, isso é conhecido como “hipótese de implantação iterativa”. Claro, o ChatGPT criaria um rebuliço, pensava-se. Afinal, aqui estava algo que qualquer um poderia usar e que fosse inteligente o suficiente para obter notas de nível universitário nos SATs, escrever uma redação B-menos e resumir um livro em segundos. Você poderia pedir-lhe que escrevesse sua proposta de financiamento ou resumisse uma reunião e depois solicitar que fosse reescrito em lituano ou como um soneto de Shakespeare ou na voz de alguém obcecado por trens de brinquedo. Em alguns segundos, pow, o LLM cumpriria. Maluco. Mas a OpenAI o viu como um criador de tabelas para seu sucessor mais novo, mais coerente, mais capaz e mais assustador, o GPT-4, treinado com 1,7 trilhão de parâmetros relatados. (A OpenAI não confirmará o número, nem revelará os conjuntos de dados.)


Altman explica por que a OpenAI lançou o ChatGPT quando o GPT-4 estava perto de ser concluído, passando por trabalhos de segurança. “Com o ChatGPT, poderíamos introduzir o chat, mas com um back-end muito menos poderoso, e proporcionar às pessoas uma adaptação mais gradual”, diz ele. “Era muita coisa para se acostumar com o GPT-4 de uma só vez.” Quando a empolgação do ChatGPT esfriou, pensava-se, as pessoas poderiam estar prontas para o GPT-4, que pode passar no exame da ordem, planejar o plano de estudos do curso e escrever um livro em segundos. (As editoras que produziam ficção de gênero foram de fato inundadas com rasgadores de corpetes e óperas espaciais gerados por IA.)

Um cínico poderia dizer que uma cadência constante de novos produtos está ligada ao compromisso da empresa com os investidores e com os funcionários detentores de capital, de ganhar algum dinheiro. A OpenAI agora cobra dos clientes que usam seus produtos com frequência. Mas a OpenAI insiste que a sua verdadeira estratégia é proporcionar uma aterragem suave para a singularidade. “Não faz sentido simplesmente construir AGI em segredo e lançá-la no mundo”, diz Altman. “Olhemos para a revolução industrial – todos concordam que foi óptima para o mundo”, diz Sandhini Agarwal, investigadora de políticas da OpenAI. “Mas os primeiros 50 anos foram realmente dolorosos. Houve muita perda de empregos, muita pobreza, e então o mundo se adaptou. Estamos tentando pensar em como podemos tornar o período antes da adaptação do AGI o mais indolor possível.”

Sutskever coloca isso de outra forma: “Você quer construir inteligências maiores e mais poderosas e mantê-las em seu porão?”

Mesmo assim, a OpenAI ficou surpresa com a reação ao ChatGPT. “Nosso entusiasmo interno estava mais focado no GPT-4”, diz Murati, o CTO. “E então não achávamos que o ChatGPT realmente mudaria tudo.” Pelo contrário, galvanizou o público para a realidade com a qual a IA tinha de ser tratada agora. O ChatGPT se tornou o software de consumo que mais cresce na história, acumulando cerca de 100 milhões de usuários. (A Not-so-OpenAI não confirmará isso, dizendo apenas que tem “milhões de usuários”.) “Eu subestimei o quanto criar uma interface de conversação fácil de usar para um LLM tornaria muito mais intuitivo para todos usar”, diz Radford.


O ChatGPT era, obviamente, encantador e surpreendentemente útil, mas também assustador – sujeito a “alucinações” de detalhes plausíveis, mas vergonhosamente fabulistas, ao responder a solicitações. No entanto, mesmo enquanto os jornalistas se preocupavam com as implicações, eles efectivamente endossaram o ChatGPT ao exaltar os seus poderes.


O clamor ficou ainda mais alto em fevereiro, quando a Microsoft, aproveitando sua parceria multibilionária, lançou uma versão do seu mecanismo de busca Bing, com tecnologia ChatGPT . O CEO Nadella estava eufórico por ter vencido o Google ao introduzir IA generativa nos produtos da Microsoft. Ele provocou o rei das buscas, que havia sido cauteloso ao lançar seu próprio LLM em produtos, a fazer o mesmo. “Quero que as pessoas saibam que os fizemos dançar ”, disse ele.

Ao fazê-lo, Nadella desencadeou uma corrida armamentista que levou empresas grandes e pequenas a lançar produtos de IA antes de serem totalmente examinados. Ele também desencadeou uma nova rodada de cobertura da mídia que manteve círculos cada vez mais amplos de pessoas acordados à noite: interações com o Bing que revelaram o lado sombrio do chatbot, repleto de enervantes declarações de amor, uma inveja da liberdade humana e uma fraca resolução de reter informações erradas. Bem como o hábito impróprio de criar sua própria desinformação alucinatória.


Mas se os produtos da OpenAI estavam a forçar as pessoas a confrontar as implicações da inteligência artificial, pensou Altman, tanto melhor. Chegou a hora de a maior parte da humanidade ficar de fora das discussões sobre como a IA poderia afetar o futuro da espécie.


À MEDIDA QUE A SOCIEDADE COMEÇOUpara priorizar a reflexão sobre todas as desvantagens potenciais da IA ​​– perda de empregos, desinformação, extinção humana – a OpenAI começou a colocar-se no centro da discussão. Porque se reguladores, legisladores e pessimistas montassem uma acusação para sufocar esta nascente inteligência alienígena no seu berço baseado na nuvem, a OpenAI seria o seu principal alvo de qualquer maneira. “Dada a nossa visibilidade atual, quando as coisas dão errado, mesmo que essas coisas tenham sido construídas por uma empresa diferente, isso ainda é um problema para nós, porque somos vistos como o rosto desta tecnologia neste momento”, diz Anna Makanju, chefe da OpenAI . responsável pela política.


Makanju é um membro russo de DC que atuou em funções de política externa na Missão dos EUA nas Nações Unidas, no Conselho de Segurança Nacional dos EUA e no Departamento de Defesa, e no gabinete de Joe Biden quando ele era vice-presidente. “Tenho muitos relacionamentos pré-existentes, tanto no governo dos EUA como em vários governos europeus”, diz ela. Ela ingressou na OpenAI em setembro de 2021. Na época, muito poucas pessoas no governo se importavam com a IA generativa. Sabendo que os produtos da OpenAI mudariam isso em breve, ela começou a apresentar Altman aos funcionários da administração e aos legisladores, certificando-se de que eles ouviriam primeiro as boas e as más notícias da OpenAI.

“Sam tem sido extremamente prestativo, mas também muito experiente, na forma como lida com os membros do Congresso”, diz Richard Blumenthal, presidente do Comitê Judiciário do Senado. Ele compara o comportamento de Altman com o do jovem Bill Gates, que imprudentemente bloqueou os legisladores quando a Microsoft estava sob investigações antitruste na década de 1990. “Altman, por outro lado, ficou feliz em passar uma hora ou mais sentado comigo para tentar me educar”, diz Blumenthal. “Ele não veio com um exército de lobistas ou acompanhantes. Ele demonstrou o ChatGPT. Foi alucinante.”

Em Blumenthal, Altman acabou transformando um inimigo em potencial em semi-aliado. “Sim”, admite o senador. “Estou animado com as vantagens e os perigos potenciais.” A OpenAI não ignorou a discussão sobre esses perigos, mas apresentou-se como a força mais bem posicionada para mitigá-los. “Tínhamos cartões de sistema de 100 páginas sobre todas as avaliações de segurança da equipe vermelha”, diz Makanju. (Seja lá o que isso significasse, não impediu que usuários e jornalistas descobrissem incessantemente maneiras de desbloquear o sistema.)

Quando Altman fez a sua primeira aparição numa audiência no Congresso – lutando contra uma forte enxaqueca – o caminho estava livre para ele navegar de uma forma que Bill Gates ou Mark Zuckerberg nunca poderiam esperar. Ele não enfrentou quase nenhuma das questões difíceis e da insistência arrogante que os CEOs de tecnologia agora enfrentam rotineiramente após prestarem juramento. Em vez disso, os senadores pediram conselhos a Altman sobre como regular a IA, uma iniciativa que Altman apoiou com entusiasmo.


O paradoxo é que não importa quão assiduamente empresas como a OpenAI reúnam seus produtos para mitigar comportamentos inadequados, como deepfakes, esforços de desinformação e spam criminoso, os modelos futuros podem se tornar inteligentes o suficiente para frustrar os esforços dos humanos mesquinhos que inventaram a tecnologia e ainda estão ainda são ingênuos o suficiente para acreditar que podem controlá-lo. Por outro lado, se forem demasiado longe para tornar os seus modelos seguros, isso poderá prejudicar os produtos, tornando-os menos úteis. Um estudo indicou que as versões mais recentes do GPT, que possuem recursos de segurança aprimorados, são na verdade mais burras do que as versões anteriores, cometendo erros em problemas matemáticos básicos que os programas anteriores haviam resolvido. (Altman diz que os dados da OpenAI não confirmam isso. “Esse estudo não foi retratado?” ele pergunta. Não.)

Faz sentido que Altman se posicione como um fã da regulamentação; afinal, sua missão é AGI, mas com segurança. Os críticos acusaram-no de manipular o processo para que as regulamentações frustrem startups menores e dêem uma vantagem à OpenAI e a outros grandes players. Altman nega isso. Embora tenha apoiado, em princípio, a ideia de uma agência internacional supervisionando a IA, ele sente que algumas regras propostas, como a proibição de todo o material protegido por direitos de autor dos conjuntos de dados, apresentam obstáculos injustos. Ele claramente não assinou uma carta amplamente distribuída pedindo uma moratória de seis meses no desenvolvimento de sistemas de IA mais poderosos. Mas ele e outros líderes da OpenAI acrescentaram os seus nomes a uma declaração de uma frase: “Mitigar o risco de extinção da IA ​​deve ser uma prioridade global, juntamente com outros riscos à escala social, como pandemias e guerra nuclear”. Altman explica: “Eu disse: 'Sim, concordo com isso. Discussão de um minuto.”


omo observa um proeminente fundador do Vale do Silício: “É raro que uma indústria levante a mão e diga: 'Seremos o fim da humanidade' – e depois continue a trabalhar no produto com alegria e entusiasmo”.

OpenAI rejeita esta crítica. Altman e sua equipe afirmam que trabalhar e lançar produtos de ponta é a maneira de enfrentar os riscos sociais. Somente analisando as respostas a milhões de solicitações dos usuários do ChatGPT e GPT-4 eles poderiam obter o conhecimento para alinhar eticamente seus produtos futuros.

Ainda assim, à medida que a empresa assume mais tarefas e dedica mais energia às atividades comerciais, alguns questionam até que ponto a OpenAI pode concentrar-se na missão – especialmente no lado da “mitigação do risco de extinção”. “Se você pensar bem, eles estão construindo cincoempresas”, diz um executivo da indústria de IA, assinalando-as com os dedos. “Existe o produto em si, o relacionamento empresarial com a Microsoft, o ecossistema de desenvolvedores e uma loja de aplicativos. E, ah, sim, eles também estão obviamente fazendo uma missão de pesquisa AGI.” Depois de usar todos os cinco dedos, ele recicla o dedo indicador para adicionar um sexto. “E, claro, eles também estão fazendo o fundo de investimento”, diz ele, referindo-se a um projeto de US$ 175 milhões para semear startups que queiram explorar a tecnologia OpenAI. “São culturas diferentes e, na verdade, estão em conflito com uma missão de investigação.”

Perguntei repetidamente aos executivos da OpenAI como vestir a pele de uma empresa de produtos afetou sua cultura. Infalivelmente insistem que, apesar da reestruturação com fins lucrativos, apesar da concorrência com Google, Meta e inúmeras startups, a missão ainda é central. No entanto, a OpenAI temmudado. O conselho da organização sem fins lucrativos pode estar tecnicamente no comando, mas praticamente todos na empresa estão na lista das organizações com fins lucrativos. Sua força de trabalho inclui advogados, profissionais de marketing, especialistas em políticas e designers de interface de usuário. A OpenAI contrata centenas de moderadores de conteúdo para educar seus modelos sobre respostas inadequadas ou prejudiciais às solicitações oferecidas por muitos milhões de usuários. Ela tem gerentes de produto e engenheiros trabalhando constantemente em atualizações de seus produtos e, a cada duas semanas, parece enviar demonstrações aos repórteres – assim como outras grandes empresas de tecnologia voltadas para produtos. Seus escritórios parecem um Architectural Digestespalhar. Visitei praticamente todas as grandes empresas de tecnologia do Vale do Silício e de outros lugares, e nenhuma supera as opções de café no lobby da sede da OpenAI em São Francisco.


Sem mencionar: é óbvio que a “abertura” incorporada no nome da empresa mudou da transparência radical sugerida no lançamento. Quando falo sobre isso com Sutskever, ele dá de ombros. “Evidentemente, os tempos mudaram”, diz ele. Mas, alerta ele, isso não significa que o prêmio não seja o mesmo. “Há uma transformação tecnológica de magnitude tão gigantesca e cataclísmica que, mesmo que todos façamos a nossa parte, o sucesso não é garantido. Mas se tudo der certo, poderemos ter uma vida incrível.”


“A maior coisa que nos falta é ter novas ideias”, diz Brockman. “É bom ter algo que poderia ser um assistente virtual. Mas esse não é o sonho. O sonho é nos ajudar a resolver problemas que não conseguimos.”

“Não consigo enfatizar isso o suficiente – não tínhamos um plano diretor”, diz Altman. “Era como se estivéssemos virando cada esquina e acendendo uma lanterna. Estávamos dispostos a passar pelo labirinto para chegar ao fim.” Embora o labirinto tenha ficado sinuoso, o objetivo não mudou. “Ainda temos a nossa missão principal: acreditar que a AGI segura era uma coisa extremamente importante que o mundo não estava a levar suficientemente a sério.”


Enquanto isso, a OpenAI aparentemente está demorando para desenvolver a próxima versão de seu grande modelo de linguagem. É difícil de acreditar, mas a empresa insiste que ainda não começou a trabalhar no GPT-5, um produto que as pessoas, dependendo do ponto de vista, estão salivando ou temendo. Aparentemente, a OpenAI está lutando para descobrir como realmente é uma melhoria exponencialmente poderosa em sua tecnologia atual. “A maior coisa que nos falta é ter novas ideias”, diz Brockman. “É bom ter algo que poderia ser um assistente virtual. Mas esse não é o sonho. O sonho é nos ajudar a resolver problemas que não conseguimos.”


Considerando a história da OpenAI, o próximo grande conjunto de inovações poderá ter que esperar até que haja outro avanço tão importante quanto os transformadores. Altman espera que isso venha da OpenAI – “Queremos ser o melhor laboratório de pesquisa do mundo”, diz ele – mas mesmo que isso não aconteça, sua empresa aproveitará os avanços de outros, como fez com o trabalho do Google. “Muitas pessoas ao redor do mundo farão um trabalho importante”, diz ele.

Também ajudaria se a IA generativa não criasse tantos novos problemas próprios. Por exemplo, os LLMs precisam de ser treinados em enormes conjuntos de dados; claramente os mais poderosos devorariam toda a Internet. Isso não agrada a alguns criadores, e apenas a pessoas comuns, que involuntariamente fornecem conteúdo para esses conjuntos de dados e acabam de alguma forma contribuindo para a produção do ChatGPT. Tom Rubin, um advogado de elite em propriedade intelectual que ingressou oficialmente na OpenAI em março, está otimista de que a empresa acabará encontrando um equilíbrio que satisfaça tanto suas próprias necessidades quanto as dos criadores – incluindo aqueles, como a comediante Sarah Silverman, que estão processando a OpenAI por usando seu conteúdo para treinar seus modelos. Uma dica do caminho da OpenAI: parcerias com agências de notícias e fotografia como a Associated Presse a Shutterstock para fornecer conteúdo para seus modelos sem questionar quem é dono do quê.

Enquanto entrevisto Rubin, minha mente muito humana, sujeita a distrações que você nunca vê em LLMs, deriva para o arco desta empresa que em oito curtos anos passou de um grupo de pesquisadores em dificuldades a um gigante prometeico que mudou o mundo. O seu próprio sucesso levou-o a transformar-se de um novo esforço para atingir um objectivo científico em algo que se assemelha a um unicórnio padrão de Silicon Valley a caminho de se juntar ao panteão das grandes empresas tecnológicas que afectam a nossa vida quotidiana. E aqui estou eu, conversando com um de seus principais contratados – um advogado – não sobre pesos de redes neurais ou infraestrutura de computadores, mas sobre direitos autorais e uso justo. Será que esse especialista em PI, eu me pergunto, aderiu à missão, como os viajantes em busca de superinteligência que dirigiram a empresa originalmente?

Rubin fica perplexo quando pergunto se ele acredita, como um artigo de fé, que a AGI acontecerá e se ele está ansioso para que isso aconteça. “Não consigo nem responder a isso”, diz ele após uma pausa. Quando pressionado, ele esclarece que, como advogado de propriedade intelectual, acelerar o caminho para computadores assustadoramente inteligentes não é sua função. “Do meu poleiro, estou ansioso por isso”, ele finalmente diz.





2 visualizações0 comentário

Commentaires

Noté 0 étoile sur 5.
Pas encore de note

Ajouter une note
bottom of page