Um artigo de pesquisa que chama alguns modelos de inteligência artificial de "fundamentos" está gerando uma disputa sobre o futuro do campo.
Sinal: Forte
Fonte: Wired Magazine
Tendência: Inteligência Artificial
MÊS PASSADO, STANFORD pesquisadores declararam que uma nova era de inteligência artificial havia chegado, construída sobre redes neurais colossais e oceanos de dados. Eles disseram que um novo centro de pesquisa em Stanford construiria - e estudaria - esses "modelos básicos" de IA.
Os críticos da ideia surgiram rapidamente - inclusive no workshop organizado para marcar o lançamento do novo centro. Alguns se opõem às capacidades limitadas e, às vezes, ao comportamento bizarro desses modelos; outros alertam para o foco excessivo em uma maneira de tornar as máquinas mais inteligentes.
“Acho que o termo 'fundação' está terrivelmente errado”, disse Jitendra Malik , professora da UC Berkeley que estuda IA, aos participantes do workshop em um vídeo de discussão.
Malik reconheceu que um tipo de modelo identificado pelos pesquisadores de Stanford - grandes modelos de linguagem que podem responder a perguntas ou gerar texto a partir de um prompt - tem grande uso prático. Mas ele disse que a biologia evolutiva sugere que a linguagem se baseia em outros aspectos da inteligência, como a interação com o mundo físico.
“Esses modelos são realmente castelos no ar; eles não têm nenhum fundamento ”, disse Malik. “A linguagem que temos nesses modelos não é fundamentada, existe essa falsidade, não existe um entendimento real.” Ele recusou um pedido de entrevista.
Um artigo de pesquisa com co-autoria de dezenas de pesquisadores de Stanford descreve "um paradigma emergente para a construção de sistemas de inteligência artificial" que chamou de "modelos de base". Modelos cada vez maiores de IA produziram alguns avanços impressionantes em IA nos últimos anos, em áreas como percepção e robótica, bem como linguagem.
Grandes modelos de linguagem também são fundamentais para grandes empresas de tecnologia como Google e Facebook , que os usam em áreas como pesquisa, publicidade e moderação de conteúdo. Construir e treinar grandes modelos de linguagem pode exigir milhões de dólares em poder de computação em nuvem; até agora, isso limitou seu desenvolvimento e uso a um punhado de empresas de tecnologia bem sucedidas.
Mas os grandes modelos também são problemáticos. Os modelos de linguagem herdam o viés e o texto ofensivo dos dados em que são treinados e não têm compreensão do bom senso ou do que é verdadeiro ou falso. Dado um prompt, um grande modelo de linguagem pode emitir uma linguagem desagradável ou desinformação . Também não há garantia de que esses modelos grandes continuarão a produzir avanços em inteligência de máquina.
A proposta de Stanford dividiu a comunidade de pesquisa. “Chamá-los de 'modelos básicos ' bagunça completamente o discurso”, diz Subbarao Kambhampati , professor da Arizona State University. Não há um caminho claro desses modelos para formas mais gerais de IA, diz Kambhampati.
Thomas Dietterich , professor da Oregon State University e ex-presidente da Associação para o Avanço da Inteligência Artificial , diz que tem "grande respeito" pelos pesquisadores por trás do novo centro de Stanford e acredita que eles estão genuinamente preocupados com os problemas desses modelos levantados.
Mas Dietterich se pergunta se a ideia de modelos de fundação não envolve em parte obter financiamento para os recursos necessários para construí-los e trabalhar neles. “Fiquei surpreso que eles deram a esses modelos um nome chique e criaram um centro”, diz ele. “Isso tem a ver com o plantio de uma bandeira, o que pode ter vários benefícios do lado da arrecadação de fundos.”
Stanford também propôs a criação de uma nuvem nacional de IA para disponibilizar recursos de computação em escala industrial para acadêmicos que trabalham em projetos de pesquisa em IA.
Emily M. Bender , professora do departamento de linguística da Universidade de Washington, diz que se preocupa com o fato de a ideia de modelos de fundação refletir uma tendência a investir na abordagem centrada em dados para IA favorecida pela indústria.
Bender diz que é especialmente importante estudar os riscos apresentados por grandes modelos de IA. Ela foi coautora de um artigo , publicado em março, que chamou a atenção para problemas com grandes modelos de linguagem e contribuiu para a saída de dois pesquisadores do Google . Mas ela diz que o escrutínio deve vir de várias disciplinas.
“Existem todos esses outros campos adjacentes realmente importantes que estão famintos por financiamento”, diz ela. “Antes de jogarmos dinheiro na nuvem, gostaria de ver o dinheiro indo para outras disciplinas.”
Percy Liang , diretor do novo centro de pesquisas de Stanford, diz que ouviu as críticas, mas acredita que algumas pessoas podem interpretar mal o objetivo do projeto.
Liang diz que os grandes modelos de aprendizado de máquina apelidados de “fundamentais” parecem únicos e importantes por causa de sua capacidade de lidar com a complexidade do mundo real, conforme demonstrado pelos recursos de grandes modelos de linguagem. Ele diz que o feedback faz parte de um debate acadêmico saudável. “Todas essas críticas são bem-vindas”, diz ele.
Liang acrescenta que os pesquisadores de Stanford estão totalmente cientes dos limites desses modelos e descrevem alguns em seu artigo de pesquisa. Eles também não acreditam que esses modelos sejam tudo o que é necessário para dar mais saltos em IA, diz ele.
Percy Liang , diretor do novo centro de pesquisas de Stanford, diz que ouviu as críticas, mas acredita que algumas pessoas podem interpretar mal o objetivo do projeto.
Liang diz que os grandes modelos de aprendizado de máquina apelidados de “fundamentais” parecem únicos e importantes por causa de sua capacidade de lidar com a complexidade do mundo real, conforme demonstrado pelos recursos de grandes modelos de linguagem. Ele diz que o feedback faz parte de um debate acadêmico saudável. “Todas essas críticas são bem-vindas”, diz ele.
Liang acrescenta que os pesquisadores de Stanford estão totalmente cientes dos limites desses modelos e descrevem alguns em seu artigo de pesquisa. Eles também não acreditam que esses modelos sejam tudo o que é necessário para dar mais saltos em IA, diz ele.
“É apenas uma espécie de potencial bruto desenfreado”, diz Liang, “que precisamos descobrir uma maneira de controlar e conter.”
Comments