Inteligência Artificial

Elon Musk afirma que a xAI treinou o Grok com base em modelos da OpenAI

Publicado porRedacao AIDaily
4 min de leitura
Autor na fonte original: Tim Fernholz

A "destilação" é um tema em alta, à medida que os laboratórios pioneiros tentam impedir que concorrentes menores copiem seus modelos.

Compartilhar:

A OpenAI e a Anthropic têm estado em pé de guerra ultimamente contra as iniciativas de terceiros que visam treinar novos modelos de IA por meio do uso de seus chatbots e APIs de acesso público, um processo conhecido como “destilação”.

Essa discussão tem se concentrado nas empresas chinesas que utilizam a destilação para criar modelos de peso aberto com capacidades quase equivalentes às ofertas americanas, mas disponíveis a um custo muito menor. No entanto, profissionais da área de tecnologia têm amplamente presumido que os laboratórios americanos utilizam essas técnicas entre si para evitar ficar para trás em relação aos concorrentes.

Agora sabemos que isso é verdade em pelo menos um caso: no banco das testemunhas em um tribunal federal da Califórnia na quinta-feira, Elon Musk foi questionado se a xAI utilizou técnicas de destilação em modelos da OpenAI para treinar o Grok, e ele afirmou que essa era uma prática comum entre empresas de IA. Questionado se isso significava “sim”, ele respondeu: “Em parte”.

Musk está processando a OpenAI, o CEO Sam Altman e Greg Brockman, alegando que eles violaram a missão original sem fins lucrativos da OpenAI ao transformar a entidade em uma estrutura com fins lucrativos. Esse julgamento começou esta semana, com o depoimento do líder do setor de tecnologia.

A admissão de Musk é notável porque a destilação ameaça os gigantes da IA ao minar a vantagem que eles construíram ao investir em infraestrutura de computação. Isso permite que outros fabricantes de software criem modelos quase tão capazes a um custo baixo. Há uma ironia considerável aqui, dada a flexibilização e a suposta violação das regras de direitos autorais por laboratórios pioneiros em sua busca por dados suficientes para treinar seus modelos.

Não é surpresa que a xAI de Musk, fundada em 2023, anos depois da OpenAI, tentasse aprender com o então líder no campo. Não está claro se a destilação é explicitamente ilegal, mas pode violar os termos de serviço que as empresas estabelecem para os usuários de seus produtos.

A OpenAI, a Anthropic e o Google teriam lançado uma iniciativa por meio do Frontier Model Forum para compartilhar informações sobre como combater tentativas de destilação vindas da China. Essas tentativas geralmente envolvem consultas sistemáticas aos modelos para compreender seu funcionamento interno. Para impedir esses esforços, os laboratórios pioneiros estão trabalhando para impedir que os usuários façam consultas em massa suspeitas.

A OpenAI não respondeu a um pedido de comentário sobre a admissão de Musk até o momento.

Mais tarde em seu depoimento, Musk foi questionado sobre uma afirmação que fez no verão passado de que a xAI logo estaria muito à frente de qualquer empresa, exceto o Google. Em resposta, ele classificou os principais fornecedores de IA do mundo, dizendo que a Anthropic ocupava o primeiro lugar, seguida pela OpenAI, pelo Google e pelos modelos chineses de código aberto. Ele caracterizou a xAI como uma empresa muito menor, com apenas algumas centenas de funcionários.

Quando você compra por meio de links em nossos artigos, podemos receber uma pequena comissão. Isso não afeta nossa independência editorial.

A StrictlyVC dá início ao ano em São Francisco. Inscreva-se agora para participar de conversas informais sem filtros e obter insights de investidores de capital de risco com líderes da Uber, Replit, Eclipse e muito mais. Além disso, conexões de alto valor que realmente fazem a diferença. Os ingressos são limitados.

No banco dos réus, Elon Musk não consegue escapar de seus próprios tweets Tim Fernholz

No banco dos réus, Elon Musk não consegue escapar de seus próprios tweets

No banco dos réus, Elon Musk não consegue escapar de seus próprios tweets

OpenAI encerra risco legal da Microsoft em relação ao acordo de US$ 50 bilhões com a Amazon Julie Bort

OpenAI encerra risco legal da Microsoft em relação ao acordo de US$ 50 bilhões com a Amazon

OpenAI encerra risco legal da Microsoft em relação ao acordo de US$ 50 bilhões com a Amazon

David Silver, da DeepMind, acaba de levantar US$ 1,1 bilhão para construir uma IA que aprende sem dados humanos Anna Heim

David Silver, da DeepMind, acaba de levantar US$ 1,1 bilhão para construir uma IA que aprende sem dados humanos

David Silver, da DeepMind, acaba de levantar US$ 1,1 bilhão para construir uma IA que aprende sem dados humanos

A OpenAI pode estar desenvolvendo um celular com agentes de IA substituindo os aplicativos Ivan Mehta

A OpenAI pode estar desenvolvendo um celular com agentes de IA substituindo os aplicativos

A OpenAI pode estar desenvolvendo um celular com agentes de IA substituindo os aplicativos

Os calouros de Stanford que querem dominar o mundo… provavelmente vão ler este livro e se esforçar ainda mais Connie Loizos

Os calouros de Stanford que querem dominar o mundo… provavelmente vão ler este livro e se esforçar ainda mais

Os calouros de Stanford que querem dominar o mundo… provavelmente vão ler este livro e se esforçar ainda mais

Dois universitários levantam US$ 5,1 milhões em pré-semente para construir uma rede social de IA no iMessage Dominic-Madori Davis

Dois universitários levantam US$ 5,1 milhões em pré-semente para construir uma rede social de IA no iMessage

Dois universitários levantam US$ 5,1 milhões em pré-semente para construir uma rede social de IA no iMessage

A perda da Meta é o ganho da Thinking Machines Connie Loizos

Pontos-chave

  • A destilação pode democratizar o acesso a tecnologias de IA, mas levanta questões sobre propriedade intelectual.
  • A colaboração entre grandes empresas de IA pode criar barreiras de entrada para novas startups no Brasil.
  • A evolução das regulamentações sobre IA será crucial para equilibrar inovação e proteção de direitos autorais.

Análise editorial

A revelação de Elon Musk sobre o uso de técnicas de destilação pela xAI para treinar o Grok com base em modelos da OpenAI é um marco importante no debate sobre a ética e a legalidade na utilização de modelos de inteligência artificial. Para o setor de tecnologia brasileiro, essa questão é particularmente relevante, pois muitos startups e empresas locais estão explorando a IA, e a possibilidade de utilizar técnicas semelhantes pode democratizar o acesso a tecnologias avançadas. No entanto, isso também levanta preocupações sobre a proteção da propriedade intelectual e a sustentabilidade do investimento em pesquisa e desenvolvimento por parte de grandes empresas.

Além disso, a luta contra a destilação pode impactar o ecossistema global de IA, especialmente em um momento em que empresas chinesas estão se tornando cada vez mais competitivas. O movimento de colaboração entre OpenAI, Anthropic e Google, por meio do Frontier Model Forum, sugere que as empresas estão se unindo para enfrentar um desafio comum, o que pode resultar em um fortalecimento das barreiras de entrada para novos participantes no mercado. Para o Brasil, isso pode significar que as startups locais precisarão ser ainda mais inovadoras e criativas para se destacar em um cenário onde o acesso a modelos de IA de ponta pode ser restringido.

O que observar a seguir é como as legislações e regulamentações em torno da IA evoluirão em resposta a essas práticas. A questão da destilação pode levar a um debate mais amplo sobre a ética na IA e a necessidade de um marco regulatório que proteja tanto a inovação quanto os direitos autorais. Para o Brasil, onde a legislação sobre tecnologia ainda está em desenvolvimento, essa discussão pode influenciar a formulação de políticas que incentivem a inovação enquanto protegem os direitos dos criadores de conteúdo e desenvolvedores de tecnologia.

O que esta cobertura entrega

  • Atribuicao clara de fonte com link para a publicacao original.
  • Enquadramento editorial sobre relevancia, impacto e proximos desdobramentos.
  • Revisao de legibilidade, contexto e duplicacao antes da publicacao.

Fonte original:

TechCrunch AI

Sobre este artigo

Este artigo foi curado e publicado pelo AIDaily como parte da nossa cobertura editorial sobre desenvolvimentos em inteligência artificial. O conteúdo é baseado na fonte original citada abaixo, enriquecido com contexto e análise editorial. Ferramentas automatizadas podem auxiliar tradução e estruturação inicial, mas a decisão de publicar, a revisão factual e o enquadramento de contexto seguem responsabilidade editorial.

Saiba mais sobre nosso processo editorial