Elon Musk confirma que a xAI utilizou os modelos da OpenAI para treinar o Grok
Numa sala de audiências federal na Califórnia, na quinta-feira, Elon Musk testemunhou que sua própria startup de IA, a xAI, utilizou os modelos da OpenAI para aprimorar os seus próprios. O assunto em questão é a destilação de modelos, uma prática comum no setor em que um modelo de IA maior atua como uma espécie de “professor” para transmitir conhecimento a um modelo menor […]
Ele disse que era “parcialmente” verdade que a empresa havia usado a destilação de modelos para melhorar os modelos da xAI.
Ele disse que era “parcialmente” verdade que a empresa havia usado a destilação de modelos para melhorar os modelos da xAI.
Se você comprar algo por meio de um link da Verge, a Vox Media poderá receber uma comissão. Consulte nossa declaração de ética.
Em um tribunal federal na Califórnia na quinta-feira, Elon Musk testemunhou que sua própria startup de IA, a xAI, usou os modelos da OpenAI para melhorar os seus.
A questão em pauta é a destilação de modelos, uma prática comum no setor pela qual um modelo de IA maior atua como uma espécie de “professor” para transmitir conhecimento a um modelo de IA menor, o “aluno”. Embora seja frequentemente usada de forma legítima dentro de empresas que utilizam um de seus próprios modelos de IA para treinar outro, é também uma prática que às vezes é empregada por laboratórios de IA menores para tentar fazer com que seus modelos imitem o desempenho do modelo de um concorrente maior.
Questionado no tribunal se sabia o que era destilação de modelos, Musk disse que se trata de usar um modelo de IA para treinar outro. Quando perguntado se a xAI havia destilado a tecnologia da OpenAI, Musk pareceu evitar a pergunta, dizendo que “geralmente todas as empresas de IA” fazem isso. E quando questionado se isso significava um sim, ele respondeu: “Em parte”.
Quando pressionado, Musk disse: “É prática padrão usar outras IAs para validar sua IA.”
A destilação de modelos vem crescendo e tem gerado mais controvérsia entre os laboratórios de IA nos últimos anos, já que os limites do que é legal — e do que viola determinados termos ou políticas de uma empresa — muitas vezes se situam em uma área cinzenta. Empresas como a OpenAI e a Anthropic acusaram firmas chinesas de destilar seus modelos, com a OpenAI declarando publicamente suas preocupações sobre a DeepSeek, e a Anthropic citando especificamente a DeepSeek, a Moonshot e a MiniMax. O Google, também, tomou medidas para tentar impedir o que chama de “ataques de destilação”, ou “um método de roubo de propriedade intelectual que viola os termos de serviço do Google”.
Em uma postagem no blog da própria Anthropic sobre o assunto, a empresa escreveu: “A destilação é um método de treinamento amplamente utilizado e legítimo. Por exemplo, laboratórios de IA de ponta destilam rotineiramente seus próprios modelos para criar versões menores e mais baratas para seus clientes. Mas a destilação também pode ser usada para fins ilícitos: concorrentes podem usá-la para adquirir recursos poderosos de outros laboratórios em uma fração do tempo e a uma fração do custo que levaria para desenvolvê-los de forma independente.”
Mais em: Atualizações ao vivo da batalha judicial entre Elon Musk e Sam Altman sobre o futuro da OpenAI
Apple aumenta o preço inicial do Mac Mini
A derrota histórica da Meta no tribunal pode custar muito mais do que US$ 375 milhões
O cabo USB-C 2 em 1 com desconto da Anker é uma ótima maneira de gastar US$ 15
A Spirit Airlines encerra as atividades após a guerra de Trump contra o Irã ter duplicado os preços do combustível de aviação
Quanto mais os jovens usam a IA, mais eles a odeiam
Pontos-chave
- A destilação de modelos é uma prática comum, mas controversa, que pode levar a disputas legais e éticas no setor de IA.
- Startups brasileiras podem se sentir pressionadas a adotar práticas de destilação para se manterem competitivas, o que pode afetar a confiança do público na IA.
- A reação de grandes empresas de tecnologia a essas práticas pode moldar o ambiente regulatório e a aceitação da IA no Brasil.
Análise editorial
A confirmação de Elon Musk sobre o uso de modelos da OpenAI pela xAI para treinar o Grok levanta questões significativas sobre a ética e a legalidade da destilação de modelos no setor de IA. Essa prática, embora comum, pode ser vista como uma linha tênue entre inovação e apropriação indevida de propriedade intelectual. Para o setor de tecnologia brasileiro, que ainda está em desenvolvimento em relação à IA, essa discussão é crucial, pois pode influenciar a forma como startups locais abordam a criação e o treinamento de seus modelos. O Brasil possui um ecossistema de IA em crescimento, e a transparência nas práticas de treinamento é vital para construir confiança tanto entre os desenvolvedores quanto entre os usuários finais.
Além disso, a revelação de Musk pode intensificar a competição entre empresas de IA, especialmente entre as que operam em mercados emergentes como o Brasil. Startups brasileiras podem se sentir pressionadas a adotar práticas semelhantes para se manterem competitivas, o que pode resultar em um aumento na utilização de modelos de outras empresas, potencialmente levando a disputas legais e éticas. A forma como essas empresas se posicionam em relação à destilação de modelos pode moldar a percepção pública e a aceitação da IA no país.
Por fim, é importante observar como as grandes empresas de tecnologia, como Google e OpenAI, reagem a essas práticas. A possibilidade de ações legais contra empresas que utilizam destilação de modelos pode criar um ambiente de incerteza para startups brasileiras, que podem hesitar em investir em IA se perceberem um risco elevado de litígios. O cenário regulatório em torno da IA no Brasil ainda está em formação, e esse tipo de incidente pode acelerar a necessidade de diretrizes claras que definam o que é aceitável em termos de treinamento de modelos de IA.
O que esta cobertura entrega
- Atribuicao clara de fonte com link para a publicacao original.
- Enquadramento editorial sobre relevancia, impacto e proximos desdobramentos.
- Revisao de legibilidade, contexto e duplicacao antes da publicacao.
Fonte original:
The Verge AISobre este artigo
Este artigo foi curado e publicado pelo AIDaily como parte da nossa cobertura editorial sobre desenvolvimentos em inteligência artificial. O conteúdo é baseado na fonte original citada abaixo, enriquecido com contexto e análise editorial. Ferramentas automatizadas podem auxiliar tradução e estruturação inicial, mas a decisão de publicar, a revisão factual e o enquadramento de contexto seguem responsabilidade editorial.
Saiba mais sobre nosso processo editorial