A DeepSeek apresenta um novo modelo de IA que “diminui a diferença” em relação aos modelos de ponta
A DeepSeek afirma que ambos os modelos são mais eficientes e têm melhor desempenho do que o DeepSeek V3.2 devido a melhorias arquitetônicas, e que praticamente “diminuíram a diferença” em relação aos modelos líderes atuais, tanto de código aberto quanto fechado, em testes de desempenho de raciocínio.
O laboratório chinês de IA DeepSeek lançou duas versões preliminares de seu mais novo modelo de linguagem de grande escala, o DeepSeek V4, uma atualização muito aguardada do modelo V3.2 do ano passado e do modelo de raciocínio R1 que o acompanha, que causou furor no mundo da IA.
A empresa afirma que tanto o DeepSeek V4 Flash quanto o V4 Pro são modelos de mistura de especialistas com janelas de contexto de 1 milhão de tokens cada — o suficiente para permitir que grandes bases de código ou documentos sejam usados em prompts. A abordagem de mistura de especialistas envolve ativar apenas um determinado número de parâmetros por tarefa para reduzir os custos de inferência.
O modelo Pro possui um total de 1,6 trilhão de parâmetros (49 bilhões ativos), o que o torna o maior modelo de peso aberto disponível, superando o Kimi K 2.6 da Moonshot AI (1,1 trilhão), o M1 da MiniMax (456 bilhões) e mais do que o dobro do DeepSeek V3.2 (671 bilhões). O menor, o V4 Flash, possui 284 bilhões de parâmetros (13 bilhões ativos).
A DeepSeek afirma que ambos os modelos são mais eficientes e têm melhor desempenho do que o DeepSeek V3.2 devido a melhorias arquitetônicas, e quase “fecharam a lacuna” com os modelos líderes atuais, tanto de código aberto quanto fechado, em benchmarks de raciocínio.
A empresa afirma que seu novo modelo V4-Pro-Max supera seus pares de código aberto em benchmarks de raciocínio e ultrapassa o GPT-5.2 e o Gemini 3.0 Pro da OpenAI em algumas tarefas. Em benchmarks de competições de programação, a DeepSeek afirmou que o desempenho de ambos os modelos V4 é “comparável ao do GPT-5.4”.
No entanto, os modelos parecem ficar ligeiramente atrás dos modelos de ponta em testes de conhecimento, especificamente o GPT-5.4 da OpenAI e o mais recente Gemini 3.1 Pro do Google. Esse atraso sugere uma “trajetória de desenvolvimento que fica cerca de 3 a 6 meses atrás dos modelos de ponta de última geração”, escreveu o laboratório.
Tanto o V4 Flash quanto o V4 Pro suportam apenas texto, ao contrário de muitos de seus concorrentes de código fechado, que oferecem suporte para compreensão e geração de áudio, vídeo e imagens.
Conheça seu próximo investidor ou startup de portfólio na Disrupt
Conheça seu próximo investidor ou startup de portfólio na Disrupt
Notavelmente, o DeepSeek V4 é muito mais acessível do que qualquer modelo de ponta disponível atualmente. O modelo V4 Flash, menor, custa US$ 0,14 por milhão de tokens de entrada e US$ 0,28 por milhão de tokens de saída, ficando abaixo do GPT-5.4 Nano, Gemini 3.1 Flash, GPT-5.4 Mini e Claude Haiku 4.5. Já o modelo V4 Pro, maior, custa US$ 0,145 por milhão de tokens de entrada e US$ 3,48 por milhão de tokens de saída, também ficando abaixo do Gemini 3.1 Pro, GPT-5.5, Claude Opus 4.7 e GPT-5.4.
O lançamento ocorre um dia após os EUA acusarem a China de roubar propriedade intelectual de laboratórios americanos de IA em escala industrial, utilizando milhares de contas proxy. A própria DeepSeek foi acusada pela Anthropic e pela OpenAI de “destilar”, essencialmente copiar, seus modelos de IA.
Quando você compra por meio de links em nossos artigos, podemos receber uma pequena comissão. Isso não afeta nossa independência editorial.
Ram é repórter e editor de finanças e tecnologia. Ele cobriu fusões e aquisições na América do Norte e Europa, ações, notícias regulatórias e mercados de dívida na Reuters e na Acuris Global, e também escreveu sobre viagens, turismo, entretenimento e livros.
Você pode entrar em contato ou confirmar o contato de Ram enviando um e-mail para ram.iyer@techcrunch.com.
A StrictlyVC dá início ao ano em São Francisco. Inscreva-se agora para participar de conversas informais e obter insights de VC com líderes da Uber, Replit, Eclipse e muito mais. Além disso, conexões de alto valor que realmente fazem a diferença. Os ingressos são limitados.
OpenAI lança o GPT-5.5, aproximando a empresa um passo a mais de um “superapp” de IA Lucas Ropek
OpenAI lança o GPT-5.5, aproximando a empresa um passo a mais de um “superapp” de IA
OpenAI lança GPT-5.5, aproximando a empresa de um "superapp" de IA
Microsoft oferece pacote de demissão voluntária para até 7% dos funcionários nos EUA Amanda Silberling
Microsoft oferece pacote de demissão voluntária para até 7% dos funcionários nos EUA
Microsoft oferece pacote de demissão voluntária para até 7% dos funcionários nos EUA
Duolingo agora oferece aos usuários acesso a conteúdo de aprendizagem avançado Lauren Forristal
O Duolingo agora oferece aos usuários acesso a conteúdo de aprendizagem avançado
O Duolingo agora oferece aos usuários acesso a conteúdo de aprendizagem avançado
Grupo não autorizado obteve acesso à ferramenta cibernética exclusiva da Anthropic, Mythos, afirma relatório Lucas Ropek
Grupo não autorizado obteve acesso à ferramenta cibernética exclusiva da Anthropic, Mythos, afirma relatório
Grupo não autorizado obteve acesso à ferramenta cibernética exclusiva da Anthropic, Mythos, afirma relatório
Tim Cook deixa o cargo de CEO da Apple, John Ternus assume o cargo Amanda Silberling Connie Loizos
Tim Cook deixa o cargo de CEO da Apple, John Ternus assume o cargo
Tim Cook deixa o cargo de CEO da Apple, John Ternus assume o cargo
O New Glenn da Blue Origin colocou um satélite de cliente na órbita errada durante seu terceiro lançamento Sean O'Kane
O New Glenn da Blue Origin colocou um satélite de cliente na órbita errada durante seu terceiro lançamento
O New Glenn da Blue Origin colocou um satélite de cliente na órbita errada durante seu terceiro lançamento
A Palantir publica um mini-manifesto denunciando a inclusão e as culturas “regressivas” Anthony Ha
A Palantir publica um mini-manifesto denunciando a inclusão e as culturas “regressivas”
A Palantir publica um mini-manifesto denunciando a inclusão e as culturas “regressivas”
Pontos-chave
- O DeepSeek V4 oferece uma capacidade de processamento de 1 milhão de tokens, ampliando as possibilidades de aplicações em IA no Brasil.
- A estratégia de mistura de especialistas pode reduzir custos operacionais, beneficiando startups e empresas locais.
- Apesar do avanço, o DeepSeek V4 ainda apresenta lacunas em relação a modelos de ponta, especialmente em conhecimento e multimodalidade.
Análise editorial
A introdução do DeepSeek V4 representa um avanço significativo no cenário de inteligência artificial, especialmente considerando a crescente competição entre modelos de linguagem. Para o setor de tecnologia brasileiro, que ainda está em fase de amadurecimento em relação a IA, a chegada de modelos mais acessíveis e eficientes pode estimular inovações locais. A capacidade de processar até 1 milhão de tokens de uma só vez, por exemplo, abre novas possibilidades para aplicações em áreas como análise de dados, automação de processos e desenvolvimento de software.
Além disso, a estratégia de mistura de especialistas adotada pela DeepSeek pode ser um divisor de águas. Ao ativar apenas um subconjunto de parâmetros para tarefas específicas, a empresa não apenas melhora a eficiência, mas também reduz custos operacionais. Isso é particularmente relevante para startups e empresas brasileiras que buscam implementar soluções de IA sem incorrer em altos custos de infraestrutura.
Entretanto, a análise dos benchmarks revela que, embora os novos modelos estejam se aproximando dos líderes de mercado, ainda existe uma lacuna em termos de conhecimento e capacidade de raciocínio. O fato de que o DeepSeek V4 não suporta multimodalidade, ao contrário de seus concorrentes, pode limitar sua adoção em aplicações que exigem uma compreensão mais rica e integrada de diferentes tipos de dados. Isso deve ser um ponto de atenção para desenvolvedores e empresas que buscam soluções completas.
Por fim, a acessibilidade dos modelos DeepSeek, especialmente o V4 Flash, pode democratizar o acesso à tecnologia de IA, permitindo que mais empresas brasileiras experimentem e implementem soluções de IA em suas operações. A redução de custos pode incentivar a adoção em setores que ainda estão hesitantes em investir em IA, potencialmente acelerando a transformação digital no Brasil.
O que esta cobertura entrega
- Atribuicao clara de fonte com link para a publicacao original.
- Enquadramento editorial sobre relevancia, impacto e proximos desdobramentos.
- Revisao de legibilidade, contexto e duplicacao antes da publicacao.
Fonte original:
TechCrunch AISobre este artigo
Este artigo foi curado e publicado pelo AIDaily como parte da nossa cobertura editorial sobre desenvolvimentos em inteligência artificial. O conteúdo é baseado na fonte original citada abaixo, enriquecido com contexto e análise editorial. Ferramentas automatizadas podem auxiliar tradução e estruturação inicial, mas a decisão de publicar, a revisão factual e o enquadramento de contexto seguem responsabilidade editorial.
Saiba mais sobre nosso processo editorial