Modelo mais pequeno deepseek r1 foi atualizado e já bate o gemini 2. 5 flash em teste de benchmark

Modelo mais pequeno deepseek r1 foi atualizado e já bate o gemini 2. 5 flash em teste de benchmark

Play all audios:

Loading...

A startup chinesa DeepSeek continua a refinar o seu modelo de inteligência artificial, nomeadamente a versão destilada R1, que recebeu uma nova atualização. A versão foi denominada de


DeepSeek-R1-0528-Qwen3-8B e é apontada como menor e mais resumida. No entanto, os resultados dos testes de benchmark AIME 2025 mostram que este é EXTREMAMENTE EFICIENTE E ENCOSTA-SE AO


OPENAI 03, ULTRAPASSANDO EM DESEMPENHO O MAIS RECENTE MODELO DA GOOGLE, O GEMINI 2.5 FLASH. Talvez o que seja mais surpreendente é que esta versão do DeepSeek R1 precise de menos recursos de


hardware para funcionar. SEGUNDO O TECHCRUNCH, ESTA VERSÃO DO R1 UTILIZA COMO BASE O QWEN3-8B DA ALIBABA E PRECISA DE UMA NVIDIA H100 PARA OPERAR, COM APENAS UM GPU COM 40 A 80 GB DE RAM


PARA CORRER. Em comparação, segundo a plataforma de cloud NodeShift, a versão completa DeepSeek R1 necessita de cerca de uma dúzia de GPUs com 80 GB para funcionar. A DeepSeek treinou o novo


modelo utilizando texto gerado pela versão atualizada do R1 para o refinar. A STARTUP EXPLICA NO HUGGING FACE QUE ESTA ATUALIZAÇÃO MELHORA SIGNIFICATIVAMENTE A SUA PROFUNDIDADE DE


RACIOCÍNIO E CAPACIDADES DE INFERÊNCIA, ao aproveitar o aumento dos recursos computacionais e introduzindo mecanismos de otimização dos algoritmos no pós-treino. O NOVO MODELO DEMONSTROU UMA


ELEVADA PERFORMANCE ENTRE DIFERENTES AVALIAÇÕES DO BENCHMARK, INCLUINDO MATEMÁTICA, PROGRAMAÇÃO E LÓGICA GERAL. “A sua performance geral está agora a aproximar-se dos modelos líderes, como


o O3 e o Gemini 2.5 Pro”, aponta na sua publicação. Refere ainda que o DeepSeek-R1-0528-Qwen3-8B pode ser usado tanto na investigação académica nos modelos de raciocínio como no


desenvolvimento industrial focado em modelos de pequena escala. DE NOTAR QUE O MODELO ESTÁ DISPONÍVEL ATRAVÉS DE UMA LICENÇA MIT, PODENDO SER USADA EM PRODUTOS COMERCIAIS SEM RESTRIÇÕES,


apontando apenas o disclaimer de utilização.