FOLOU

DeepSeek R2 podría ser más liviano, más rápido y multilingüe

Corren rumores de que DeepSeek está a punto de lanzar DeepSeek R2, un modelo de lenguaje de código abierto que busca mejorar la eficiencia sin reducir capacidad. Su diseño permite utilizar solo una parte del modelo en cada operación.

Fue entrenado para generar código, seguir instrucciones complejas y resolver problemas. Su entrenamiento incluyó 12 billones de tokens, tanto en inglés como en chino, lo que amplía su alcance multilingüe.

Según el sitio web DeepSeek AI, DeepSeek R2 tiene 236 mil millones de parámetros, pero solo activa 21 mil millones cada operación. Esto lo hace más ligero en procesamiento sin perder rendimiento.

TE PUEDE INTERESAR: WhatsApp Web se actualiza: pronto podrás hacer llamadas de voz y video

Datos sobre DeepSeek R2

Foto: DeepSeek.

Salir de la versión móvil