DeepSeek-V3
1. Wprowadzenie Przedstawiamy DeepSeek-V3, potężny model językowy oparty na architekturze Mixture-of-Experts (MoE), posiadający 671 miliardów parametrów, z których 37 miliardów […]
1. Wprowadzenie Przedstawiamy DeepSeek-V3, potężny model językowy oparty na architekturze Mixture-of-Experts (MoE), posiadający 671 miliardów parametrów, z których 37 miliardów […]
DeepSeek-Coder-V2: Przełamanie bariery modeli zamkniętych w inteligencji kodu 1. Wprowadzenie Przedstawiamy DeepSeek-Coder-V2, otwartoźródłowy model językowy do kodowania oparty na architekturze
DeepSeek-V2: Potężny, ekonomiczny i wydajny model językowy Mixture-of-Experts 1. Wprowadzenie Przedstawiamy DeepSeek-V2, zaawansowany model językowy oparty na architekturze Mixture-of-Experts (MoE),
1. Wprowadzenie Przedstawiamy nasze pierwszej generacji modele rozumowania, DeepSeek-R1-Zero i DeepSeek-R1. DeepSeek-R1-Zero, model szkolony poprzez uczenie ze wzmocnieniem (RL)