Aktualności Sprzęt i technologie Najnowszy model AI DeepSeek jest teraz 2,5 razy szybszy

Najnowszy model AI DeepSeek jest teraz 2,5 razy szybszy

Arkadiy Andrienko
Czytaj w pełnej wersji

Chińska firma AI DeepSeek zaprezentowała zaktualizowaną wersję swojej sieci neuronowej, DeepSeek-V3.1. Ten nowy model wprowadza wsparcie dla chińskich procesorów, znaczący wzrost prędkości oraz nowy tryb hybrydowy. DeepSeek-V3.1 wykorzystuje nowy typ obliczeń, UE8M0 FP8, który zmniejsza obciążenie pamięci i przyspiesza przetwarzanie danych. Jest to szczególnie istotny rozwój w obliczu rosnących ograniczeń dotyczących importu zachodnich półprzewodników.

Zgodnie z informacjami od twórców, nowy model działa 2,5 razy szybciej niż jego poprzednik i obsługuje okno kontekstowe o wielkości 128K tokenów — dwa razy większe niż w poprzednim modelu. Użytkownicy mogą teraz przełączać się między trybami myślenia „głębokiego” a standardowego za pomocą przycisku w interfejsie, co pozwala na elastyczne zarządzanie zasobami modelu w zależności od wykonywanego zadania.

Nowy model pozostaje całkowicie darmowy w użyciu w swoim interfejsie czatu. Dla deweloperów zmieniają się ceny dostępu do API: od 6 września integracja będzie tańsza, wynosząc 0,07 USD za 1 milion tokenów wejściowych. DeepSeek-V3.1 osiągnął imponujące wyniki w testach. Uzyskał 53,1% w teście SVG Bench, przewyższając Gemini 2.5 Flash i GPT-5 Chat. Osiągnął również wynik 71,6% w teście ADA.

Model open-source jest dostępny do pobrania na Hugging Face, co umożliwia użytkownikom uruchomienie go lokalnie na własnym sprzęcie.

Ta wersja pojawia się krótko po tym, jak OpenAI wprowadziło swój nowy model GPT-5 na początku sierpnia. Chociaż jego podstawowa wersja jest również dostępna dla wszystkich użytkowników bez subskrypcji, jego uruchomienie spotkało się z krytyką, co skłoniło firmę do przywrócenia dostępu do swojego poprzedniego modelu, GPT-4o, mimo jego niższej wydajności w testach.

    O autorze
    Komentarze0
    Zostawić komentarz