Aktualności Sprzęt i technologie Intel uruchamia AI Playground: narzędzie generatywnej sztucznej inteligencji dla procesorów graficznych Arc bez potrzeby korzystania z chmury

Intel uruchamia AI Playground: narzędzie generatywnej sztucznej inteligencji dla procesorów graficznych Arc bez potrzeby korzystania z chmury

Arkadiy Andrienko
Czytaj w pełnej wersji

Intel oficjalnie wydał AI Playground, narzędzie open-source dostosowane do właścicieli GPU Arc i hybrydowych CPU. Platforma umożliwia lokalne generowanie obrazów i tekstów przy użyciu powszechnie znanych modeli sieci neuronowych. Hostowane na GitHubie, projekt obecnie wspiera podstawowe wersje Stable Diffusion, chociaż użytkownicy mogą również podłączać algorytmy innych firm. Ładowanie modeli jest uproszczone dzięki przyjaznemu interfejsowi, a konfiguracja zazwyczaj zajmuje tylko kilka minut.

W przeciwieństwie do alternatyw takich jak LM Studio, AI Playground jest specjalnie zoptymalizowane dla grafik Intel — w tym zintegrowanych GPU znajdujących się w procesorach Meteor Lake. Intel potwierdził, że planowana jest przyszła kompatybilność z chipami Lunar Lake i Arrow Lake, chociaż nie ogłoszono konkretnych terminów. Podstawowy rozmiar aplikacji wynosi około 700 MB, ale może wzrosnąć w zależności od modeli, które użytkownicy zainstalują. Według deweloperów, głównym celem jest obniżenie bariery wejścia do generatywnej AI dla użytkowników PC bez kart graficznych o wysokiej wydajności.

Dzięki temu, że kod źródłowy jest dostępny publicznie, społeczność ma swobodę w rozszerzaniu możliwości platformy. Może to również prowadzić do nieoficjalnych modów, które wspierają GPU od innych dostawców — chociaż Intel nie skomentował oficjalnie takich przypadków użycia. Wydanie następuje w czasie zwiększonej aktywności konkurencji, takiej jak współpraca AMD z Stability AI w celu optymalizacji modeli dla własnych akceleratorów. To, co wyróżnia AI Playground, to jego skupienie na całkowitym lokalnym przetwarzaniu AI, co przyciąga użytkowników, którzy wolą unikać chmury.

Chociaż nadal jest w aktywnym rozwoju, dostępność platformy i modułowa architektura już przyciągnęły uwagę entuzjastów testujących możliwości AI na systemach o niższej wydajności.

    O autorze
    Komentarze0
    Zostawić komentarz