Dzieje się coś dziwnego, ale nie zaskakującego. Microsoft – ten sam, który wsadził miliardy w OpenAI i promuje Copilota na każdym możliwym ekranie – zaczął testować zupełnie inne modele językowe.
Na liście znalazły się Grok od firmy Elona Muska, DeepSeek oraz rozwiązania opracowane przez Meta. Czy to już plan B? Może bardziej plan „na wypadek, gdyby OpenAI i Altman znowu zrobili coś dramatycznego”.
Grok, czyli model stworzony przez xAI, najprawdopodobniej pojawi się w Azure AI Foundry. Microsoft prowadzi rozmowy na temat jego hostowania w swojej chmurze. Nie będzie wspierał trenowania tego modelu (czyli nie udostępni mocy obliczeniowej do jego szkolenia), ale pozwoli na jego wykorzystanie w środowisku Azure. Klienci i zespoły deweloperskie będą mogli używać Groka bezpośrednio, podobnie jak dziś korzystają z Copilota. Czyli: nie jesteś skazany na jednego dostawcę, jeśli Twoja firma opiera się na narzędziach Microsoftu.
Sprawa z Grokiem robi się bardziej pikantna, jeśli spojrzymy, kto go tworzy. Elon Musk ma napięte relacje z OpenAI i jej szefem, Samem Altmanem. I nie mówimy tu o lekkich różnicach zdań przy kawie, tylko o publicznych oskarżeniach o odejście od misji, przekręty ideowe i całą tę resztę. A teraz Microsoft – strategiczny partner OpenAI – zaprasza Muska do swojej piaskownicy. Subtelne.
Poza Grokiem, Microsoft zerka też na DeepSeek – model językowy, który wyróżnia się otwartą architekturą i wydajnością, oraz na modele od Meta, w tym prawdopodobnie LLaMA. Meta robi dużo hałasu w obszarze open source, a jej modele zdobywają popularność wśród firm szukających czegoś bardziej elastycznego.
Microsoft może sprawdzić te wszystkie modele u siebie bez większego wysiłku – ma Azure AI Foundry, czyli platformę, gdzie można testować i integrować różne modele bez konieczności budowania wszystkiego od zera. Jeśli jesteś klientem Azure, to może oznaczać, że z czasem dostaniesz więcej narzędzi do wyboru – zamiast jednego Copilota, kilka opcji. Taka różnorodność może przydać się firmom, które mają własne wymagania i chcą modelu, który faktycznie pasuje do ich danych.
Z punktu widzenia użytkownika: to może ułatwić wdrażanie AI w konkretnych projektach. Zamiast przepychać się z jednym rozwiązaniem, które nie zawsze daje najlepsze wyniki, będzie można sięgnąć po coś innego. Może Grok lepiej radzi sobie z danymi w języku naturalnym? A może DeepSeek lepiej skaluje się w Twoim środowisku? Masz wybór – i o to tu chodzi.
Na razie Microsoft nie rezygnuje z OpenAI. Chodzi o to, żeby nie być od nikogo uzależnionym. A także o to, że świat AI zmienia się szybko, a nowe modele pojawiają się jak grzyby po deszczu. Ktoś może dziś być numerem jeden, a jutro – nikogo to już nie obchodzi. Microsoft chce mieć z czego wybierać, i nie musi pytać nikogo o zgodę.
Na tym etapie testów nie wiadomo, które modele ostatecznie trafią do stałej oferty. Ale to, że Microsoft *w ogóle* sprawdza Groka i spółkę, pokazuje jedno: nie zamyka się na nowe opcje, nawet jeśli buduje je ktoś, kto nie przepada za jego obecnym partnerem.