OpenAI oficjalnie zapowiedziało nowy model GPT-5. I nie, nie chodzi tylko o „trochę szybszy, trochę lepszy” update.
Firma zamierza połączyć w nim to, co do tej pory było rozdzielone pomiędzy różne wersje modeli – czyli funkcje rozumowania, które znajdowały się w GPT-4-turbo, i zdolności do przetwarzania wielu typów danych, znane z GPT-4o. Wszystko w jednym, mniej uciążliwym pakiecie. Czyli dokładnie to, czego użytkownicy oczekiwali, ale nie potrafili tego dobrze sformułować.
Informację przekazał Romain Huet z OpenAI podczas konferencji Building the Future with OpenAI Agents. Jasno powiedział, że firma chce zlikwidować zamieszanie związane z wybieraniem modeli i wprowadzić jedno narzędzie, które „ogarnia wszystko” – od tekstów, przez obrazy, po pliki i dane wymagające logicznej analizy.

No i dobrze. Obecnie sytuacja wygląda tak: GPT-4o umie pracować z różnymi modalnościami, czyli np. obrazami, dźwiękiem, tekstem, ale nie zawsze radzi sobie z bardziej wymagającymi zadaniami analitycznymi. Z kolei GPT-4-turbo to zawodnik logiczny, który nie bardzo rozumie obrazek, chyba że mu się go opisze. GPT-5 ma to zmienić – i nie przez dodanie kolejnych trybów, tylko przez całkowite ich połączenie.
W praktyce oznacza to jedno: koniec przełączania się między modelami. Nie trzeba będzie już zgadywać, który model będzie działał najlepiej przy analizie PDF-a, czy przy interpretacji wykresu albo obrazu. GPT-5 zrobi to sam. Wprowadzasz dane – jakiekolwiek – a model dopasowuje się do nich bez pytania o zgodę. Tekst, obraz, plik, mieszanka wszystkiego? Model zareaguje jak przystało na coś, co ma w nazwie „piątkę”.
Z tego co wiadomo, GPT-5 będzie miał:
- funkcje logiczne i analityczne,
- rozumienie i przetwarzanie tekstu,
- możliwość pracy z multimodalnymi danymi (czyli np. obrazy, pliki, dokumenty),
- jeden spójny interfejs – bez potrzeby wybierania trybu.
I zanim zapytasz – nie, nie wiadomo jeszcze, ile dokładnie danych model będzie w stanie przyjąć na raz ani jak będą wyglądać jego ograniczenia. Tego OpenAI nie zdradziło. Ale Sam Altman, dyrektor generalny firmy, powiedział jedno: GPT-5 zostanie zaprezentowany latem 2025 roku. Tak, w to lato. Więc nie musisz długo czekać, żeby zobaczyć, czy to wszystko działa jak trzeba, czy znowu będzie trzeba pisać do supportu, że „model coś nie rozumie”.
Dzięki tej zmianie ChatGPT ma działać bardziej naturalnie. Bez przeskakiwania między oknami i zgadywania, który model odpowiada najlepiej na które pytanie. GPT-5 ma dostosowywać się do danych i kontekstu użytkownika automatycznie. Nie trzeba będzie wiedzieć, czym się różni GPT-4-turbo od GPT-4o – bo już nie będzie różnicy.
Z punktu widzenia codziennej pracy to duże ułatwienie. Mniej kliknięć, mniej niepewności, mniej rozczarowań, kiedy model udaje, że nie widzi, co mu wysłałeś. Użytkownik wpisuje pytanie albo wrzuca dokument i otrzymuje odpowiedź – bez potrzeby dopasowywania trybu działania.