OpenAI wypuściło GPT‑4.1. Jak radzi sobie nowy model sztucznej inteligencji?
Premierze GPT-4.1 towarzyszył również debiut dwóch mniejszych modeli AI: GPT-4.1 mini i GPT-4.1 nano.
Mimo że GPT-4.1 oraz jego mniejsze rodzeństwo mieli swoją oficjalną premierę w poniedziałek, skorzystać z nich wciąż można jedynie za pośrednictwem API OpenAI. Rzeczone przedsiębiorstwo z kolei nie szczędziło ciepłych słów w kierunku swojego produktu i zapewniło, że deklasuje on swojego poprzednika, czyli model GPT-4o, praktycznie pod każdym względem.
OpenAI GPT-4.1
Największy wzrost wydajności powinniśmy zaobserwować w przypadku zadań związanych z kodowaniem. Wedle danych udostępnionych przez OpenAI GPT-4.1 udało się zdobyć wynik rzędu 54,6% w teście SWE-bench Verified, tym samym bijąc GPT-4o o ok. 21,4%, z kolei GPT-4.5 – o ok. 26,6%. Sporo poprawek zaszło również w takich obszarach jak podążanie za instrukcjami i działania wymagające uwzględnienia szerszego kontekstu.
Twórcy ChatGPT podkreślili przy tym, że ich najnowszy model został wytrenowany w taki sposób, aby jak najlepiej radził sobie z codziennymi zadaniami, a nie benchmarkami. Stanowi to prztyczek w stronę Mety, której najnowsza AI, Llama 4, została skrytykowana za fałszowanie wyników wydajności i zasłanianie się podkręconymi wynikami w testach.
Podczas gdy testy porównawcze dostarczają cennych informacji, trenowaliśmy te modele, koncentrując się na rzeczywistej użyteczności. Ścisła współpraca i partnerstwo ze społecznością deweloperów pozwoliły nam zoptymalizować te modele pod kątem zadań, które mają największe znaczenie dla ich aplikacji.
Co równie istotne, w parze z większymi możliwościami idzie obniżenie kosztów utrzymania sztucznej inteligencji, jako że GPT-4.1 jest bardziej energooszczędny od swoich poprzedników.
Nieco miejsca poświęcono także GPT-4.1 mini, które okrzyknięte zostało mianem "znaczącego skoku w wydajności małych modeli" i podobno bije nawet standardowe GPT-4o w poszczególnych benchmarkach. GPT-4.1 mini oferuje przy tym niższe opóźnienia oraz koszty użytkowania mniejsze o 83%.
Co zaś tyczy się najdrobniejszego przedstawiciela nowej rodziny modeli sztucznej inteligencji ze stajni OpenAI, czyli GPT-4.1 nano – AI ta znajduje zastosowanie wszędzie tam, gdzie niskie opóźnienia są na wagę złota. Jak możemy przeczytać na witrynie OpenAI:
[GPT-4.1 nano] zapewnia wyjątkową wydajność przy niewielkich rozmiarach dzięki oknu kontekstowemu z 1 milionem tokenów i osiąga wyniki 80,1% w MMLU, 50,3% w GPQA i 9,8% w kodowaniu poliglotycznym Aider – nawet wyższe niż GPT-4o mini. Jest idealny do zadań takich jak klasyfikacja lub autouzupełnianie.
Zaznaczono również, że za sprawą swojej konstrukcji i lepszej zdolności do wypełniania złożonych instrukcji, rodzina GPT-4.1 świetnie sprawdza się w roli siły napędowej agentów AI i pokrewnych im systemów posiadających sporą dozę autonomiczności.
Jak już zostało napomknięte, na chwilę obecną GPT-4.1 dostępne jest jedynie z poziomu interfejsu programowania aplikacji (API, ang. Application Programming Interface) OpenAI. Poinformowano przy tym, że rozpoczęto już proces wycofywania GPT-4.5 Preview, jako że wersja z "4.1" w nazwie oferuje podobną lub lepszą wydajność, a jednocześnie jest znacznie bardziej oszczędna i oferuje niższe opóźnienia, co przekłada się na poprawę komfortu użytkowania.