OpenAI zaprezentowała o3 oraz o4-mini: Nowe flagowe modele ChatGPT z rozszerzonymi możliwościami.
16.04.2025
2834

Dziennikarz
Szostal Oleksandr
16.04.2025
2834

OpenAI zaprezentowała swoje najnowsze modele sztucznej inteligencji - o3 oraz o4-mini. Te modele są zaktualizowanymi wersjami serii 'o', które koncentrują się na długotrwałym rozumowaniu przed udzieleniem odpowiedzi, ustanawiając nowe standardy wydajności i użyteczności. Zgodnie z ogłoszeniem OpenAI, nowe modele wykazują znaczny postęp w rozumowaniu i integracji z narzędziami w ChatGPT. Potrafią samodzielnie korzystać i łączyć wszystkie narzędzia ChatGPT, w tym analizę plików za pomocą Pythona, głęboką analizę danych wizualnych oraz generację obrazów. Te modele potrafią określić, kiedy i jak używać narzędzi do tworzenia szczegółowych odpowiedzi w wymaganym formacie, co pozwala na szybsze rozwiązywanie skomplikowanych problemów. Główne cechy modeli: - OpenAI o3: Najpotężniejszy model, który ma zaawansowane możliwości w kodowaniu, matematyce, naukach i percepcji wizualnej. Ustanowił nowe rekordy na Codeforces, SWE-bench oraz MMMU. Model jest szczególnie skuteczny w skomplikowanych zapytaniach i zadaniach wizualnych. Popełnia o 20% mniej istotnych błędów w porównaniu do poprzedniego modelu o1 w trudnych rzeczywistych zadaniach, w tym w programowaniu, konsultingu biznesowym oraz kreatywnych pomysłach. - OpenAI o4-mini: Mniejszy model, zoptymalizowany do szybkiego i efektywnego rozumowania. Wykazuje dobrą wydajność w matematyce, kodowaniu oraz zadaniach wizualnych. Na AIME 2025 model zdobył 99,5%, mając dostęp do interpretatora Pythona. Przewyższa również poprzedni model o3-mini w zadaniach poza STEM oraz w naukach o danych. Oba modele przestrzegają instrukcji i dostarczają pomocne odpowiedzi dzięki poprawionemu intelektowi i integracji ze źródłami internetowymi. Stały się również bardziej naturalne w komunikacji, wykorzystując pamięć i historię rozmów do personalizacji odpowiedzi. OpenAI ogłosiła, że uczenie ze wzmocnieniem (RL) poprawia wydajność modeli oraz zintegrowała obrazy bezpośrednio w proces rozumowania. Modele potrafią analizować i manipulować obrazami podczas rozumowania. OpenAI o3 oraz o4-mini są nie tylko mądrzejsze, lecz także bardziej efektywne kosztowo w porównaniu do wcześniejszych modeli o1 oraz o3-mini. OpenAI zaktualizowała także dane do nauki bezpieczeństwa, opracowała system do wykrywania niebezpiecznych zapytań oraz uruchomiła eksperyment Codex CLI. Użytkownicy różnych planów uzyskają dostęp do nowych modeli, a także istnieje możliwość otrzymania grantów na projekty wykorzystujące Codex CLI. Przyszłość OpenAI polega na połączeniu specjalizowanych możliwości rozumowania z umiejętnościami konwersacyjnymi oraz narzędziami serii GPT w celu stworzenia jeszcze potężniejszych modeli.
Czytaj także
- Są 4 dni: Umierow przekazał Rosji ukraiński dokument o zawieszeniu broni
- Nowe zasady NFZ: które kierunki nie mogą już być wypisywane przez lekarza rodzinnego
- Na Ukrainie zmieniono taryfy płacowe dla nauczycieli: kogo to dotyczy
- Ambasador ujawnia globalne plany UE dotyczące ukraińskich uchodźców: kluczowa decyzja już blisko
- Ukraińcom pokazano, jak różnią się ceny benzyny, oleju napędowego i autogazu w obwodach kijowskim i odesskim: gdzie tankować taniej
- Vodafone, Kyivstar czy lifecell: Ukraińcy masowo przenoszą swoje numery komórkowe