OpenAI zaprezentowała o3 oraz o4-mini: Nowe flagowe modele ChatGPT z rozszerzonymi możliwościami.
16.04.2025
659

Dziennikarz
Szostal Oleksandr
16.04.2025
659

OpenAI zaprezentowała swoje najnowsze modele sztucznej inteligencji - o3 oraz o4-mini. Te modele są zaktualizowanymi wersjami serii 'o', które koncentrują się na długotrwałym rozumowaniu przed udzieleniem odpowiedzi, ustanawiając nowe standardy wydajności i użyteczności. Zgodnie z ogłoszeniem OpenAI, nowe modele wykazują znaczny postęp w rozumowaniu i integracji z narzędziami w ChatGPT. Potrafią samodzielnie korzystać i łączyć wszystkie narzędzia ChatGPT, w tym analizę plików za pomocą Pythona, głęboką analizę danych wizualnych oraz generację obrazów. Te modele potrafią określić, kiedy i jak używać narzędzi do tworzenia szczegółowych odpowiedzi w wymaganym formacie, co pozwala na szybsze rozwiązywanie skomplikowanych problemów. Główne cechy modeli: - OpenAI o3: Najpotężniejszy model, który ma zaawansowane możliwości w kodowaniu, matematyce, naukach i percepcji wizualnej. Ustanowił nowe rekordy na Codeforces, SWE-bench oraz MMMU. Model jest szczególnie skuteczny w skomplikowanych zapytaniach i zadaniach wizualnych. Popełnia o 20% mniej istotnych błędów w porównaniu do poprzedniego modelu o1 w trudnych rzeczywistych zadaniach, w tym w programowaniu, konsultingu biznesowym oraz kreatywnych pomysłach. - OpenAI o4-mini: Mniejszy model, zoptymalizowany do szybkiego i efektywnego rozumowania. Wykazuje dobrą wydajność w matematyce, kodowaniu oraz zadaniach wizualnych. Na AIME 2025 model zdobył 99,5%, mając dostęp do interpretatora Pythona. Przewyższa również poprzedni model o3-mini w zadaniach poza STEM oraz w naukach o danych. Oba modele przestrzegają instrukcji i dostarczają pomocne odpowiedzi dzięki poprawionemu intelektowi i integracji ze źródłami internetowymi. Stały się również bardziej naturalne w komunikacji, wykorzystując pamięć i historię rozmów do personalizacji odpowiedzi. OpenAI ogłosiła, że uczenie ze wzmocnieniem (RL) poprawia wydajność modeli oraz zintegrowała obrazy bezpośrednio w proces rozumowania. Modele potrafią analizować i manipulować obrazami podczas rozumowania. OpenAI o3 oraz o4-mini są nie tylko mądrzejsze, lecz także bardziej efektywne kosztowo w porównaniu do wcześniejszych modeli o1 oraz o3-mini. OpenAI zaktualizowała także dane do nauki bezpieczeństwa, opracowała system do wykrywania niebezpiecznych zapytań oraz uruchomiła eksperyment Codex CLI. Użytkownicy różnych planów uzyskają dostęp do nowych modeli, a także istnieje możliwość otrzymania grantów na projekty wykorzystujące Codex CLI. Przyszłość OpenAI polega na połączeniu specjalizowanych możliwości rozumowania z umiejętnościami konwersacyjnymi oraz narzędziami serii GPT w celu stworzenia jeszcze potężniejszych modeli.
Czytaj także
- Wielkanoc pod ograniczeniami: gdzie w Ukrainie obowiązuje najostrzejsza godzina policyjna
- Reuters: Iran postawił Trumpowi surowe warunki dotyczące umowy nuklearnej
- W Ukrainie gwałtownie wzrosły ceny cebuli: podano przyczyny
- Wzrost cen na Ukrainie: Narodowy Bank powiedział, czego można się spodziewać po PKB i inflacji
- W najbliższym czasie: Rubio opublikował propozycję USA dla pokoju na Ukrainie
- Trump ocenił przebieg negocjacji w sprawie zawarcia rozejmu na Ukrainie oraz możliwość 'wyjścia' USA