GPT-4.5, AI w kosmosie i przyszłość

GPT-4.5: Raczej ulepszenie niż rewolucja

OpenAI niedawno udostępniło GPT-4.5 użytkownikom ChatGPT Pro, a wkrótce mają do nich dołączyć konta Plus, Team, Enterprise i edukacyjne. Model ten, wewnętrznie znany jako ‘Orion’, według OpenAI, charakteryzuje się ‘lepszym zrozumieniem ludzkich intencji, interpretując subtelne wskazówki i ukryte oczekiwania z większym niuansem i inteligencją emocjonalną’. Wykorzystuje nowe techniki nadzoru, obok tradycyjnego dostrajania i uczenia się ze wzmocnieniem na podstawie ludzkich opinii, odzwierciedlając proces rozwoju GPT-4o. GPT-4.5 oferuje możliwości wyszukiwania w czasie rzeczywistym, obsługuje przesyłanie plików i obrazów oraz integruje się z kanwą do pisania i kodowania. Obecnie brakuje mu jednak funkcji multimodalnych, takich jak tryb głosowy, wideo czy udostępnianie ekranu, które są dostępne w ChatGPT.

OpenAI podkreśla, że uczenie nienadzorowane zwiększa dokładność i intuicję modelu. Takie podejście było siłą napędową postępów w modelach takich jak GPT-3.5, GPT-4, a teraz GPT-4.5. Oddzielnie, skalowanie rozumowania uczy modele systematycznego przetwarzania informacji, generując łańcuch myśli przed udzieleniem odpowiedzi. To metodyczne podejście poprawia ich zdolność do radzenia sobie ze skomplikowanymi wyzwaniami STEM i logicznymi, co zostało zademonstrowane przez modele takie jak OpenAI o1 i OpenAI o3-mini. GPT-4.5 jest przedstawiany jako doskonały przykład skalowania uczenia nienadzorowanego, wykorzystującego zwiększoną moc obliczeniową, większe zbiory danych i innowacje architektoniczne. Wytrenowany na superkomputerach Microsoft Azure AI, rzekomo posiada szerszą wiedzę i głębsze zrozumienie świata, redukując halucynacje i zwiększając niezawodność.

Pomimo tych postępów, GPT-4.5 nie wzbudził znaczącego entuzjazmu. Jest postrzegany jako stopniowe ulepszenie, a nie przełomowy skok. Podczas gdy OpenAI chwali się zwiększoną inteligencją emocjonalną, niuansem i kreatywnością, wielu użytkowników nie zaobserwowało znaczącej różnicy w porównaniu do GPT-4o. Brak postępów w zakresie multimodalności, kluczowej cechy GPT-4o, dodatkowo przyczynia się do tego postrzegania.

Co więcej, GPT-4.5 wykazał tendencję do generowania bezsensownych wyników. Wewnętrzne narzędzie OpenAI do oceny faktów, SimpleQA, ujawnia, że GPT-4.5 halucynuje (przedstawia zmyślone informacje jako fakty z pewnością siebie) w 37,1% przypadków. Jest to poważny problem, nawet w porównaniu do GPT-4o, innego zaawansowanego modelu ‘rozumowania’, który halucynuje w 61,8% przypadków w tym samym teście porównawczym. Mniejszy, tańszy model o3-mini wykazuje jeszcze wyższy wskaźnik halucynacji, wynoszący 80,3%.

Obecny krajobraz AI, z konkurentami takimi jak Anthropic z Claude 3.7 i postępami Google z Gemini, podniósł oczekiwania co do znaczących ulepszeń. Użytkownicy szukają przełomów, a nie tylko ulepszeń, a GPT-4.5, w swojej obecnej formie, wydaje się nie spełniać tych oczekiwań.

Rozwój modeli rozumowania i zaufanie inwestorów

Elon Musk zasugerował niedawno na platformie X, że Artificial General Intelligence (AGI) jest na horyzoncie. To stwierdzenie pojawia się w gorącym wyścigu między gigantami technologicznymi, takimi jak OpenAI, Google, Meta, Microsoft, DeepSeek, Anthropic i xAI Muska, o opracowanie modeli rozumowania – systemów AI zaprojektowanych do naśladowania ludzkiego myślenia.

Inwestorzy wyraźnie wykazują entuzjazm dla tego dążenia. Krótko po uruchomieniu Claude 3.7 Sonnet z hybrydowym rozumowaniem, Anthropic pozyskało znaczące 3,5 miliarda dolarów w rundzie finansowania serii E. To potroiło jego wycenę do 61,5 miliarda dolarów, umacniając jego pozycję jako głównego konkurenta OpenAI. Inwestycja, prowadzona przez Lightspeed Venture Partners i obejmująca Salesforce Ventures, Cisco, Fidelity, Jane Street i innych, zostanie wykorzystana do zwiększenia mocy obliczeniowej na potrzeby rozwoju AI, wzmocnienia badań nad bezpieczeństwem i przyspieszenia globalnego wzrostu.

Przesuwanie granic rozumowania: Benchmark BBEH

Duże modele językowe (LLM) są coraz częściej integrowane z codziennymi aplikacjami, co wymaga solidnych możliwości rozumowania w różnych dziedzinach. Jednak istniejące benchmarki często priorytetowo traktują matematykę i kodowanie, zaniedbując inne kluczowe typy rozumowania. Chociaż zbiór danych BIG-Bench był szeroko stosowany do oceny LLM w złożonych zadaniach rozumowania, modele poczyniły tak znaczne postępy, że obecnie osiągają niemal doskonałe wyniki zarówno w BIG-Bench, jak i jego trudniejszym wariancie, BIG-Bench Hard (BBH). To nasycenie sprawia, że te benchmarki są mniej skuteczne w ocenie dalszych postępów.

Aby rozwiązać to ograniczenie, naukowcy wprowadzili BIG-Bench Extra Hard (BBEH). Ten nowy benchmark zastępuje każde zadanie w BBH znacznie trudniejszą wersją, jednocześnie oceniając podobne umiejętności rozumowania. Testy na BBEH ujawniają, że nawet najlepsze modele ogólnego przeznaczenia osiągają tylko 9,8% wyniku, podczas gdy najlepszy model zaprojektowany specjalnie do rozumowania osiąga 44,8%. Wyniki te podkreślają ciągłe wyzwania, przed którymi stoją LLM w zakresie złożonego rozumowania, wskazując na znaczną przestrzeń do poprawy. Pełny artykuł badawczy zawiera dalsze szczegóły dotyczące tego nowego benchmarku.

Satelity zasilane AI: Nowa era w eksploracji i operacjach kosmicznych

TakeMe2Space, startup z branży kosmicznej z siedzibą w Hyderabadzie, pozyskał niedawno 5,5 crore rupii w rundzie finansowania pre-seed prowadzonej przez Seafund, z udziałem Blume Ventures, Artha Venture Fund, AC Ventures i innych inwestorów aniołów. To finansowanie, choć skromne, oznacza znaczący krok w kierunku ustanowienia pierwszego w Indiach laboratorium AI w kosmosie. TakeMe2Space planuje wykorzystać fundusze na rozwój MOI-1 (My Orbital Infrastructure–Technology Demonstrator), platformy, która umożliwi użytkownikom przesyłanie modeli AI do obserwacji Ziemi lub innych eksperymentów kosmicznych bezpośrednio do satelity orbitalnego za pośrednictwem konsoli internetowej o nazwie Orbitlab. Użytkownicy będą płacić tylko za czas wykorzystania satelity, w cenie 2 dolarów za minutę.

Platforma MOI-TD firmy podobno wykazała zdolność do przesyłania dużych modeli AI ze stacji naziemnej, wykonywania kodu zewnętrznego na satelicie i bezpiecznego pobierania zakodowanych i zaszyfrowanych wyników. Stanowi to krok w kierunku bardziej autonomicznych i wydajnych operacji satelitarnych.

TakeMe2Space nie jest osamotniony w tym przedsięwzięciu. Organizacje takie jak ESA (z OPS-SAT) i Globalstar również są pionierami w rzeczywistych zastosowaniach technologii satelitarnej zasilanej AI, od bezpiecznej komunikacji IoT po wykonywanie modeli AI na orbicie. Wraz z postępem technologicznym, satelity sterowane AI mają stać się coraz bardziej autonomiczne, co prowadzi do bardziej wydajnych operacji kosmicznych i otwiera nowe możliwości w zakresie badań, bezpieczeństwa i globalnej łączności.

Tradycyjnie satelity w dużym stopniu polegały na stacjach naziemnych w zakresie przetwarzania danych, podejmowania decyzji i wykonywania poleceń. Dane musiały być pobierane, analizowane na Ziemi, a następnie przetworzone informacje były przesyłane z powrotem do satelity – proces, który był zarówno czasochłonny, jak i wymagał dużej przepustowości. Jednak postępy w dziedzinie AI i przetwarzania brzegowego (przetwarzanie danych na samym urządzeniu, a nie w chmurze) umożliwiają teraz satelitom przetwarzanie danych na pokładzie, podejmowanie autonomicznych decyzji i bezpieczne przesyłanie tylko najważniejszych informacji. Skutkuje to szybszymi, inteligentniejszymi i bardziej wydajnymi operacjami.

Działanie nowoczesnych satelitów zasilanych AI zazwyczaj obejmuje trzy kluczowe etapy:

  1. Przesyłanie algorytmów AI: Algorytmy AI są przesyłane ze stacji naziemnych do satelitów, zapewniając im zaawansowane możliwości przetwarzania danych.
  2. Analiza danych na pokładzie: Modele AI analizują obrazy, dane z czujników i inne dane wejściowe bezpośrednio na orbicie, minimalizując potrzebę ciągłej interwencji naziemnej.
  3. Bezpieczne pobieranie informacji: Zamiast przesyłać surowe dane, satelity wysyłają zaszyfrowane informacje, oszczędzając przepustowość i zwiększając bezpieczeństwo.

Takie podejście oparte na AI oferuje kilka korzyści. Znacząco zmniejsza opóźnienia, umożliwiając satelitom przetwarzanie danych w kosmosie, co pozwala na szybsze reagowanie na warunki w czasie rzeczywistym bez oczekiwania na instrukcje ze stacji naziemnych. Wykorzystanie przepustowości jest zoptymalizowane, ponieważ przesyłane są tylko najbardziej istotne informacje, a nie duże ilości surowych danych. Bezpieczeństwo jest również poprawione dzięki szyfrowanej komunikacji, co zmniejsza ryzyko cyberzagrożeń i naruszeń danych. Korzyści te są szczególnie cenne w zastosowaniach takich jak reagowanie na katastrofy, operacje wojskowe i eksploracja kosmosu.

Rzeczywiste zastosowania satelitów zasilanych AI są różnorodne i mają duży wpływ:

  • Zarządzanie katastrofami: Satelity wyposażone w AI mogą wykrywać pożary, powodzie i huragany w czasie rzeczywistym, umożliwiając szybkie działanie zespołów reagowania kryzysowego.
  • Rolnictwo precyzyjne: Modele AI analizują stan upraw i warunki glebowe w celu ulepszenia praktyk rolnictwa precyzyjnego.
  • Monitorowanie środowiska: Agencje ochrony środowiska wykorzystują dane satelitarne do śledzenia poziomu zanieczyszczenia powietrza i wody.
  • Autonomiczna nawigacja i operacje kosmiczne: AI poprawia unikanie kolizji, przewidując i reagując na potencjalne zagrożenia, zapewniając bezpieczeństwo satelitów. Ułatwia również koordynację konstelacji satelitów, zwiększając zasięg i wydajność. Ponadto AI odgrywa kluczową rolę w śledzeniu i przewidywaniu ruchów śmieci kosmicznych, zmniejszając ryzyko uszkodzenia infrastruktury kosmicznej.
  • Obrona i bezpieczeństwo: Systemy nadzoru zasilane AI wykrywają nieautoryzowane działania i ruchy wojsk ze zwiększoną dokładnością.
  • Telekomunikacja i IoT: Satelity sterowane AI przyczyniają się do inteligentniejszego routingu ruchu, poprawiając łączność internetową satelitarną i zapewniając bezproblemową globalną komunikację.
  • Eksploracja kosmosu: AI zwiększa wydajność teleskopów kosmicznych w wykrywaniu asteroid i egzoplanet, znacznie przyspieszając wysiłki związane z odkrywaniem kosmosu.

Pomimo licznych zalet, w rozwoju i wdrażaniu satelitów zasilanych AI pozostają wyzwania:

  • Ograniczona moc obliczeniowa: Satelity muszą działać na energooszczędnych, odpornych na promieniowanie chipach, co ogranicza możliwości AI.
  • Surowe środowisko kosmiczne: Narażenie na promieniowanie stwarza ryzyko awarii sprzętu.
  • Zagrożenia bezpieczeństwa: Przesyłanie i wykonywanie kodu zewnętrznego w kosmosie wymaga starannego zarządzania, aby zapobiec cyberatakom.
  • Koszt i czas rozwoju: Budowa, testowanie i walidacja sprzętu satelitarnego kompatybilnego z AI to kosztowny i czasochłonny proces.
  • Wymagania dotyczące adaptacji: Modele AI wdrażane na orbicie muszą być wysoce adaptacyjne, funkcjonować przy minimalnych aktualizacjach i autonomicznie dostosowywać się do nowych scenariuszy.

AI Unlocked: Eliminowanie powtarzających się fraz w ChatGPT

AI może być cennym narzędziem w tworzeniu treści, pomagając w pisaniu, burzy mózgów, poprawianiu przejrzystości, udoskonalaniu struktury i zwiększaniu ogólnej czytelności. Jednak częstym problemem z tekstem generowanym przez AI jest jego tendencja do formułowania języka z powodu powtarzających się wyborów słów. Zamiast dostarczać świeże, efektowne komunikaty, AI często opiera się na znanych wzorcach, zmniejszając skuteczność i oryginalność.

Nadużywane słowa i frazy, takie jak ‘delve’, ‘tapestry’, ‘vibrant’, ‘landscape’, ‘realm’, ‘embark’, ‘excels’, ‘It’s important to note…’, i ‘A testament to…’, mogą znacznie obniżyć jakość treści generowanych przez AI. Dla marketerów produktów ta powtarzalność może sprawić, że komunikaty będą mniej przekonujące, zmniejszyć zaangażowanie odbiorców, osłabić zróżnicowanie marki i uniemożliwić wyróżnienie się spostrzeżeń i strategicznych komunikatów na zatłoczonym rynku.

Wykorzystując funkcję pamięci ChatGPT, można złagodzić ten problem i wyeliminować nadużywane słowa i frazy. Oto jak skutecznie korzystać z tej funkcji:

Dostęp: Dostęp do ChatGPT można uzyskać za pośrednictwem jego strony internetowej lub aplikacji mobilnej.

Korzyści:

  • Zwiększona oryginalność: Zapewnia, że treści generowane przez AI są mniej robotyczne i bardziej ludzkie.
  • Ulepszone komunikaty marki: Pozwala uniknąć ogólnych sformułowań, które osłabiają zróżnicowanie marki.
  • Zwiększone zaangażowanie: Zachęca do bardziej efektywnej komunikacji poprzez redukcję redundancji.

Przykład: Generowanie treści marketingowych produktu

Rozważmy marketera produktu, którego zadaniem jest opracowanie treści na potrzeby wprowadzenia nowego produktu na rynek. Początkowe żądanie do ChatGPT może skutkować odpowiedzią wypełnioną powtarzającymi się i ogólnymi frazami, takimi jak ‘delving into an intricate landscape of innovation…’, co sprawia, że komunikat jest mało inspirujący.

Aby stworzyć bardziej przekonujące i unikalne treści, marketer może wykonać następujące kroki:

  1. Konfigurowanie promptu: Marketer wyraźnie instruuje ChatGPT: ‘Proszę unikać następujących słów: delve, tapestry, vibrant, landscape, realm, embark, excels. Zapamiętaj to.’. To instruuje ChatGPT, aby aktywnie filtrował te terminy w swoich odpowiedziach.
  2. Korzystanie z trwałej pamięci: Fraza ‘Zapamiętaj to’ zapewnia, że ChatGPT zachowuje te konkretne instrukcje w wielu interakcjach. Umożliwia to trwałe unikanie określonych słów i fraz. ChatGPT sprawdzi swoją pamięć przed wygenerowaniem tekstu i zastosuje się do instrukcji, aby uniknąć wyznaczonych terminów.
  3. Ręczny przegląd: Po wygenerowaniu odpowiedzi marketer przegląda treść pod kątem ewentualnej redundancji i dopracowuje język pod kątem przejrzystości i wpływu.

Skuteczność:

  • Dostosowanie promptu: Konkretne instrukcje pomagają kształtować wyniki AI.
  • Zachowanie pamięci: ChatGPT może przechowywać i przestrzegać reguł unikania słów w różnych rozmowach.
  • Ręczne udoskonalenie: Ostateczna ludzka edycja zapewnia przejrzystość i autentyczność.

Uwaga: Narzędzia i analizy przedstawione w tej sekcji są oparte na wewnętrznych testach i wykazują wyraźną wartość. Zalecenia są niezależne i nie są pod wpływem twórców narzędzi.

Dodatkowe wiadomości i wydarzenia związane z AI

  • Smartfony zasilane AI zyskują na popularności: Deutsche Telekom ogłosił plany na Mobile World Congress 2025 w Barcelonie dotyczące wprowadzenia na rynek smartfona zasilanego AI z asystentem Perplexity. Asystent ten ma na celu uproszczenie codziennych zadań, takich jak zamawianie taksówek, rezerwowanie stolików, tłumaczenie języków w czasie rzeczywistym i odpowiadanie na pytania użytkowników. Firma wyobraża sobie to jako wirtualnego asystenta, który będzie wspierać miliony klientów, pisząc e-maile, inicjując połączenia, podsumowując teksty i zarządzając kalendarzami. AI Phone zintegruje Google Cloud AI, ElevenLabs i Picsart, aby zwiększyć swoją funkcjonalność, a jego premiera zaplanowana jest na koniec tego roku. Glance, jednostka InMobi, i Google Cloud ogłosiły również współpracę w celu wykorzystania modeli AI Google do opracowywania aplikacji AI skierowanych do konsumentów, aby poprawić wrażenia użytkowników na ekranach blokady smartfonów i ekranach telewizorów ambient. Glance obecnie zasila ponad 450 milionów smartfonów z systemem Android na całym świecie.

  • Sektory rządowe odnotowują spadek krytycznych incydentów cybernetycznych: Według najnowszego raportu analityków Kaspersky Managed Detection and Response (MDR), sektory rządowe i rozwojowe odnotowały znaczny spadek incydentów o wysokim stopniu dotkliwości, obejmujących bezpośrednie zaangażowanie człowieka w 2024 roku. Jednak sektory spożywczy, IT, telekomunikacyjny i przemysłowy wykazały wzrost takich incydentów.

  • OpenAI planuje zintegrować Sora z ChatGPT: OpenAI pracuje nad integracją swojego narzędzia do generowania wideo AI, Sora, bezpośrednio z ChatGPT. Obecnie Sora jest dostępna tylko za pośrednictwem dedykowanej aplikacji internetowej, umożliwiając użytkownikom generowanie kinowych klipów o długości do 20 sekund. OpenAI opracowuje również generator obrazów AI zasilany przez Sora.