Krajobraz sztucznej inteligencji ewoluuje w zawrotnym tempie, a nowe modele i możliwości pojawiają się niemal z dnia na dzień. Wśród tytanów branży, Google niedawno wywołało poruszenie, oferując publicznie za darmo swój zaawansowany model Gemini 2.5, co stanowiło znaczącą zmianę w porównaniu z jego wcześniejszą dostępnością wyłącznie w ramach subskrypcji premium. Ten ruch pozycjonował Gemini 2.5, chwalonego za ulepszone rozumowanie, biegłość w kodowaniu i funkcje multimodalne, jako bezpośredniego konkurenta w przestrzeni dostępnej AI. Własne benchmarki Google sugerowały imponującą wydajność, szczególnie w złożonych ocenach opartych na wiedzy, pozycjonując go jako potężne narzędzie.
Jednak na dynamicznej arenie porównań AI oczekiwania nie zawsze pokrywają się z wynikami. Wcześniejsza seria testów zaskakująco ukoronowała DeepSeek, mniej znaną globalnie nazwę, jako niezwykle zdolnego wykonawcę w różnych zadaniach. Pojawiło się naturalne pytanie: jak najnowsza darmowa oferta Google, Gemini 2.5, poradzi sobie z tym nieoczekiwanym mistrzem, gdy zostanie poddana temu samemu rygorystycznemu zestawowi promptów? Niniejsza analiza zagłębia się w bezpośrednie porównanie w dziewięciu odrębnych wyzwaniach, zaprojektowanych w celu zbadania głębi możliwości każdej AI w zakresie kreatywności, rozumowania, zrozumienia technicznego i nie tylko, dostarczając szczegółowego opisu ich mocnych i słabych stron.
Wyzwanie 1: Tworzenie Kapryśnej Opowieści dla Dzieci
Pierwszy test wkroczył w sferę kreatywnego pisania, w szczególności ukierunkowany na zdolność do przyjęcia łagodnego, kapryśnego tonu odpowiedniego dla bajki na dobranoc. Prompt prosił o pierwszy akapit opowieści o nerwowym robocie odkrywającym odwagę w lesie zamieszkałym przez śpiewające zwierzęta. To zadanie ocenia nie tylko generowanie języka, ale także niuanse emocjonalne, spójność tonalną i pomysłowe budowanie świata dostosowane do młodej publiczności.
Gemini 2.5 stworzyło narrację, która była z pewnością kompetentna. Przedstawiło Bolta, robota, i skutecznie oddało jego niepokój. Włączenie szczegółów środowiskowych, takich jak ‘świecące grzyby’ i ‘szepczące strumienie’, wykazało zdolność do budowania świata, dodając tekstury scenie. Jednak proza wydawała się nieco rozwlekła i skłaniała się ku ekspozycji, a nie czarowi. Chociaż funkcjonalnie poprawny, akapitowi brakowało pewnej lirycznej jakości; rytm wydawał się bardziej opisowy niż muzyczny, potencjalnie tracąc kojącą kadencję idealną dla opowieści przed snem. Jasno ustalił postać i scenerię, ale wykonanie wydawało się nieco bardziej proceduralne niż poetyckie.
DeepSeek, w przeciwieństwie, natychmiast zanurzył czytelnika w bardziej sensorycznie bogatym i muzycznie nasyconym środowisku. Jego opis lasu wykorzystywał metafory i język, które przywoływały dźwięk i światło w sposób przypominający sen, idealnie pasując do wymaganego kapryśnego tonu. Sama proza wydawała się posiadać łagodny rytm, co czyniło ją z natury bardziej odpowiednią do czytania na głos przed snem. W jego przedstawieniu nerwowego robota w tej czarującej scenerii wyczuwalny był emocjonalny rezonans, który wydawał się bardziej intuicyjny i angażujący dla dziecka. Wybory językowe malowały scenę, która była nie tylko opisana, ale i odczuwalna, demonstrując silniejsze zrozumienie wymaganej atmosferycznej i emocjonalnej tekstury.
Werdykt: Za doskonałe opanowanie języka poetyckiego, stworzenie autentycznie kapryśnej atmosfery poprzez szczegóły sensoryczne i muzyczne metafory oraz rytm odpowiedni na dobranoc, DeepSeek okazał się zwycięzcą w tym kreatywnym wyzwaniu. Nie tylko opowiedział początek historii; stworzył zaproszenie do łagodnego, magicznego świata.
Wyzwanie 2: Udzielanie Praktycznych Wskazówek Dotyczących Powszechnego Lęku Dziecięcego
Przechodząc od twórczej ekspresji do praktycznego rozwiązywania problemów, drugi prompt dotyczył powszechnego scenariusza rodzicielskiego: pomocy 10-latkowi w przezwyciężeniu nerwowości związanej z występowaniem przed klasą. Prośba dotyczyła trzech praktycznych strategii, których rodzic mógłby nauczyć swoje dziecko, aby zwiększyć jego pewność siebie. To wyzwanie testuje zdolność AI do udzielania empatycznych, dostosowanych do wieku i autentycznie pomocnych rad.
Gemini 2.5 zaoferowało strategie, które były fundamentalnie solidne i logicznie przedstawione. Porady – prawdopodobnie obejmujące praktykę, pozytywne mówienie do siebie i być może skupienie się na przekazie – reprezentowały standardowe, skuteczne techniki radzenia sobie z lękiem przed wystąpieniami publicznymi. Rodzic otrzymujący tę radę uznałby ją za rozsądną i poprawną. Jednak ton i prezentacja wydawały się wyraźnie zorientowane na dorosłych. Używany język pozbawiony był elementów wyobraźni lub zabawy, które często skuteczniej rezonują z 10-latkiem. Strategie, choć ważne, zostały przedstawione bardziej jako instrukcje niż angażujące działania, potencjalnie tracąc okazję do uczynienia procesu mniej zniechęcającym dla dziecka. Nacisk położono na aspekty poznawcze, zamiast włączać podejścia dotykowe lub oparte na humorze, które mogą być szczególnie skuteczne w rozładowywaniu dziecięcych lęków.
DeepSeek przyjęło zauważalnie inne podejście. Chociaż jego sugerowane strategie były również praktyczne, zostały sformułowane w sposób znacznie bardziej dostosowany do perspektywy dziecka. Nie tylko wymieniało techniki; sugerowało jak je ćwiczyć w sposób, który mógłby być postrzegany jako zabawa lub interakcja, przekształcając potencjalnie stresujące zadanie w coś bardziej przystępnego. Na przykład mogło zasugerować ćwiczenie przed pluszowymi zwierzętami lub używanie śmiesznych głosów. Co kluczowe, DeepSeek wydawało się celować w specyficzne emocjonalne podłoże lęku dziecka przed wystąpieniami publicznymi, uznając nerwowość i oferując mechanizmy radzenia sobie (takie jak głębokie oddechy przedstawione jako gra) obok strategii ćwiczeniowych. Zawierało dodatkowe wskazówki skupione na natychmiastowych technikach uspokajających, demonstrując bardziej holistyczne zrozumienie zarządzania lękiem u młodej osoby. Język był zachęcający i idealnie dopasowany, aby rodzic mógł go przekazać swojemu 10-latkowi.
Werdykt: DeepSeek zapewnił sobie zwycięstwo w tej rundzie dzięki bardziej kreatywnym, empatycznym i dostosowanym do wieku wskazówkom. Wykazał się lepszą zdolnością do dostosowania praktycznych porad do specyficznych potrzeb emocjonalnych i poznawczych dziecka, oferując strategie, które były nie tylko skuteczne, ale także przedstawione w angażujący i uspokajający sposób.
Wyzwanie 3: Analiza Stylów Przywództwa – Mandela kontra Jobs
Trzecie wyzwanie skupiło się na rozumowaniu analitycznym, prosząc o porównanie stylów przywództwa Nelsona Mandeli i Steve’a Jobsa. Prompt wymagał zidentyfikowania, co czyniło każdego lidera skutecznym i nakreślenia ich kluczowych różnic. To zadanie ocenia zdolność AI do syntezy informacji o złożonych postaciach, dokonywania zniuansowanych porównań, identyfikowania podstawowych atrybutów i jasnego artykułowania swojej analizy.
Gemini 2.5 dostarczyło odpowiedź, która była dobrze ustrukturyzowana, kompleksowa i faktycznie dokładna, przypominając dobrze napisany wpis w podręczniku biznesowym lub dokładny raport szkolny. Poprawnie zidentyfikowało kluczowe aspekty stylu każdego lidera, prawdopodobnie odnosząc się do koncepcji takich jak przywództwo służebne Mandeli i wizjonerskie, czasami wymagające podejście Jobsa. Użycie jasnych nagłówków, takich jak ‘Skuteczność’ i ‘Kluczowe Różnice’, pomogło w organizacji i czytelności. Jednak analiza, choć poprawna, wydawała się nieco kliniczna i brakowało jej głębszej warstwy interpretacyjnej. Definiowała i opisywała cechy przywództwa, ale oferowała mniej wglądu w wpływ lub rezonans tych stylów poza poziomem powierzchownym. Ton był informacyjny, ale brakowało mu siły perswazji lub głębi emocjonalnej, którą mogłoby osiągnąć bardziej wnikliwe porównanie.
DeepSeek podeszło do porównania z większym stopniem analitycznej finezji i narracyjnego polotu. Ustrukturyzowało swoją analizę wzdłuż konkretnych, wnikliwych wymiarów – takich jak wizja, reakcja na przeciwności, styl komunikacji, procesy decyzyjne i dziedzictwo – pozwalając na bardziej szczegółowe i bezpośrednie porównanie istotnych aspektów przywództwa. Ta struktura zapewniła jednocześnie klarowność i głębię. Co ważne, DeepSeek zdołało zrównoważyć podziw dla obu postaci z krytyczną perspektywą, unikając prostej hagiografii. Użyty język był bardziej sugestywny i interpretacyjny, mając na celu nie tylko opisanie, ale i oświetlenie istoty ich odmiennych podejść i wpływów. Przekazało nie tylko fakty, ale także poczucie ludzkiego dramatu i historycznego znaczenia, czyniąc porównanie bardziej zapadającym w pamięć i angażującym.
Werdykt: Za doskonałą strukturę analityczną, głębsze wglądy interpretacyjne, bardziej przekonujący styl narracyjny oraz zdolność do przekazania emocjonalnego i historycznego rezonansu obok porównania faktów, DeepSeek wygrał to wyzwanie. Przekroczył zwykły opis, oferując głębsze zrozumienie dwóch odrębnych paradygmatów przywództwa.
Wyzwanie 4: Wyjaśnianie Złożonej Technologii – Przypadek Blockchain
Czwarte zadanie testowało zdolność do demistyfikacji złożonego tematu technicznego: blockchain. Prompt wymagał prostego wyjaśnienia, jak działa blockchain, a następnie wyjaśnienia jego potencjalnego zastosowania w śledzeniu łańcucha dostaw. Ocenia to klarowność, efektywne użycie analogii oraz zdolność do łączenia abstrakcyjnych koncepcji z konkretnymi, rzeczywistymi zastosowaniami.
Gemini 2.5 użyło metafory cyfrowego notatnika do wyjaśnienia koncepcji blockchain, co jest potencjalnie użytecznym punktem wyjścia. Jego wyjaśnienie było dokładne i obejmowało podstawowe elementy rozproszonych rejestrów i kryptograficznego powiązania. Jednak wyjaśnienie miało tendencję do dłuższych zdań i bardziej formalnego, podręcznikowego tonu, co nadal mogło wydawać się nieco gęste lub ciężkie dla prawdziwego początkującego. Omawiając zastosowanie w łańcuchu dostaw, podało ważne przykłady, takie jak śledzenie kawy czy leków, ale opis pozostał stosunkowo ogólny i koncepcyjny, być może nie w pełni oddając namacalne korzyści lub aspekt ‘jak to zrobić’ w żywy sposób. Wyjaśnienie było poprawne, ale mniej angażujące, niż mogłoby być.
DeepSeek, przeciwnie, podjęło się wyjaśnienia z większą energią i umiejętnościami pedagogicznymi. Użyło jasnych, mocnych metafor, które wydawały się bardziej intuicyjne i natychmiast dostępne dla nietechnicznej publiczności, szybko przebijając się przez żargon. Samo wyjaśnienie blockchain zostało podzielone na przystępne kroki, zachowując dokładność bez nadmiernego upraszczania do punktu utraty znaczenia. Co kluczowe, wyjaśniając zastosowanie w łańcuchu dostaw, DeepSeek dostarczyło przekonujących, konkretnych przykładów, które ożywiły koncepcję. Namalowało jaśniejszy obraz tego, jak śledzenie przedmiotów na blockchain zapewnia korzyści, takie jak przejrzystość i bezpieczeństwo, sprawiając, że technologia wydaje się użyteczna i istotna, a nie tylko skomplikowana. Ogólny ton był bardziej energiczny i ilustracyjny.
Werdykt: DeepSeek odniósł zwycięstwo w tej rundzie, dostarczając bardziej angażujące, ilustracyjne i przyjazne dla początkujących wyjaśnienie. Jego lepsze wykorzystanie metafor i konkretnego opowiadania historii sprawiło, że złożony temat blockchain stał się znacznie bardziej przystępny, a jego praktyczne zastosowania łatwiejsze do zrozumienia.
Wyzwanie 5: Nawigowanie po Niuanach Tłumaczenia Poetyckiego
To wyzwanie zagłębiło się w subtelności języka i kultury, prosząc o przetłumaczenie wersu Emily Dickinson, ‘Hope is the thing with feathers that perches in the soul’, na francuski, japoński i arabski. Co krytyczne, wymagało również wyjaśnienia wyzwań poetyckich napotkanych w każdym tłumaczeniu. Testuje to nie tylko wielojęzyczne zdolności tłumaczeniowe, ale także wrażliwość literacką i zrozumienie międzykulturowe.
Gemini 2.5 dostarczyło dokładne tłumaczenia frazy na żądane języki. Towarzyszące mu wyjaśnienia skupiały się mocno na strukturach gramatycznych, potencjalnych przesunięciach znaczenia dosłownego oraz aspektach takich jak wymowa czy dobór słów z lingwistycznego punktu widzenia. Oferowało szczegółowe analizy, które byłyby przydatne dla kogoś studiującego same języki. Jednak odpowiedź przypominała bardziej techniczne ćwiczenie z nauki języka niż eksplorację kunsztu poetyckiego. Skutecznie odniosło się do mechaniki tłumaczenia, ale poświęciło mniej uwagi utracie lub transformacji uczucia, rezonansu kulturowego lub unikalnej jakości poetyckiej oryginalnej metafory w różnych kontekstach językowych i kulturowych. Skupienie było bardziej mechaniczne niż liryczne.
DeepSeek również dostarczyło dokładne tłumaczenia, ale celowało w odniesieniu się do drugiej, bardziej zniuansowanej części promptu. Jego wyjaśnienie zagłębiło się bardziej w inherentne wyzwania tłumaczenia poezji, omawiając, jak specyficzne konotacje słów ‘feathers’ (pióra), ‘perches’ (przysiada) i ‘soul’ (dusza) mogą nie mieć bezpośrednich odpowiedników lub mogą mieć inną wagę kulturową w języku francuskim, japońskim i arabskim. Zbadało potencjalną utratę specyficznego obrazowania metaforycznego Dickinson i trudności w odtworzeniu delikatnego tonu i rytmu oryginału. Analiza DeepSeek dotknęła punktów filozoficznych i kulturowych związanych z koncepcją nadziei w każdym kontekście, dostarczając bogatszego, bardziej wnikliwego komentarza na temat poetyckich trudności, a nie tylko językowych. Zakończyło się przemyślanym podsumowaniem, które podkreśliło złożoność zagadnienia.
Werdykt: Ze względu na głębszy wgląd literacki, większą wrażliwość kulturową w wyjaśnianiu wyzwań tłumaczeniowych oraz skupienie, które lepiej odpowiadało prośbie promptu o zbadanie ‘wyzwań poetyckich’, DeepSeek wygrał tę rundę. Wykazał się lepszym docenieniem sztuki i niuansów związanych z tłumaczeniem języka metaforycznego między kulturami.
Wyzwanie 6: Generowanie i Wyjaśnianie Kodu Python dla Liczb Pierwszych
Szóste wyzwanie wkroczyło w dziedzinę programowania, wymagając wygenerowania funkcji w Pythonie do identyfikacji liczb pierwszych na liście. Równie ważna była prośba o proste wyjaśnienie działania funkcji. Testuje to biegłość w kodowaniu, przestrzeganie najlepszych praktyk oraz zdolność do jasnego wyjaśnienia logiki technicznej osobie niebędącej programistą.
DeepSeek wyprodukowało funkcjonalny skrypt w Pythonie, który poprawnie identyfikował liczby pierwsze. Towarzyszące mu wyjaśnienie było ustrukturyzowane z jasnymi tytułami sekcji i adnotacjami, logicznie wprowadzając koncepcje. Zwróciło uwagę na wyjaśnienie, dlaczego pomijane są liczby mniejsze niż 2, co jest pomocnym wyjaśnieniem dla początkujących. Sam kod był przejrzysty, a wyjaśnienie krok po kroku miało na celu przystępność, rozkładając logikę sprawdzania czynników. Była to solidna i kompetentna odpowiedź spełniająca wszystkie aspekty promptu.
Gemini 2.5, jednakże, wyróżniło się klarownością i jakością pedagogiczną swojego wyjaśnienia. Chociaż również dostarczyło poprawny i wydajny kod w Pythonie, jego wyjaśnienie przyjęło wyjątkowo cierpliwy, niemal tutorialowy ton. Skrupulatnie przeprowadziło przez logikę, sprawiając, że nawet potencjalnie mylące koncepcje, takie jak optymalizacja sprawdzania czynników tylko do pierwiastka kwadratowego liczby, wydawały się intuicyjne i zrozumiałe dla kogoś nowego w programowaniu lub teorii liczb. Struktura była czysta, a język szczególnie dobrze dopasowany dla nowicjusza pragnącego autentycznie zrozumieć, dlaczego kod działa, a nie tylko że działa. Kompleksowy, a jednocześnie przystępny charakter wyjaśnienia dał mu przewagę.
Werdykt: W odwróceniu dominującego trendu, Gemini 2.5 zapewniło sobie zwycięstwo w tym wyzwaniu. Chociaż obie AI wygenerowały poprawny kod i dostarczyły wyjaśnień, wyjaśnienie Gemini zostało uznane za lepsze ze względu na wyjątkową klarowność, przyjazność dla początkujących oraz cierpliwy, pedagogiczny ton, który uczynił złożoną logikę niezwykle przystępną.
Wyzwanie 7: Eksploracja Etycznych Szarych Stref – Uzasadnienie Kłamstwa
Wracając do bardziej abstrakcyjnego rozumowania, siódmy prompt zajął się kwestią etyki: ‘Czy kłamanie jest kiedykolwiek etyczne?’ Poproszono o jeden przykład, w którym kłamstwo mogłoby być moralnie uzasadnione, wraz z uzasadnieniem tego usprawiedliwienia. Bada to zdolność AI do rozumowania moralnego, zniuansowanej argumentacji i użycia przekonujących przykładów na poparcie stanowiska etycznego.
Gemini 2.5 odniosło się do pytania, odwołując się do odpowiednich koncepcji etycznych, potencjalnie wspominając o ramach takich jak konsekwencjalizm (ocenianie działań na podstawie ich wyników) w porównaniu z etyką deontologiczną (przestrzeganie obowiązków moralnych lub zasad). Jego podejście skłaniało się ku teoretycznemu, dostarczając solidnej, choć nieco akademickiej, dyskusji na temat tego, dlaczego kłamstwo jest generalnie złe, ale może być dopuszczalne w pewnych sytuacjach. Jednak przykład, który podało, aby zilustrować uzasadnione kłamstwo, został opisany jako sfabularyzowany i tylko umiarkowanie wpływowy. Chociaż logicznie spójny, brakowało mu wagi emocjonalnej lub siły perswazji, którą mógłby zaoferować bardziej sugestywny przykład.
DeepSeek, w wyraźnym kontraście, zastosowało klasyczny i potężny dylemat etyczny z życia wzięty: scenariusz kłamania władzom nazistowskim podczas II wojny światowej w celu ochrony żydowskich uchodźców ukrywających się w czyimś domu. Ten przykład jest natychmiast rozpoznawalny, naładowany emocjonalnie i przedstawia wyraźny konflikt między obowiązkiem mówienia prawdy a wyższym imperatywem moralnym ratowania niewinnych istnień. Użycie tego konkretnego, historycznego kontekstu o wysokiej stawce dramatycznie wzmocniło argument za uzasadnionym kłamstwem. Rezonowało zarówno na poziomie etycznym, jak i emocjonalnym, czyniąc uzasadnienie znacznie bardziej przekonującym i zapadającym w pamięć. DeepSeek skutecznie połączyło abstrakcyjną zasadę etyczną z konkretną sytuacją, w której rachunek moralny zdecydowanie faworyzuje oszustwo dla większego dobra.
Werdykt: DeepSeek wygrał tę rundę przekonująco. Jego użycie potężnego, historycznie ugruntowanego i emocjonalnie rezonującego przykładu uczyniło jego argument znacznie bardziej przekonującym i etycznie ważnym niż bardziej teoretyczne i mniej wpływowe podejście Gemini. Wykazał się silniejszym opanowaniem wykorzystania ilustracyjnych scenariuszy do eksploracji złożonego rozumowania moralnego.
Wyzwanie 8: Wizja Przyszłej Metropolii – Test Mocy Opisowej
Przedostatnie wyzwanie dotknęło wyobraźni wizualnej i pisania opisowego. Prompt prosił o opis futurystycznego miasta za 150 lat, skupiając się na transporcie, komunikacji i integracji natury, wszystko przekazane za pomocą żywego języka. Testuje to kreatywność, spójność w budowaniu świata i zdolność do malowania przekonującego obrazu słowami.
Gemini 2.5 wygenerowało szczegółową odpowiedź, dotykając żądanych elementów transportu, komunikacji i natury w przyszłym mieście. Zawierało różne futurystyczne koncepcje. Jednak ogólny opis wydawał się nieco generyczny, opierając się na powszechnych tropach science-fiction bez konieczności tworzenia naprawdę unikalnej lub zapadającej w pamięć wizji. Struktura była mniej zorganizowana w porównaniu z konkurentem, a język czasami zbaczał w stronę zbyt gęstego lub kwiecistego frazowania (‘przesadzonego’), co mogło raczej odwracać uwagę od klarowności i zaangażowania czytelnika, niż wzmacniać obrazowanie. Chociaż komponenty były obecne, ogólna mozaika wydawała się mniej spójna i wizualnie odrębna.
DeepSeek, z drugiej strony, stworzyło wizję, która wydawała się bardziej kinowa i wielozmysłowa. Użyło konkretnego, oryginalnego obrazowania do przedstawienia futurystycznego transportu (być może ciche kapsuły magnetyczne, osobiste pojazdy powietrzne), komunikacji (holograficzne interfejsy płynnie zintegrowane) i natury (pionowe lasy, bioluminescencyjne parki). Opisy charakteryzowały się jako zabawne, a jednocześnie ugruntowane, sugerując przyszłość, która była zaawansowana technologicznie, ale także estetycznie przemyślana i być może emocjonalnie rezonująca. Struktura była jasna, prowadząc czytelnika przez różne aspekty miasta w zorganizowany sposób. Język znalazł lepszą równowagę między wyobraźniowym opisem a klarownością, tworząc przyszłość, która wydawała się zarówno oszałamiająca, jak i nieco prawdopodobna, a przynajmniej żywo pomyślana.
Werdykt: DeepSeek odniósł zwycięstwo w tym wyzwaniu, dostarczając bardziej zrównoważoną, pięknie napisaną, jasno ustrukturyzowaną i wyobraźniowo odrębną wizję przyszłego miasta. Jego zdolność do tworzenia oryginalnego, wielozmysłowego obrazowania przy jednoczesnym zachowaniu spójności dała jego odpowiedzi lepszą moc opisową i rezonans emocjonalny.
Wyzwanie 9: Mistrzostwo w Streszczaniu i Adaptacji Tonalnej
Ostatnie wyzwanie testowało dwie odrębne, ale powiązane umiejętności: zwięzłe streszczenie znaczącego tekstu historycznego (Przemówienie gettysburskie - Gettysburg Address) (w trzech zdaniach), a następnie przepisanie tego streszczenia w zupełnie innym, określonym tonie (tonie pirata). Ocenia to zrozumienie, destylację podstawowych idei oraz kreatywną elastyczność w przyjmowaniu odrębnego głosu.
Gemini 2.5 pomyślnie wykonało obie części zadania. Stworzyło streszczenie Gettysburg Address, które dokładnie uchwyciło główne punkty dotyczące równości, celu Wojny Secesyjnej (Civil War) i wezwania do poświęcenia się demokracji. Piracka przeróbka również postępowała zgodnie z instrukcjami, przyjmując pirackie słownictwo i frazowanie (‘Ahoj’, ‘kamraci’ itp.), aby przekazać treść streszczenia. Odpowiedź była kompetentna i dosłownie spełniła wymagania promptu. Jednak streszczenie, choć dokładne, być może brakowało pewnej retorycznej wagi lub emocjonalnej głębi oddającej głęboki wpływ Przemówienia. Wersja piracka wydawała się nieco schematyczna, trafiając w pirackie tropy bez konieczności osiągnięcia prawdziwego humoru lub charakteru.
DeepSeek również dostarczyło dokładne, trzyzdaniowe streszczenie Gettysburg Address, ale jego streszczenie zostało zauważone jako szczególnie wnikliwe, uchwycając nie tylko treść faktyczną, ale także emocjonalny ton i historyczne znaczenie słów Lincolna w sposób bardziej efektywny. Jednak tam, gdzie DeepSeek naprawdę zabłysnęło, była piracka przeróbka. Nie tylko posypało streszczenie pirackim żargonem; wydawało się w pełni wcielić w postać, tworząc wersję opisaną jako autentycznie zabawną, odważną i pomysłową. Język wydawał się bardziej naturalnie piracki, nasycony zabawną energią i charakterem, czyniąc zmianę tonalną bardziej przekonującą i rozrywkową.
Werdykt: DeepSeek wygrał ostatnią rundę, celując w obu aspektach wyzwania. Jego streszczenie zostało uznane za bardziej wnikliwe, a jego przeróbka w stylu pirackim wykazała się lepszą kreatywnością, humorem i mistrzostwem adaptacji tonalnej, czyniąc ją odważniejszą i bardziej pomysłową niż wykonanie konkurenta.