Chiński startup AI cenzuruje obrazy

Chiński startup Sand AI, zajmujący się produkcją wideo opartą na sztucznej inteligencji, niedawno wprowadził na rynek model AI o otwartym kodzie źródłowym do tworzeniawideo, który zdobył uznanie wybitnych osobistości, takich jak Kai-Fu Lee, dyrektor założyciel Microsoft Research Asia. Jednak testy TechCrunch ujawniają, że Sand AI cenzuruje publicznie hostowaną wersję swojego modelu, uniemożliwiając generowanie obrazów, które mogłyby wywołać gniew chińskich organów regulacyjnych.

Magi-1: Obiecujący, ale ograniczony model

Na początku tego tygodnia Sand AI zaprezentował Magi-1, model zdolny do generowania filmów poprzez ‘autoregresywne’ przewidywanie sekwencji klatek. Firma twierdzi, że model ten może produkować wysokiej jakości, kontrolowane materiały filmowe, które dokładniej oddają fizykę niż jego konkurenci open source.

Pomimo swojego potencjału, Magi-1 jest obecnie niepraktyczny dla większości sprzętu konsumenckiego. Dysponując 24 miliardami parametrów, wymaga od czterech do ośmiu procesorów graficznych Nvidia H100, aby działać efektywnie. Parametry to wewnętrzne zmienne, których modele AI używają do dokonywania prognoz. Dla wielu użytkowników, w tym dziennikarza TechCrunch, który go testował, platforma Sand AI jest jedyną dostępną drogą do oceny Magi-1.

Cenzura w akcji: jakie obrazy są blokowane?

Platforma wymaga wprowadzenia tekstu lub początkowego obrazu, aby zainicjować generowanie wideo. Jednak nie wszystkie monity są dozwolone, jak szybko odkrył TechCrunch. Sand AI aktywnie blokuje przesyłanie obrazów przedstawiających:

  • Xi Jinping
  • Plac Tiananmen i Tank Man
  • Tajwańską flagę
  • Znaki popierające wyzwolenie Hongkongu

Filtrowanie wydaje się odbywać na poziomie obrazu, ponieważ zmiana nazw plików obrazów nie ominęła bloku.

Sand AI nie jest sam w implementacji cenzury

Sand AI nie jest jedyny w swoim podejściu. Hailuo AI, platforma mediów generatywnych obsługiwana przez MiniMax z siedzibą w Szanghaju, również uniemożliwia przesyłanie obrazów wrażliwych politycznie, w szczególności przedstawiających Xi Jinping. Jednak filtrowanie Sand AI wydaje się być szczególnie rygorystyczne, ponieważ Hailuo AI dopuszcza obrazy placu Tiananmen.

Prawne aspekty cenzury AI w Chinach

Jak wyjaśnił Wired w artykule ze stycznia, modele AI działające w Chinach podlegają ścisłej kontroli informacji. Ustawa z 2023 roku zabrania tym modelom generowania treści, które ‘zagrażają jedności narodowej i harmonii społecznej’. Można to interpretować jako treści, które są sprzeczne z rządowymi narracjami historycznymi i politycznymi. Aby zachować zgodność z tymi przepisami, chińskie startupy często cenzurują swoje modele za pomocą filtrów na poziomiemonitu lub dostrajania.

Kontrast w cenzurze: polityka vs. pornografia

Co ciekawe, podczas gdy chińskie modele AI mają tendencję do blokowania ekspresji politycznej, często mają mniej filtrów przeciwko treściom pornograficznym niż ich amerykańskie odpowiedniki. 404 niedawno poinformował, że kilka generatorów wideo wydanych przez chińskie firmy nie ma podstawowych zabezpieczeń, aby zapobiec tworzeniu niekonsensualnych treści o charakterze seksualnym.

Implikacje cenzury AI

Praktyki cenzorskie stosowane przez Sand AI i inne chińskie firmy AI rodzą ważne pytania o przyszłość rozwoju i dostępności AI w Chinach. Praktyki te nie tylko ograniczają zakres treści, które można generować, ale także odzwierciedlają szersze ograniczenia polityczne i społeczne, w jakich działają te firmy.

Szczegółowa analiza blokowanych obrazów

Konkretne obrazy blokowane przez Sand AI oferują wgląd w wrażliwość chińskiego rządu. Cenzura obrazów Xi Jinpinga, na przykład, podkreśla nacisk rządu na utrzymanie starannie wyselekcjonowanego wizerunku swojego przywódcy. Podobnie, blokowanie obrazów placu Tiananmen i Tank Man podkreśla wysiłki rządu na rzecz stłumienia dyskusji i pamięci o protestach z 1989 roku. Cenzura tajwańskiej flagi i znaków popierających wyzwolenie Hongkongu odzwierciedla stanowisko rządu w tych drażliwych politycznie kwestiach.

Techniczne aspekty cenzury

Fakt, że cenzura Sand AI działa na poziomie obrazu, sugeruje wyrafinowany system filtrowania, który może identyfikować i blokować określone treści wizualne. System ten prawdopodobnie wykorzystuje technologię rozpoznawania obrazów do analizy przesyłanych obrazów i porównywania ich z bazą danych zabronionych treści. Fakt, że zmiana nazw plików obrazów nie omija bloku, wskazuje, że system nie polega po prostu na nazwach plików, ale faktycznie analizuje same dane obrazu.

Globalny kontekst cenzury AI

Chociaż chińskie podejście do cenzury AI jest szczególnie rygorystyczne, nie jest to jedyny kraj zmagający się z kwestią regulacji treści generowanych przez AI. W Stanach Zjednoczonych i Europie decydenci rozważają przepisy mające na celu rozwiązanie problemów takich jak dezinformacja, deepfakes i naruszenie praw autorskich. Jednak konkretne podejścia i priorytety różnią się znacznie od tych w Chinach.

Rola AI o otwartym kodzie źródłowym

Fakt, że Sand AI udostępnił swój model Magi-1 jako open source, rodzi interesujące pytania o równowagę między innowacjami a cenzurą. Z jednej strony, AI o otwartym kodzie źródłowym może promować innowacje i współpracę, umożliwiając naukowcom i programistom swobodny dostęp do kodu i jego modyfikowanie. Z drugiej strony, może to również utrudnić kontrolowanie wykorzystania technologii i zapobieganie jej wykorzystywaniu do złośliwych celów.

Przyszłość AI w Chinach

Przyszłość AI w Chinach prawdopodobnie będzie kształtowana przez trwające napięcie między pragnieniem rządu, by promować innowacje technologiczne, a jego zaangażowaniem w utrzymanie kontroli społecznej i politycznej. Chińskie firmy AI będą musiały poruszać się w złożonym krajobrazie regulacyjnym i znajdować sposoby na rozwijanie i wdrażanie swojej technologii w sposób, który jest zarówno innowacyjny, jak i zgodny z przepisami rządowymi.

Szersze implikacje

Przypadek Sand AI podkreśla szersze implikacje cenzury AI dla wolności słowa i dostępu do informacji. W miarę jak technologia AI staje się coraz potężniejsza i wszechobecna, coraz ważniejsze jest rozważenie etycznych i społecznych implikacji jej wykorzystania oraz zapewnienie, że nie jest ona wykorzystywana do tłumienia sprzeciwu lub ograniczania dostępu do informacji.

Analiza porównawcza z innymi platformami

Porównanie praktyk cenzorskich Sand AI z praktykami Hailuo AI ujawnia, że istnieje pewne zróżnicowanie w surowości cenzury wśród chińskich firm AI. Fakt, że Hailuo AI dopuszcza obrazy placu Tiananmen, sugeruje, że jej polityka cenzorska jest mniej kompleksowa niż polityka Sand AI. To zróżnicowanie może odzwierciedlać różnice w tolerancji ryzyka firm, ich interpretacji przepisów rządowych lub ich możliwości technicznych.

Ekonomiczny wpływ cenzury

Cenzura treści generowanych przez AI w Chinach może mieć również implikacje ekonomiczne. Z jednej strony, może chronić krajowe firmy przed konkurencją ze strony zagranicznych firm, które nie podlegają takim samym wymogom cenzury. Z drugiej strony, może również tłumić innowacje i ograniczać potencjał chińskich firm AI do konkurowania na rynku globalnym.

Wyzwanie polegające na znalezieniu równowagi między innowacjami a kontrolą

Chiński rząd stoi przed wyzwaniem polegającym na znalezieniu równowagi między pragnieniem promowania innowacji w dziedzinie sztucznej inteligencji a jego zaangażowaniem w utrzymanie kontroli społecznej i politycznej. Zbyt duża cenzura mogłaby stłumić innowacje i ograniczyć potencjał chińskich firm AI. Zbyt mała cenzura mogłaby doprowadzić do rozprzestrzeniania się dezinformacji i erozji stabilności społecznej i politycznej.

Globalny krajobraz AI

Krajobraz AI szybko się zmienia, a nowe technologie i aplikacje pojawiają się cały czas. Chiny są głównym graczem w dziedzinie AI, ale stoją przed wyzwaniami związanymi z cenzurą, prywatnością danych i dostępem do talentów. Przyszłość AI będzie zależeć od tego, jak zostaną rozwiązane te wyzwania i od tego, w jakim stopniu kraje będą mogły współpracować i konkurować w uczciwy i otwarty sposób.

Względy etyczne

Wykorzystanie AI rodzi szereg kwestii etycznych, w tym kwestie związane z uprzedzeniami, uczciwością, przejrzystością i odpowiedzialnością. Ważne jest opracowanie etycznych wytycznych i standardów dotyczących rozwoju i wdrażania AI, aby zapewnić, że jest ona wykorzystywana w sposób odpowiedzialny i korzystny.

Znaczenie przejrzystości

Przejrzystość jest niezbędna do budowania zaufania do systemów AI. Ważne jest, aby zrozumieć, jak działają modele AI i jak podejmują decyzje. Wymaga to zapewnienia dostępu do danych, algorytmów i procesów decyzyjnych. Przejrzystość może pomóc w identyfikacji i łagodzeniu uprzedzeń, zapewnieniu uczciwości i promowaniu odpowiedzialności.

Rola edukacji

Edukacja odgrywa kluczową rolę w przygotowaniu jednostek i społeczeństw na erę AI. Ważne jest, aby edukować ludzi na temat technologii AI, jej potencjalnych korzyści i zagrożeń oraz jej etycznych i społecznych implikacji. Edukacja może pomóc w promowaniu wiedzy na temat AI, krytycznego myślenia i odpowiedzialnych innowacji.

Przyszłość pracy

AI prawdopodobnie będzie miała znaczący wpływ na przyszłość pracy. Niektóre zawody mogą zostać zautomatyzowane, podczas gdy inne mogą zostać utworzone lub przekształcone. Ważne jest, aby przygotować pracowników na te zmiany, zapewniając im umiejętności i szkolenia potrzebne do odniesienia sukcesu w gospodarce opartej na AI.

Znaczenie współpracy

Współpraca jest niezbędna do sprostania wyzwaniom i wykorzystania możliwości, jakie stwarza AI. Obejmuje to współpracę między naukowcami, programistami, decydentami i społeczeństwem. Współpraca może pomóc w zapewnieniu, że AI jest rozwijana i wdrażana w sposób, który jest korzystny dla wszystkich.

AI i bezpieczeństwo narodowe

AI odgrywa również coraz ważniejszą rolę w bezpieczeństwie narodowym. Jest wykorzystywana do zastosowań takich jak nadzór, gromadzenie danych wywiadowczych i autonomiczne systemy uzbrojenia. Wykorzystanie AI w bezpieczeństwie narodowym rodzi złożone pytania etyczne i strategiczne, które należy dokładnie rozważyć.

Potrzeba regulacji

Regulacja AI jest złożoną i ewoluującą kwestią. Niektórzy twierdzą, że AI powinna być ściśle regulowana, aby zapobiec potencjalnym szkodom, podczas gdy inni twierdzą, że nadmierna regulacja mogłaby stłumić innowacje. Ważne jest, aby znaleźć równowagę między promowaniem innowacji a ochroną przed ryzykiem.

AI i opieka zdrowotna

AI ma potencjał, aby przekształcić opiekę zdrowotną na wiele sposobów. Można ją wykorzystać do poprawy diagnozy, leczenia i profilaktyki chorób. AI można również wykorzystać do personalizacji opieki zdrowotnej i uczynienia jej bardziej dostępną i przystępną cenowo.

AI i edukacja

AI można również wykorzystać do poprawy edukacji. Można ją wykorzystać do personalizacji nauki, udzielania informacji zwrotnych i automatyzacji zadań administracyjnych. AI można również wykorzystać do tworzenia nowych narzędzi i zasobów edukacyjnych.

AI i środowisko

AI można wykorzystać do rozwiązywania problemów środowiskowych, takich jak zmiany klimatyczne, zanieczyszczenie i wyczerpywanie się zasobów. Można ją wykorzystać do optymalizacji zużycia energii, poprawy praktyk rolniczych i monitorowania warunków środowiskowych.

Moc AI

AI to potężna technologia, która ma potencjał, aby przekształcić wiele aspektów naszego życia. Ważne jest, aby rozwijać i wdrażać AI w sposób odpowiedzialny i etyczny, aby zapewnić, że przynosi ona korzyści całej ludzkości. Praktyki cenzorskie w Chinach stanowią wyraźne przypomnienie o potencjale wykorzystania AI do celów kontroli i tłumienia. W miarę jak AI stale się rozwija, niezwykle ważne jest prowadzenie ciągłego dialogu i debaty na temat jej etycznych implikacji oraz zapewnienie, że jest ona wykorzystywana do promowania wolności, sprawiedliwości i dobra ludzkiego. Otwarty charakter niektórych modeli AI stwarza zarówno możliwości, jak i wyzwania w tym zakresie. Chociaż AI o otwartym kodzie źródłowym może sprzyjać innowacjom i współpracy, utrudnia również kontrolowanie wykorzystania technologii i zapobieganie jej wykorzystywaniu do złośliwych celów. Wyzwaniem jest znalezienie sposobów na wykorzystanie mocy AI przy jednoczesnym ograniczeniu jej ryzyka i zapewnieniu, że jest ona wykorzystywana dla dobra wszystkich. Wymaga to wieloaspektowego podejścia, które obejmuje wytyczne etyczne, regulacje, edukację oraz ciągły dialog i debatę.

Rola współpracy międzynarodowej

Rozwój i wdrażanie AI to globalne przedsięwzięcia, które wymagają współpracy międzynarodowej. Kraje muszą współpracować w celu opracowania wspólnych standardów, wymiany najlepszych praktyk oraz rozwiązania etycznych i społecznych implikacji AI. Współpraca międzynarodowa może pomóc w zapewnieniu, że AI jest wykorzystywana do promowania pokoju, bezpieczeństwa i dobrobytu dla wszystkich.

Wniosek

Historia Sand AI i jej praktyk cenzorskich jest mikrokosmosem większych wyzwań i możliwości, jakie stwarza AI. W miarę jak AI stale się rozwija i staje się bardziej wszechobecna, istotne jest zajęcie się etycznymi, społecznymi i politycznymi implikacjami jej wykorzystania. Przyszłość AI będzie zależeć od naszej zdolności do wykorzystania jej mocy dla dobra, przy jednoczesnym ograniczeniu jej ryzyka i zapewnieniu, że jest ona wykorzystywana do promowania wolności, sprawiedliwości i dobra ludzkiego. Ciągły dialog i debata na temat AI są niezbędne do kształtowania jej przyszłości i zapewnienia, że jest ona wykorzystywana do tworzenia lepszego świata dla wszystkich.