חברת בינה מלאכותית סינית חוסמת תמונות רגישות

Magi-1: מודל מבטיח אך מוגבל

מוקדם יותר השבוע, חשפה Sand AI את Magi-1, מודל המסוגל ליצור סרטונים על ידי “ניבוי אוטורגרסיבי” של רצפי פריימים. החברה טוענת שמודל זה יכול להפיק צילומים באיכות גבוהה וניתנת לשליטה, שלוכדת בצורה מדויקת יותר את הפיזיקה מאשר המתחרים שלה בקוד פתוח.

למרות הפוטנציאל שלו, Magi-1 אינו מעשי כרגע עבור רוב חומרת הצרכן. עם 24 מיליארד פרמטרים, הוא דורש בין ארבעה לשמונה Nvidia H100 GPUs כדי לתפקד ביעילות. פרמטרים הם המשתנים הפנימיים שמודלים של AI משתמשים בהם כדי לבצע תחזיות. עבור משתמשים רבים, כולל עיתונאי TechCrunch שבדק אותו, פלטפורמת Sand AI היא הדרך הנגישה היחידה להערכת Magi-1.

צנזורה בפעולה: אילו תמונות חסומות?

הפלטפורמה דורשת הנחיית טקסט או תמונה ראשונית כדי ליזום יצירת סרטונים. עם זאת, לא כל הבקשות מותרות, כפי ש-TechCrunch גילתה במהירות. Sand AI חוסמת באופן פעיל את העלאת התמונות הכוללות:

  • שי ג’ינפינג
  • כיכר טיאנאנמן והאיש הטנק
  • הדגל הטייוואני
  • שלטים התומכים בשחרור הונג קונג

הסינון נראה שמתרחש ברמת התמונה, מכיוון ששינוי שם קבצי התמונה לא עקף את החסימה.

Sand AI לא לבד ביישום צנזורה

Sand AI אינה ייחודית בגישתה. Hailuo AI, פלטפורמת מדיה גנרטיבית המופעלת על ידי MiniMax שבסיסה בשנגחאי, מונעת גם היא את העלאת תמונות רגישות מבחינה פוליטית, במיוחד אלה המתארות את שי ג’ינפינג. עם זאת, נראה שהסינון של Sand AI קפדני במיוחד, מכיוון ש-Hailuo AI מתירה תמונות של כיכר טיאנאנמן.

הנוף המשפטי של צנזורה של AI בסין

כפי שהסביר Wired במאמר בינואר, מודלים של AI הפועלים בסין כפופים לבקרת מידע קפדנית. חוק משנת 2023 אוסר על מודלים אלה ליצור תוכן ש”מסכן את האחדות הלאומית וההרמוניה החברתית”. ניתן לפרש זאת כתוכן הסותר את הנרטיבים ההיסטוריים והפוליטיים של הממשלה. כדי לציית לתקנות אלה, סטארטאפים סיניים מצנזרים לעתים קרובות את המודלים שלהם באמצעות מסננים ברמת ההנחיה או כוונון עדין.

ניגוד בצנזורה: פוליטיקה לעומת פורנוגרפיה

מעניין לציין, כי בעוד שמודלים של AI סיניים נוטים לחסום ביטוי פוליטי, לעתים קרובות יש להם פחות מסננים נגד תוכן פורנוגרפי מאשר למקביליהם האמריקאים. 404 דיווחה לאחרונה כי לכמה מחוללי וידאו ששוחררו על ידי חברות סיניות חסרים אמצעי הגנה בסיסיים למניעת יצירת תמונות מפורשות לא בהסכמה.

ההשלכות של צנזורה של AI

שיטות הצנזורה המופעלות על ידי Sand AI וחברות AI סיניות אחרות מעלות שאלות חשובות לגבי עתיד פיתוח ה-AI והנגישות בסין. שיטות אלה לא רק מגבילות את מגוון התוכן שניתן ליצור, אלא גם משקפות את האילוצים הפוליטיים והחברתיים הרחבים יותר שבמסגרתם חברות אלה פועלות.

ניתוח מפורט של תמונות חסומות

התמונות הספציפיות שנחסמו על ידי Sand AI מציעות חלון לרגישויות של הממשלה הסינית. הצנזורה של תמונות של שי ג’ינפינג, למשל, מדגישה את הדגש של הממשלה על שמירה על תמונה שנאספה בקפידה של מנהיגה. באופן דומה, חסימת תמונות של כיכר טיאנאנמן והאיש הטנק מדגישה את מאמצי הממשלה לדכא דיון וזיכרון של מחאות 1989. הצנזורה של הדגל הטייוואני ושלטים התומכים בשחרור הונג קונג משקפת את עמדת הממשלה בסוגיות רגישות מבחינה פוליטית אלה.

היבטים טכניים של צנזורה

העובדה שהצנזורה של Sand AI פועלת ברמת התמונה מצביעה על מערכת סינון מתוחכמת שיכולה לזהות ולחסום תוכן חזותי ספציפי. מערכת זו סביר להניח משתמשת בטכנולוגיית זיהוי תמונות כדי לנתח תמונות שהועלו ולהשוות אותן למאגר של תוכן אסור. העובדה ששינוי שם קבצי התמונה לא עוקף את החסימה מצביעה על כך שהמערכת אינה מסתמכת רק על שמות קבצים אלא למעשה מנתחת את נתוני התמונה עצמה.

ההקשר הגלובלי של צנזורה של AI

בעוד שהגישה של סין לצנזורה של AI קפדנית במיוחד, היא לא המדינה היחידה המתמודדת עם הסוגיה של כיצד לווסת תוכן שנוצר על ידי AI. בארצות הברית ובאירופה, קובעי המדיניות שוקלים תקנות כדי לטפל בסוגיות כגון דיסאינפורמציה, דיפייקים והפרת זכויות יוצרים. עם זאת, הגישות והסדרי העדיפויות הספציפיים שונים באופן משמעותי מאלה שבסין.

התפקיד של AI בקוד פתוח

העובדה ש-Sand AI שחררה את מודל ה-Magi-1 שלה כקוד פתוח מעלה שאלות מעניינות לגבי האיזון בין חדשנות לצנזורה. מצד אחד, AI בקוד פתוח יכול לקדם חדשנות ושיתוף פעולה על ידי מתן אפשרות לחוקרים ומפתחים לגשת ולשנות את הקוד באופן חופשי. מצד שני, זה יכול גם להקשות על שליטה בשימוש בטכנולוגיה ולמנוע ממנה לשמש למטרות זדוניות.

עתיד ה-AI בסין

עתיד ה-AI בסין צפוי להיות מושפע מהמתח המתמשך בין רצונה של הממשלה לקדם חדשנות טכנולוגית לבין מחויבותה לשמור על שליטה חברתית ופוליטית. חברות AI סיניות יצטרכו לנווט בנוף רגולטורי מורכב ולמצוא דרכים לפתח וליישם את הטכנולוגיה שלהן באופן שהוא גם חדשני וגם תואם לתקנות הממשלה.

ההשלכות הרחבות יותר

המקרה של Sand AI מדגיש את ההשלכות הרחבות יותר של צנזורה של AI על חופש הביטוי והגישה למידע. ככל שטכנולוגיית ה-AI הופכת לחזקה ונפוצה יותר, חשוב יותר ויותר לשקול את ההשלכות האתיות והחברתיות של השימוש בה ולהבטיח שלא ישמשו אותה כדי לדכא התנגדות או להגביל את הגישה למידע.

ניתוח השוואתי עם פלטפורמות אחרות

ההשוואה של שיטות הצנזורה של Sand AI עם אלה של Hailuo AI מגלה שיש מידה מסוימת של שונות בחומרת הצנזורה בין חברות AI סיניות. העובדה ש-Hailuo AI מתירה תמונות של כיכר טיאנאנמן מצביעה על כך שמדיניות הצנזורה שלה פחות מקיפה מזו של Sand AI. שונות זו עשויה לשקף הבדלים בסובלנות הסיכון של החברות, בפרשנות שלהן לתקנות הממשלה או ביכולות הטכניות שלהן.

ההשפעה הכלכלית של צנזורה

לצנזורה של תוכן שנוצר על ידי AI בסין עשויות להיות השלכות כלכליות גם כן. מצד אחד, זה עשוי להגן על חברות מקומיות מפני תחרות מצד חברות זרות שאינן כפופות לאותן דרישות צנזורה. מצד שני, זה עשוי גם לדכא חדשנות ולהגביל את הפוטנציאל של חברות AI סיניות להתחרות בשוק העולמי.

האתגר של איזון בין חדשנות לשליטה

הממשלה הסינית עומדת בפני האתגר של איזון בין רצונה לקדם חדשנות AI לבין מחויבותה לשמור על שליטה חברתית ופוליטית. יותר מדי צנזורה עלולה לדכא חדשנות ולהגביל את הפוטנציאל של חברות AI סיניות. מעט מדי צנזורה עלולה להוביל להפצת דיסאינפורמציה ולשחיקת היציבות החברתית והפוליטית.

נוף ה-AI הגלובלי

נוף ה-AI מתפתח במהירות, עם טכנולוגיות ויישומים חדשים המופיעים כל הזמן. סין היא שחקנית מרכזית בתחום ה-AI, אך היא מתמודדת עם אתגרים הקשורים לצנזורה, פרטיות נתונים וגישה לכישרונות. עתיד ה-AI יהיה תלוי באופן שבו אתגרים אלה יטופלו ובמידה שבה מדינות יכולות לשתף פעולה ולהתחרות בצורה הוגנת ופתוחה.

השיקולים האתיים

השימוש ב-AI מעלה מספר שיקולים אתיים, כולל סוגיות הקשורות להטיה, הגינות, שקיפות ואחריותיות. חשוב לפתח הנחיות וסטנדרטים אתיים לפיתוח ויישום של AI כדי להבטיח שהוא משמש בצורה אחראית ומועילה.

החשיבות של שקיפות

שקיפות חיונית לבניית אמון במערכות AI. חשוב להבין כיצד מודלים של AI עובדים וכיצד הם מקבלים החלטות. זה דורש מתן גישה לנתונים, אלגוריתמים ותהליכי קבלת החלטות. שקיפות יכולה לעזור לזהות ולצמצם הטיות, להבטיח הגינות ולקדם אחריותיות.

התפקיד של חינוך

חינוך ממלא תפקיד מכריע בהכנת אנשים וחברות לעידן ה-AI. חשוב לחנך אנשים לגבי טכנולוגיית AI, היתרונות והסיכונים הפוטנציאליים שלה וההשלכות האתיות והחברתיות שלה. חינוך יכול לעזור לקדם אוריינות AI, חשיבה ביקורתית וחדשנות אחראית.

עתיד העבודה

סביר להניח של-AI תהיה השפעה משמעותית על עתיד העבודה. ייתכן שמשרות מסוימות יאוטמטו, בעוד שאחרות עשויות להיווצר או להשתנות. חשוב להכין את העובדים לשינויים אלה על ידי מתן להם את הכישורים וההכשרה שהם צריכים כדי להצליח בכלכלה המונעת על ידי AI.

החשיבות של שיתוף פעולה

שיתוף פעולה חיוני להתמודדות עם האתגרים וההזדמנויות שמציב AI. זה כולל שיתוף פעולה בין חוקרים, מפתחים, קובעי מדיניות והציבור. שיתוף פעולה יכול לעזור להבטיח ש-AI מפותח ומיושם באופן המועיל לכולם.

AI וביטחון לאומי

AI ממלא גם תפקיד חשוב יותר ויותר בביטחון הלאומי. הוא משמש ליישומים כגון מעקב, איסוף מודיעין ומערכות נשק אוטונומיות. השימוש ב-AI בביטחון הלאומי מעלה שאלות אתיות ואסטרטגיות מורכבות שצריך לשקול בקפידה.

הצורך ברגולציה

הרגולציה של AI היא סוגיה מורכבת ומתפתחת. יש הטוענים שיש לווסת את ה-AI בצורה כבדה כדי למנוע נזקים פוטנציאליים, בעוד שאחרים טוענים שרגולציה מוגזמת עלולה לדכא חדשנות. חשוב למצוא איזון בין קידום חדשנות להגנה מפני סיכונים.

AI ובריאות

ל-AI יש פוטנציאל לשנות את שירותי הבריאות במספר דרכים. ניתן להשתמש בו כדי לשפר אבחון, טיפול ומניעה של מחלות. ניתן להשתמש ב-AI גם כדי להתאים אישית את שירותי הבריאות ולהפוך אותם לנגישים ובמחיר סביר יותר.

AI וחינוך

ניתן להשתמש ב-AI גם כדי לשפר את החינוך. ניתן להשתמש בו כדי להתאים אישית את הלמידה, לספק משוב ולאוטומט משימות אדמיניסטרטיביות. ניתן להשתמש ב-AI גם כדי ליצור כלי למידה ומשאבים חדשים.

AI והסביבה

ניתן להשתמש ב-AI כדי לטפל באתגרים סביבתיים כגון שינויי אקלים, זיהום ודלדול משאבים. ניתן להשתמש בו כדי לייעל את צריכת האנרגיה, לשפר שיטות חקלאיות ולנטר תנאי סביבה.

הכוח של AI

AI היא טכנולוגיה רבת עוצמה שיש לה פוטנציאל לשנות היבטים רבים בחיינו. חשוב לפתח וליישם את ה-AI בצורה אחראית ואתית כדי להבטיח שהוא יועיל לכל האנושות. שיטות הצנזורה בסין מציעות תזכורת חריפה לפוטנציאל של AI לשמש למטרות שליטה ודיכוי. ככל שה-AI ממשיך להתפתח, חיוני לקיים דיאלוג ודיון מתמשכים על ההשלכות האתיות שלו ולהבטיח שהוא משמש לקידום חופש, צדק ורווחה אנושית. האופי הקוד הפתוח של כמה מודלים של AI מציע הזדמנויות ואתגרים בהקשר זה. בעוד ש-AI בקוד פתוח יכול לטפח חדשנות ושיתוף פעולה, הוא גם מקשה על שליטה בשימוש בטכנולוגיה ולמנוע ממנה לשמש למטרות זדוניות. האתגר הוא למצוא דרכים לרתום את הכוח של AI תוך צמצום הסיכונים שלו והבטחה שהוא משמש לתועלת הכלל. זה דורש גישה רב-גונית הכוללת הנחיות אתיות, תקנות, חינוך ודיאלוג ודיון מתמשכים.

התפקיד של שיתוף פעולה בינלאומי

הפיתוח והיישום של AI הם מאמצים גלובליים הדורשים שיתוף פעולה בינלאומי. מדינות צריכות לעבוד יחד כדי לפתח סטנדרטים משותפים, לשתף שיטות עבודה מומלצות ולטפל בהשלכות האתיות והחברתיות של AI. שיתוף פעולה בינלאומי יכול לעזור להבטיח ש-AI ישמש לקידום שלום, ביטחון ושגשוג לכולם.

סיכום

הסיפור של Sand AI ושיטות הצנזורה שלה הוא מיקרוקוסמוס של האתגרים וההזדמנויות הגדולים יותר שמציב AI. ככל שה-AI ממשיך להתפתח ולהפוך לנפוץ יותר, חיוני לטפל בהשלכות האתיות, החברתיות והפוליטיות של השימוש בו. עתיד ה-AI יהיה תלוי ביכולת שלנו לרתום את כוחו לטובה תוך צמצום הסיכונים שלו והבטחה שהוא משמש לקידום חופש, צדק ורווחה אנושית. הדיאלוג והדיון המתמשכים על AI חיוניים לעיצוב עתידו ולהבטחה שהוא משמש ליצירת עולם טוב יותר לכולם.