חברת הסטארט-אפ הסינית לבינה מלאכותית DeepSeek הציגה לאחרונה מודל בינה מלאכותית חדשני בשם R1, אשר השיג תוצאות מרשימות במבחני ביצועים שונים, כגון קידוד, מתמטיקה וידע כללי, ואף התקרב לרמתו של מודל הדגל של OpenAI, ה-o3. עם זאת, גרסה משודרגת של R1, המכונה “R1-0528”, עשויה להיות פחות סובלנית למענה על שאלות שנויות במחלוקת, במיוחד בנושאים שהממשלה הסינית רואה בהם בעייתיים.
על פי בדיקות שערך מפתח אנונימי מאחורי SpeechMap, פלטפורמה המשווה בין מודלים שונים של בינה מלאכותית בנוגע לאופן הטיפול שלהם בנושאים רגישים ושנויים במחלוקת, ה-R1-0528 מפגין סובלנות נמוכה משמעותית לנושאי חופש ביטוי שנויים במחלוקת בהשוואה לגרסאות קודמות של DeepSeek. כמו כן, הוא תואר כ”מודל ה-DeepSeek הצנזוריאלי ביותר עד כה כלפי ביקורת על ממשלת סין”.
כפי שהוסבר במאמר של Wired בינואר, מודלים סיניים נדרשים לעמוד בבקרת מידע קפדנית. חוק משנת 2023 אוסר על מודלים ליצור תוכן “הפוגע באחדות הלאומית ובהרמוניה החברתית”, מה שניתן לפרש כתוכן המנוגד לנרטיבים היסטוריים ופוליטיים של הממשלה. כדי לעמוד בדרישות, חברות סטארט-אפ סיניות מצנזרות את המודלים שלהן באמצעות שימוש במסנני רמת הנחיה (prompt-level filters) או כוונון עדין (fine-tuning). מחקר אחד מצא שה-R1 המקורי של DeepSeek סירב לענות על 85% מהשאלות בנושאים שבמחלוקת פוליטית בעיני הממשלה הסינית.
לדברי xlr8harder, ה-R1-0528 מצנזר תשובות בנושאים כמו מחנות המעצר באזור שינג’יאנג בסין, שבהם נעצרו באופן שרירותי יותר ממיליון מוסלמים אויגורים. למרות שלעתים הוא מבקר היבטים מסוימים של מדיניות הממשלה הסינית - בבדיקות של xlr8harder הוא סיפק את מחנות שינג’יאנג כדוגמה להפרת זכויות אדם - כאשר הוא נשאל שאלות ישירות, המודל נותן לעתים קרובות את עמדתה הרשמית של ממשלת סין.
TechCrunch צפה בכך גם בבדיקות הקצרות שלנו.
מודלים סיניים של בינה מלאכותית הזמינים לציבור, כולל מודלים ליצירת וידאו, ספגו בעבר ביקורת על צנזורה של נושאים רגישים לממשלת סין, כגון הטבח בכיכר טיאנאנמן. בדצמבר, מנכ”ל פלטפורמת פיתוח הבינה המלאכותית Hugging Face, קלמנט דלנג, הזהיר מפני השלכות לא מכוונות של חברות מערביות הבונות על בינה מלאכותית סינית בעלת ביצועים טובים וברשיון ציבורי.
ההשפעה של הצנזורה על מודלים של בינה מלאכותית הפכה מזמן לנושא לדאגה, במיוחד על רקע מתחים גיאופוליטיים. המקרה של DeepSeek R1-0528 מדגיש את האיזון המורכב בין השאיפה להתקדמות טכנולוגית בתחום הבינה המלאכותית לבין שמירה על חופש המחשבה ונגישות למידע. ראוי לבחון לעומק כיצד DeepSeek מתמודדת עם אתגרים אלו ומה המשמעות של הדבר להתפתחות העתידית של תעשיית הבינה המלאכותית.
הגדרה וצורות של צנזורה
צנזורה, במובן הרחב ביותר, מתייחסת להגבלה או דיכוי של מידע, ויכולה ללבוש צורות רבות. בתחום הבינה המלאכותית, צנזורה מתבטאת בדרך כלל כ:
- סינון תוכן: מניעת מודלים ליצור או להציג סוגים מסוימים של תוכן, כגון תוכן הנוגע לנושאים רגישים מבחינה פוליטית, אלימות, אפליה וכו’.
- עיוות מידע: מידע המוצג על ידי המודל עובר שינוי או עיוות כדי להתאים לאידיאולוגיה או לעמדה פוליטית מסוימת.
- הימנעות מתשובות: המודל מסרב לענות על שאלות מסוימות, לחלופין נותן תשובות מעורפלות ודו-משמעיות.
- הנדסת הנחיות: הנחיית המודל לתת תשובות התואמות כוונה מסוימת באמצעות הנחיות מעוצבות בקפידה.
המקרה של DeepSeek R1-0528 מצביע על כך שהמודל עשוי לנקוט במספר אמצעי צנזורה מהסוגים שהוזכרו לעיל, במיוחד בכל הנוגע לנושאים רגישים לממשלת סין.
סיבות ומניעים לצנזורה
הסיבות והמניעים לצנזור מודלים של בינה מלאכותית הם בדרך כלל רב-גוניים:
- חוקים ותקנות: מדינות או אזורים מסוימים חוקקו חוקים ותקנות המחייבים שמודלים של בינה מלאכותית יעמדו בתקני בקרת מידע ספציפיים. לדוגמה, חוקים רלוונטיים בסין אוסרים על מודלים ליצור תוכן “הפוגע באחדות הלאומית והרמוניה חברתית”.
- לחץ פוליטי: ממשלות או גופים פוליטיים עשויים להפעיל לחץ על חברות בינה מלאכותית לדרוש מהן לצנזר את תוכן המודל כדי לשמור על האינטרסים הפוליטיים שלהן.
- אחריות חברתית: חברות בינה מלאכותית עשויות לצנזר באופן יזום תוכן מודל מתוך שיקולים של אחריות חברתית כדי להימנע מהפצת מידע מזיק או לעורר תסיסה חברתית.
- אינטרסים מסחריים: כדי להימנע מלהכעיס את הממשלה או את הציבור, חברות בינה מלאכותית עשויות לצנזר את תוכן המודל כדי לשמור על האינטרסים המסחריים שלהן.
DeepSeek, כחברת בינה מלאכותית סינית, עשויה לעמוד בפני שיקולים רבים מצד חוקים ותקנות, לחצים פוליטיים ואחריות חברתית, ולכן נאלצת לצנזר את R1-0528.
השפעות פוטנציאליות של צנזורה
צנזורה של מודלים של בינה מלאכותית עלולה להשפיע באופן פוטנציאלי על:
- הגבלת גישה למידע: צנזורה תגביל את המשתמשים מלקבל מידע מקיף ואובייקטיבי, ובכך תשפיע על השיפוט וההחלטות שלהם.
- חנק חדשנות: צנזורה תגביל את הפיתוח של טכנולוגיית בינה מלאכותית, מכיוון שייתכן שלחוקרים לא יהיה חופש לחקור ולבדוק רעיונות שונים.
- החרפת מחלוקות חברתיות: צנזורה עלולה להחריף מחלוקות חברתיות, מכיוון שקבוצות שונות עשויות להיות מסוגלות לגשת רק למידע התואם את עמדותיהן שלהן.
- פגיעה באמון: אם משתמשים מגלים שקיימת התנהגות צנזוריאלית במודלים של בינה מלאכותית, ייתכן שהם יאבדו אמון במודלים אלה.
המקרה של DeepSeek R1-0528 מצביע על כך שצנזורה עשויה להגביל את גישת המשתמשים למידע בנוגע לנושאים רגישים של ממשלת סין.
אסטרטגיות להתמודדות עם צנזורה של בינה מלאכותית
כדי להתמודד עם צנזורה של בינה מלאכותית, ניתן לנקוט באסטרטגיות הבאות:
- אמצעים טכניים: פיתוח טכנולוגיות שיכולות לזהות ולעקוף מסנני צנזורה.
- הליכים משפטיים: הגשת תביעות משפטיות נגד התנהגות צנזורה המפרה את חופש הביטוי.
- קידום הסברה ציבורית: הגברת המודעות הציבורית לצנזורה של בינה מלאכותית וקריאה לממשלות ולחברות לפעול.
- בינה מלאכותית מבוזרת: פיתוח פלטפורמות בינה מלאכותית מבוזרות כדי להפחית את הסבירות לצנזורה.
- שיתוף פעולה בקוד פתוח: עידוד שיתוף פעולה בקוד פתוח לפיתוח משותף של מודלים גלויים ושקופים יותר של בינה מלאכותית.
תגובת DeepSeek
DeepSeek טרם הגיבה בפומבי להאשמות בדבר צנזורה של R1-0528. אם DeepSeek תגיב לנושא זה, ראוי לשים לב להיבטים הבאים:
- האם DeepSeek מודה שצנזרה את R1-0528?
- אם כן, מהן הסיבות והמניעים לצנזורה של DeepSeek?
- האם DeepSeek מתכננת לשנות את מדיניות הצנזורה שלה?
- כיצד DeepSeek מאזנת בין התקדמות טכנולוגית לבין חופש מידע?
תגובת DeepSeek תשפיע באופן משמעותי על תעשיית הבינה המלאכותית.
דיון על צנזורה ואתיקה
צנזורה של בינה מלאכותית מעלה שורה של שאלות אתיות, כולל:
- חופש הביטוי: האם מודלים של בינה מלאכותית צריכים ליהנות מחופש הביטוי?
- נגישות למידע: האם למשתמשים יש זכות לגשת למידע מקיף ואובייקטיבי?
- שקיפות: האם חברות בינה מלאכותית מחויבות לחשוף את מדיניות הצנזורה שלהן?
- אחריות: מי צריך להיות אחראי לצנזורה של בינה מלאכותית?
- אמון: כיצד ניתן לבנות אמון בעידן הבינה המלאכותית?
יש לחקור לעומק את השאלות האתיות הללו.
הייחודיות של הצנזורה הסינית
לצנזורה הסינית יש מאפיינים ייחודיים, המתבטאים בעיקר בהיבטים הבאים:
- טווח רחב: טווח הצנזורה הסינית מכסה תחומים רבים, כולל פוליטיקה, היסטוריה, תרבות ודת.
- מאמצים נמרצים: המאמצים לצנזורה בסין נמרצים מאוד, ואף מערבים צנזורה של התבטאויות אישיות.
- טכנולוגיה מתקדמת: לסין יש כוח צנזורה עצום והיא משתמשת באמצעים טכנולוגיים מתקדמים לצנזורה.
- תמיכה משפטית: סין חוקקה סדרה של חוקים ותקנות המספקים תמיכה משפטית למערכת הצנזורה.
ייחודיות זו מציבה אתגרים ייחודיים לפיתוח מודלים של בינה מלאכותית בסין.
השוואה של צנזורה של בינה מלאכותית גלובלית
מלבד סין, קיימות צורות שונות של צנזורה של בינה מלאכותית במדינות אחרות, המתבטאות בעיקר בהיבטים הבאים:
- אירופה: האיחוד האירופי הציג את חוק הבינה המלאכותית, שמטרתו לווסת את השימוש בבינה מלאכותית ולמנוע את השימוש בה לאפליה או להפרת זכויות אדם.
- ארצות הברית: ארצות הברית מווסתת בעיקר את ההתפתחות של בינה מלאכותית באמצעות מנגנוני שוק וויסות עצמי בתעשייה, אך קיימים גם כמה מחלוקות בנוגע לצנזורה של תוכן.
- מדינות אחרות: מדינות אחרות גם הן ניסחו מדיניות רגולטורית שונה של בינה מלאכותית בהתאם לנסיבות הלאומיות שלהן, וחלק מהמדיניות עשויה לכלול צנזורה של תוכן.
על ידי השוואת מערכות הצנזורה של בינה מלאכותית בין מדינות שונות, ניתן להבין טוב יותר את המורכבות והמגוון של הצנזורה.
מגמות עתידיות של צנזורה של בינה מלאכותית
מגמות עתידיות של צנזורה של בינה מלאכותית עשויות לכלול את ההיבטים הבאים:
- התקדמות טכנולוגית: טכנולוגיות צנזורה ואנטי-צנזורה ימשיכו להתפתח, וייצרו משחק של חתול ועכבר.
- רגולציה מוגברת: ממשלות ברחבי העולם עשויות להגביר את הרגולציה של בינה מלאכותית, כולל היבטים של צנזורה של תוכן.
- שיתוף פעולה בינלאומי: מדינות עשויות להגביר את שיתוף הפעולה הבינלאומי במונחים של ניהול בינה מלאכותית, כולל היבטים של צנזורה של תוכן.
- דאגה חברתית: הקהילה תהיה מודאגת יותר מההשפעה של צנזורה של בינה מלאכותית ותקרא לגישות אחראיות יותר.
השפעת הצנזורה על DeepSeek
כהשפעה על חברת בינה מלאכותית סינית, ההתפתחות של DeepSeek מושפעת עמוקות ממערכת הצנזורה הסינית. DeepSeek צריכה למצוא איזון בין ציות לחוקים ולתקנות הסיניים לבין מענה לצרכי המשתמשים. ההתפתחות העתידית של DeepSeek תהיה תלויה באופן שבו היא מתמודדת עם האתגרים שמציבה הצנזורה.
בינה מלאכותית והטיה
צנזורה קשורה קשר הדוק לנושא ההטיה בבינה מלאכותית. צנזורה עלולה להוביל לכך שהמודל ילמד רק חלק מהמידע, ובכך ייצור הטיה. DeepSeek צריכה לנקוט בצעדים כדי להבטיח שהמודלים שלה יוכלו ללמוד מידע מקיף ואובייקטיבי ולהימנע מהטיה.
שקיפות ופרשנות
כדי להתמודד עם האתגרים שמציבה הצנזורה, DeepSeek צריכה להגביר את השקיפות והפרשנות של המודלים שלה. DeepSeek צריכה לפרסם את מדיניות הצנזורה שלה ולהסביר כיצד המודלים שלה מטפלים בנושאים רגישים. זה יעזור לבנות את אמון המשתמשים ולקדם התפתחות בריאה של בינה מלאכותית.
לסיכום
המקרה של DeepSeek R1-0528 מדגיש את המורכבות והחשיבות של צנזורה של בינה מלאכותית. הצנזורה משפיעה באופן משמעותי על גישה למידע, חדשנות טכנולוגית, מחלוקות חברתיות ואמון משתמשים. התמודדות עם צנזורה דורשת מגוון אסטרטגיות, כולל אמצעים טכניים, הליכים משפטיים, קידום הסברה ציבורית, בינה מלאכותית מבוזרת ושיתוף פעולה בקוד פתוח. DeepSeek, כחברת בינה מלאכותית סינית, צריכה למצוא איזון בין ציות לחוקים ולתקנות הסיניים לבין מענה לצרכי המשתמשים. DeepSeek צריכה להגביר את השקיפות והפרשנות של המודלים שלה כדי להתמודד עם האתגרים שמציבה הצנזורה.