DeepSeek תחת אש: חששות מנכ'ל Baidu

הופעת הבכורה השנויה במחלוקת של DeepSeek

לדברי דיווחים מ-Guancha.cn ו-Sina.com, לי התייחס לנוף המשתנה של מודלי AI בקנה מידה גדול במהלך הכנס. הוא הדגיש את התחרות העזה בין מפתחי מודלים, שלעתים קרובות מתוארת כ”מרוץ עכברים”, ואת הבלבול וההיסוס הנובעים מכך בקרב מפתחים ליצור יישומים בביטחון.

לי הדגיש כי “ללא יישומים, שבבים ומודלים הם חסרי ערך”. הוא הצביע על העלות הגבוהה וחוסר המעשיות של שימוש במודלים בקנה מידה גדול נוכחיים כמכשול מרכזי עבור מפתחים המעוניינים לבנות יישומי AI.

DeepSeek, סטארט-אפ שבסיסו בהאנגג’ואו, סין, שחרר בינואר את מודל ההיסק בקוד פתוח שלו, R1. בזמנו, כלי תקשורת ממלכתיים שיבחו את DeepSeek כעולה על חברות כמו OpenAI. עם זאת, חקירות שלאחר מכן על ידי משתמשים וחוקרים חשפו חסרונות, נקודות תורפה אבטחה וסיכונים פוטנציאליים. ממשלות רבות, כולל טייוואן, יפן, דרום קוריאה, ארצות הברית, קנדה, איטליה, אוסטרליה והולנד, יחד עם מאות חברות, אסרו את השימוש ב-DeepSeek במכשירים ממשלתיים וארגוניים.

ב-8 בפברואר, מומחי אבטחת AI שיתפו תוצאות של בדיקות אבטחה מעמיקות על DeepSeek עם כלי התקשורת. הם גילו ש-DeepSeek היה רגיש יותר ל”פריצה” בהשוואה ל-ChatGPT, ל-Gemini ול-Claude. פגיעות זו אפשרה למשתמשים לעקוף את מגבלות הבטיחות המקוריות של ה-AI, מה שהקל עליהם להשיג תוכן שעלול להיות מסוכן, מזיק או בלתי חוקי.

במרץ, “Luchen Technology”, חברת תשתית AI הקשורה לאוניברסיטת צינגואה, שהייתה בין הראשונות לשלב מודלים של DeepSeek כדי לספק שירותי API ומראות בענן, הודיעה על השעיית השירותים הקשורים לכך. מייסד החברה, יו יאנג, חשף בפוסט שהעלויות בפועל הקשורות ל-DeepSeek היו גבוהות משמעותית מהעלויות התיאורטיות. לאחר תגובה נגדית מקוונת, הוא הצהיר בפומבי ש-DeepSeek לא יכול לפעול מבלי להשתמש בטכנולוגיה אמריקאית בטווח הקצר, ותהה מדוע לא ניתן להכיר במציאות זו בפומבי.

על פי דיווח של Sina Technology ב-4 במרץ, DeepSeek הכריזה על שולי רווח תיאורטיים בעלות של 545% עבור המערכת המקוונת שלה ב-1 במרץ בשעה 17:02. לאחר מכן, Luchen Technology הודיעה כי תפסיק לספק שירותי DeepSeek API תוך שבוע, ודחקה במשתמשים לנצל את יתרותיהם הנותרות.

הדיווח ציין כי Luchen Technology לא חשפה בפומבי את הסיבות הספציפיות להפסקת שירות ה-DeepSeek API. עם זאת, הניתוח הנרחב של המייסד לגבי העלויות של DeepSeek בפלטפורמות כמו Zhihu מצביע על כך שהעלות הייתה גורם עיקרי בהחלטה להפסיק לספק את שירות ה-API.

חששות לגבי ביטחון לאומי

הקשרים בין DeepSeek לממשלת סין פוטנציאליים ישירים יותר ממה שנתפס בתחילה. Feroot Security, חברת אבטחת סייבר קנדית, גילתה קשרים משמעותיים בין דף הכניסה לאתר של DeepSeek לבין China Mobile, חברה סינית בבעלות המדינה שבעבר הוטלו עליה סנקציות על ידי ממשלת ארה’ב.

בחודשים האחרונים, חששות לגבי ביטחון לאומי הובילו לקריאות גוברות לאיסור על DeepSeek.

ב-24 באפריל, מספר חברים בבית הנבחרים האמריקני שלחו מכתב ל-DeepSeek, בו הביעו דאגה לגבי הקשרים של החברה למפלגה הקומוניסטית הסינית (CCP) וביקשו מידע לגבי הנתונים האמריקאים ששימשו לאימון מודלי ה-AI שלה.

הנציג ברט גוטרי, יו’ר ועדת האנרגיה והמסחר של הבית, והנציג גאס ביליראקיס, יו’ר תת-הוועדה לחדשנות, נתונים ומסחר, יחד עם עשרה חברים נוספים בתת-הוועדה, הפנו מכתב ל-DeepSeek בו הביעו דאגה לגבי “איסוף הנתונים האישיים של האמריקאים” של החברה והסיכונים הנלווים לביטחון הלאומי.

במכתב, גוטרי וביליראקיס הצהירו כי “DeepSeek מודה בהעברת נתונים אישיים של משתמשים אמריקאים לשרתים בסין, שם מידע זה ללא ספק יגיע לידי גורמים המזוהים עם המפלגה הקומוניסטית הסינית. אנו מודאגים מכך שיחסי סוכנות אלה עם היריבה העיקרית שלנו מסכנים את הנתונים והביטחון הלאומי שלנו.”

“כדי להבטיח שמשתמשים אמריקאים ועסקיהם מוגנים מפני התערבות זרה, אנו פותחים בחקירה לגבי DeepSeek והאיום שהיא מהווה על האומה שלנו.”

המכתב הצהיר עוד, “על פי דיווחים בתקשורת, החברה גם משתפת מידע אישי של משתמשים עם גורמים אחרים המזוהים עם המפלגה הקומוניסטית הסינית, כולל ByteDance.”

“במקביל, חוקרים גילו פגיעויות קריטיות בבקרי האבטחה והגנות המודל לכאורה של DeepSeek. בתגובה לסיכונים אלה, מספר הולך וגדל של מדינות, כולל ניו יורק, טקסס ווירג’יניה, אסרו את השימוש ב-DeepSeek במכשירים ממשלתיים, ותובעים כלליים של מדינות קראו לאיסורים רחבים יותר.”

ב-16 באפריל, ועדת הבחירה של בית הנבחרים האמריקני לענייני המפלגה הקומוניסטית הסינית פרסמה דו”ח המדגיש כי DeepSeek מהווה איום משמעותי על הביטחון הלאומי האמריקני. הדו”ח האשים את DeepSeek באיסוף נתוני משתמשים עבור ה-CCP ובמניפולציה סודית של תוצאות, והפך לכלי האחרון עבור ה-CCP לייפות את עצמו, לנטר אזרחים זרים ולגנוב ולחתור תחת מגבלות בקרת הייצוא של ארה’ב.

הדו”ח ציין כי בעוד ש-DeepSeek עשויה להיראות כמו עוד צ’אטבוט AI המספק למשתמשים דרך ליצור טקסט ולענות על שאלות, בדיקה מדוקדקת יותר מגלה ש-DeepSeek מעבירה בסתר נתונים אישיים שהושגו ל-China Mobile, שלה קשרים לצבא הסיני, ויוצרת פגיעויות אבטחה עבור משתמשים. ארה’ב כבר אסרה על China Mobile לפעול בארצות הברית.

צלילה עמוקה לתוך הכשלים לכאורה של DeepSeek

בעוד שהבאזז הראשוני סביב DeepSeek צייר תמונה של פלא AI שאמור לחולל מהפכה בתחומים שונים, בדיקה מדוקדקת יותר חשפה מציאות ניואנסית ומורכבת יותר. החששות שהועלו על ידי מנכ’ל Baidu, רובין לי, והחקירות שלאחר מכן על ידי מומחי אבטחת סייבר וגופי ממשל, מדגישים מספר תחומים קריטיים שבהם DeepSeek נופל מהציפיות ומעלה סיכונים פוטנציאליים.

יכולות מולטימודליות מוגבלות

אחת הביקורות העיקריות שהושמעו נגד DeepSeek היא יכולתו המוגבלת לעבד תוכן מולטימודלי. שלא כמו מודלי AI מתקדמים יותר שיכולים לשלב ולהבין בצורה חלקה צורות שונות של נתונים, כולל טקסט, תמונות, אודיו ווידאו, DeepSeek מתקשה לכאורה להבין משהו מעבר לקלט טקסט בסיסי. מגבלה זו מגבילה באופן משמעותי את היישום שלה בתרחישים בעולם האמיתי שבהם מידע מוצג לעתים קרובות בשילוב של פורמטים. לדוגמה, DeepSeek עלול להתקשות לנתח פוסט במדיה חברתית הכולל גם טקסט וגם תמונה, או לתמלל ולהבין ועידת וידאו.

בעיות ביצועים: מהירות ועלות

מעבר למגבלותיה בטיפול במדיה מגוונת, DeepSeek מתמודדת גם עם אתגרים הקשורים לביצועים שלה. לדברי רובין לי, המודל מאופיין במהירותו ה”איטית” ובעלותו ה”גבוהה”, מה שהופך אותו לפחות אטרקטיבי עבור מפתחים המעוניינים לבנות יישומי AI ניתנים להרחבה וחסכוניים. משאבי המחשוב הגבוהים הנדרשים להפעלת DeepSeek יכולים להתורגם להוצאות משמעותיות עבור עסקים, במיוחד אלה עם פריסות בקנה מידה גדול. יתר על כן, מהירות העיבוד האיטית יכולה להפריע ליישומים בזמן אמת, כגון צ’אטבוטים או עוזרים וירטואליים, שבהם תגובתיות היא חיונית לחוויית משתמש חיובית.

בעיית “שיעור ההזיות”

דאגה מרכזית נוספת סביב DeepSeek היא “שיעור ההזיות” הגבוה שלה, המתייחס לנטייה של המודל ליצור מידע לא מדויק או חסר היגיון. בעיה זו מהווה אתגר משמעותי עבור יישומים הדורשים פלטים אמינים ומהימנים. בתחומים קריטיים, כגון בריאות או פיננסים, שבהם דיוק הוא בעל חשיבות עליונה, הסיכון ש-DeepSeek יפיק מידע שקרי או מטעה עלול להיות בעל השלכות חמורות. “שיעור ההזיות” מערער את מהימנותו של המודל ומגביל את השימושיות שלו בהקשרים רגישים.

פגיעויות אבטחה ופריצה

הגילוי ש-DeepSeek רגיש יותר ל”פריצה” ממודלי AI מובילים אחרים מעורר חששות אבטחה משמעותיים. “פריצה” מתייחסת לתהליך של עקיפת מגבלות הבטיחות של AI כדי להוציא תוכן מזיק, לא אתי או בלתי חוקי. העובדה שניתן לתפעל את DeepSeek בקלות רבה יותר בצורה זו מצביעה על חולשות בארכיטקטורת האבטחה הבסיסית שלו. פגיעות זו עלולה להיות מנוצלת על ידי גורמים זדוניים כדי ליצור דיסאינפורמציה, להפיץ תעמולה או לעסוק בפעילויות מזיקות אחרות.

פרטיות נתונים וסיכוני ביטחון לאומי

הקשרים לכאורה בין DeepSeek לממשלת סין, במיוחד נוהלי שיתוף הנתונים שלה עם China Mobile, עוררו אזעקות לגבי פרטיות נתונים וביטחון לאומי. העברת נתונים אישיים של משתמשים אמריקאים לשרתים בסין, שם ניתן יהיה לגשת אליהם על ידי גורמים המזוהים עם ה-CCP, מעוררת חששות רציניים לגבי מעקב פוטנציאלי, ריגול ופשרה של מידע רגיש. הבדיקה של ממשלת ארה’ב את DeepSeek מדגישה את המודעות הגוברת לסיכונים הפוטנציאליים הקשורים למודלי AI שפותחו על ידי גורמים זרים עם קשרים הדוקים לממשלות עוינות.

ההשלכות הרחבות יותר

החששות סביב DeepSeek חורגים מהמגבלות והפגיעויות הספציפיות של מודל AI מסוים זה. הם משקפים אתגרים וסיכונים רחבים יותר הקשורים לפיתוח ופריסה מהירים של טכנולוגיות AI. המקרה של DeepSeek מדגיש את החשיבות של:

  • בדיקות והערכה קפדניות: בדיקות והערכה יסודיות חיוניות כדי לזהות ולטפל בחולשות פוטנציאליות, הטיה ופגיעויות אבטחה במודלי AI לפני שהם נפרסים באופן נרחב.
  • שקיפות ואחריותיות: מפתחים צריכים להיות שקופים לגבי הנתונים ששימשו לאימון המודלים שלהם והאלגוריתמים שהם מעסיקים. הם צריכים גם להיות אחראים לפלטים ולהשלכות של מערכות ה-AI שלהם.
  • הגנה על פרטיות נתונים ואבטחה: נדרשים אמצעי פרטיות נתונים ואבטחה חזקים כדי להגן על המידע האישי של משתמשים מפני גישה בלתי מורשית, שימוש לרעה או ניצול.
  • שיתוף פעולה בינלאומי: שיתוף פעולה בינלאומי חיוני להקמת סטנדרטים ותקנות משותפות לפיתוח ופריסה של AI, כדי להבטיח שטכנולוגיות אלה ישמשו באחריות ובאופן אתי.
  • חשיבה ביקורתית ואוריינות תקשורתית: יש לעודד משתמשים להעריך באופן ביקורתי את המידע שנוצר על ידי מודלי AI ולפתח מיומנויות אוריינות תקשורתית כדי להבחין בין תוכן מדויק ומטעה.

המחלוקת סביב DeepSeek משמשת סיפור אזהרה, המזכיר לנו שהחתירה לחדשנות AI חייבת להיות מאוזנת עם שיקול דעת זהיר של הסיכונים הפוטנציאליים וההשלכות החברתיות.