הופעתם של מודלי בינה מלאכותית (AI) מתוחכמים כמו R1 של DeepSeek יצרה אדוות בנוף הטכנולוגי המערבי, ועוררה צורך בחשבון נפש לגבי אסטרטגיות פיתוח AI, במיוחד סביב הדרישות המתחרות לעיתים קרובות של עלות-תועלת ויכולות קצה. עם זאת, ההשלכות חורגות הרבה מעבר למדדים טכניים גרידא או יעילות כלכלית. המסלול שמדגישה DeepSeek מאלץ שיקול דעת עמוק ודחוף יותר: מה משמעות עלייתם של סוגים מסוימים של AI, במיוחד אלה המקודמים על ידי מדינות לא-דמוקרטיות, עבור בריאותה ועקרונותיה העתידיים של הדמוקרטיה עצמה בעידן המעוצב יותר ויותר על ידי אלגוריתמים?
בלב האתגר הזה נמצא המושג AI בקוד פתוח (open-source AI). הכוונה היא למערכות AI שבהן הרכיבים הבסיסיים – החל מהקוד הבסיסי ועד למאגרי הנתונים המשמשים לאימון – נעשים נגישים לציבור. שקיפות זו מאפשרת למשתמשים לא רק להשתמש בכלים אלא גם ללמוד את פעולתם הפנימית, לשנות אותם למטרות ספציפיות ולשתף את החידושים שלהם. בעוד שההגדרה המדויקת של ‘קוד פתוח’ בהקשר של מודלי AI מורכבים עדיין נתונה לוויכוח, הפוטנציאל שלה עצום. היא מבטיחה לדמוקרטיזציה של פיתוח AI, תוך טיפוח אקוסיסטם תוסס שבו מפתחים יכולים לשתף פעולה ולהתבסס על עבודתם של אחרים. רוח שיתופית זו יכולה להעצים יחידים, חוקרים וקהילות להתאים פתרונות AI למגזרים קריטיים כמו חינוך, אספקת שירותי בריאות ושירותים פיננסיים, ועלולה לפתוח חדשנות משמעותית ולהאיץ את ההתקדמות הכלכלית בכל התחומים.
עם זאת, שדרה טכנולוגית מבטיחה זו נושאת מורכבויות וסיכונים מובנים, במיוחד בנוגע לממשל שלה ולערכים הבסיסיים שלה. דיווחים סביב מודל DeepSeek R1, למשל, מצביעים על כך שהוא עשוי לשלב מנגנונים המצנזרים או מונעים באופן סלקטיבי מידע ממשתמשים. דוגמה בודדת זו מדגישה סכנה גדולה יותר: מדינות דמוקרטיות אינן מסתכנות רק בפיגור במירוץ הטכנולוגי לביצועי AI מעולים. הן ניצבות בפני סכנה קריטית לא פחות של ויתור על שטח בקרב המכריע לעיצוב הממשל של AI, מה שעלול לאפשר למערכות הטבועות בעקרונות אוטוריטריים להתרבות ברחבי העולם, ולהאפיל על אלה שנועדו לקיים נורמות דמוקרטיות כמו חופש הביטוי וגישה למידע.
לכן, הרגע הנוכחי דורש תגובה פרואקטיבית ומתואמת. חיוני שארצות הברית תיצור שותפות חזקה עם בעלות בריתה הדמוקרטיות, כאשר האיחוד האירופי הוא שותף חיוני במיוחד, כדי לקבוע סטנדרטים גלובליים ושיטות עבודה מומלצות ספציפית עבור AI בקוד פתוח. תוך מינוף המסגרות החקיקתיות הקיימות שלהן והשפעתן הניכרת בשוק, שותפים טרנס-אטלנטיים אלה צריכים להוביל את יצירת מבנה ממשל חזק לתחום המתפתח הזה. צעד ראשון קריטי כרוך בהתלכדות רשמית סביב הגדרה פונקציונלית של AI בקוד פתוח כדי להבטיח בהירות ויעילות רגולטורית. בעקבות זאת, נדרשת האצה מתואמת של המאמצים להבטיח שערכים דמוקרטיים – שקיפות, הוגנות, אחריות וכבוד לזכויות יסוד – מוטמעים עמוק בתוך מודלי ה-AI בקוד פתוח המפותחים ומקודמים. דחיפה אסטרטגית כזו חיונית כדי לסלול את הדרך לעתיד AI שהוא באמת פתוח, שקוף ומעצים לכולם, במקום כזה המעוצב בעדינות על ידי שליטה אוטוקרטית.
החיבוק המחושב של סין לפתיחות
הבנת הדינמיקה הנוכחית דורשת הערכה של התמרונים האסטרטגיים של סין בתחום ה-AI. חלק מההצלחה הבולטת של DeepSeek אינו רק יכולת טכנית; הוא מתיישב עם איתותים ברורים יותר ויותר מהמפלגה הקומוניסטית הסינית (CCP) המצביעים על כוונה לשלב את קביעת הנורמות של AI בקוד פתוח ישירות בארכיטקטורה המשפטית והמדינית שלה. אינדיקטור משמעותי הגיע באפריל 2024 עם טיוטת חוק ה-AI המודלי. מסמך זה מפרט במפורש את תמיכתה של בייג’ינג בטיפוח אקוסיסטם מקומי של AI בקוד פתוח.
סעיף 19 של טיוטת חוק זו מכריז כי המדינה “מק_דמת בנייה של אקוסיסטם הקוד הפתוח” ו”תומכת באופן פעיל בגופים רלוונטיים בבנייה או תפעול של פלטפורמות קוד פתוח, קהילות קוד פתוח ופרויקטים של קוד פתוח”. הוא מרחיק לכת עוד יותר, ומעודד חברות להפוך “קוד מקור של תוכנה, עיצובי חומרה ושירותי יישומים לזמינים לציבור”, לכאורה כדי לטפח שיתוף כלל-תעשייתי וחדשנות שיתופית. אולי באופן המעיד ביותר, הטיוטה מציעה להפחית או אפילו להסיר אחריות משפטית מגופים המספקים מודלי AI בקוד פתוח, בכפוף להקמת מערכות ממשל התואמות ל”סטנדרטים לאומיים” ויישום “אמצעי בטיחות מתאימים”. זה מייצג שינוי פוטנציאלי משמעותי מחקיקה קודמת הקשורה ל-AI בסין, שלעתים קרובות הדגישה את ההגנה על זכויות המשתמש באופן מפורש יותר. למרות שזו עדיין טיוטה, ההוראות הספציפיות בתוך חוק ה-AI המודלי מציעות תוכנית אב חשובה, החושפת כיצד סין חוזה פריסה של AI בקוד פתוח באופן מקומי, ובאופן מכריע, אילו מאפיינים עשויים להיות למודלי ה-AI המיוצאים שלה.
חיזוק נוסף לכיוון אסטרטגי זה הוא מסגרת ממשל בטיחות ה-AI, מסמך שסין מתכוונת למנף בינלאומית כדי “לקדם שיתוף פעולה בינלאומי בנושא ממשל בטיחות AI ברמה גלובלית”. מסגרת זו מהדהדת את התקיפות הגוברת של המדינה בנוגע ל-AI בקוד פתוח. המסגרת, שנוסחה על ידי הוועדה הטכנית הלאומית 260 של סין בנושא אבטחת סייבר – גוף הקשור קשר הדוק למינהל הסייברספייס החזק של סין, שהנחיות אבטחת הסייבר שלו אומצו רשמית על ידי ה-CCP בספטמבר 2024 – קובעת באופן חד משמעי: “עלינו לקדם שיתוף ידע ב-AI, להפוך טכנולוגיות AI לזמינות לציבור בתנאי קוד פתוח, ולפתח במשותף שבבי AI, מסגרות ותוכנה”. הכללת הצהרה חזקה כזו במסמך המיועד לקהל גלובלי מאותתת בבירור על שאיפתה של סין לא רק להשתתף בתנועת ה-AI בקוד פתוח, אלא למצב את עצמה כתומכת מובילה וקובעת סטנדרטים בתחום טכנולוגי קריטי זה. חיבוק מחושב זה של ‘פתיחות’, עם זאת, פועל בתוך סביבה מבוקרת באופן מובהק, במטרה לרתום את כוח החדשנות של הקוד הפתוח תוך שמירה על התאמה ליעדי המדינה.
ההיסוס של אמריקה: הגנה על פני כיוון
מעבר לאוקיינוס השקט, הנרטיב סביב AI בקוד פתוח בארצות הברית מציג מחקר בניגודים. מזה זמן מה, תומכים בתעשיית הטכנולוגיה ובאקדמיה דוגלים ביתרונות הניכרים של גישות קוד פתוח. דמויות בולטות בתעשייה קראו בפומבי לממשלת ארה”ב לשים דגש אסטרטגי גדול יותר על טיפוח פיתוח AI בקוד פתוח. דוגמה בולטת היא השקתו של Mark Zuckerberg את מודל הקוד הפתוח Llama 3.1, בליווי טענתו כי קוד פתוח “מייצג את הסיכוי הטוב ביותר של העולם” ליצירת “הזדמנות כלכלית וביטחון לכולם” באופן נרחב.
למרות תמיכה קולנית זו מצד גורמים משפיעים, ארצות הברית נכשלה באופן בולט בביסוס מסגרת חקיקתית משמעותית כלשהי שנועדה במיוחד לקדם או להנחות את הפיתוח של AI בקוד פתוח. בעוד שסנאטור אמריקאי הציג הצעת חוק בשנת 2023 שמטרתה לבנות מסגרת לאבטחת תוכנה בקוד פתוח, חקיקה זו נתקעה ללא התקדמות משמעותית. סוכנויות פדרליות נגעו בנושא, אך לעתים קרובות בעמדה זהירה או תגובתית. בשנה שעברה, המינהל הלאומי לתקשורת ומידע (NTIA) פרסם דוח הבוחן מודלי יסוד של AI לשימוש כפול עם ‘משקלים פתוחים’ (‘open weights’). חשוב לציין ש’משקלים פתוחים’ בדרך כלל מסמלים שהפרמטרים של המודל זמינים לשימוש, אך זה לא בהכרח עומד בקריטריונים המלאים להיות קוד פתוח באמת (שלעתים קרובות כולל גישה לנתוני אימון ולקוד). דוח ה-NTIA יעץ לממשלה להגביר את הניטור שלה אחר הסיכונים הפוטנציאליים הקשורים למודלים אלה עם משקלים פתוחים כדי לקבוע טוב יותר הגבלות מתאימות. לאחר מכן, מסגרת הרגולציה הסופית של ממשל ביידן בנושא AI אימצה עמדה מקלה מעט יותר כלפי מודלים פתוחים, וקבעה דרישות מחמירות יותר עבור המודלים החזקים ביותר עם משקלים סגורים (‘closed-weight’) תוך החרגה במידה רבה של מודלים עם משקלים פתוחים ממגבלות ספציפיות אלה.
עם זאת, אסטרטגיה לאומית ברורה ופרואקטיבית לתמיכה ב-AI דמוקרטי בקוד פתוח נותרה חמקמקה. הכיוון העתידי תחת שינויי מנהיגות פוטנציאליים מוסיף שכבה נוספת של אי ודאות. הנשיא לשעבר Donald Trump לא ניסח מדיניות או הנחיה ספציפית בנוגע ל-AI בקוד פתוח. בעוד שהוא ביטל את הצו הנשיאותי הראשוני של הנשיא ביידן בנושא AI, הצו החלופי שהוצא לא פירט יוזמות קונקרטיות כלשהן המוקדשות לטיפוח או הכוונה של פיתוח AI בקוד פתוח.
בסך הכל, הגישה האמריקאית נראית הגנתית בעיקרה. נראה שהמוקד העיקרי הוא על פיתוח מודלי AI בעלי יכולת גבוהה, לעתים קרובות קנייניים, תוך השקעת מאמץ משמעותי במניעת גישה של יריבים, במיוחד סין, לטכנולוגיית מוליכים למחצה מתקדמת וליכולות AI. עמדה הגנתית זו, למרות שהיא מובנת מנקודת מבט של ביטחון לאומי, מסתכנת בהזנחת האסטרטגיה ההתקפית המכרעת: טיפוח וקידום פעיל של אקוסיסטם גלובלי של AI בקוד פתוח המושרש בעקרונות דמוקרטיים. נראה שארה”ב עסוקה בשמירה על מבצריה הטכנולוגיים, ועלולה להחמיץ את ההזדמנות לעצב את הנוף הגלובלי הרחב יותר באמצעות הפצה פרואקטיבית של חלופות AI פתוחות ומכבדות זכויות.
פרדוקס הרגולציה של אירופה: כוח ושיתוק
האיחוד האירופי, הידוע בעמדתו הרגולטורית התקיפה בתחום הדיגיטלי, מציג סוג אחר של אתגר בנוגע ל-AI בקוד פתוח. מאז היישום ההיסטורי של תקנת הגנת המידע הכללית (GDPR), האיחוד האירופי הצליח למצב את עצמו כקובע סטנדרטים גלובלי עבור הכלכלה הדיגיטלית. מדינות ותאגידים רב-לאומיים ברחבי העולם מתאימים לעתים קרובות את נוהליהם למסגרות התאימות של האיחוד האירופי, מגמה המתרחבת לתחום הבינה המלאכותית עם הופעתו של חוק ה-AI המקיף של האיחוד האירופי (EU AI Act). חוק זה נועד לקבוע תקנות מבוססות סיכון למערכות AI ברחבי האיחוד.
עם זאת, כשמדובר בהתייחסות ספציפית ל-AI בקוד פתוח, המנגנון הרגולטורי האימתני של האיחוד האירופי נראה מהסס באופן מפתיע ומאמציו מעט לא מפותחים. סעיף 2 של חוק ה-AI אכן מכיל אזכור קצר, המגדיר פטורים מסוימים מרגולציה עבור מודלי AI בקוד פתוח. עם זאת, ההשפעה המעשית של פטור זה נראית מוגבלת, במיוחד מכיוון שהוא בדרך כלל אינו חל על מודלים הפרוסים למטרות מסחריות. היקף צר זה מצמצם באופן משמעותי את השפעתו בעולם האמיתי על נוף ה-AI בקוד פתוח המתפתח.
מצב פרדוקסלי זה – הכרה בקוד פתוח תוך כישלון בטיפוחו הפעיל – נמשך במסמכי הנחיה אחרים של האיחוד האירופי. קוד הנוהג העדכני ביותר ל-AI לשימוש כללי, שפורסם באופן היפותטי במרץ 2025 לצורך דיון זה, עשוי להכיר בתרומות החיוביות של מודלי קוד פתוח לפיתוח AI בטוח, ממוקד-אדם ואמין. עם זאת, מסמכים כאלה חסרים לעתים קרובות פירוט משמעותי או צעדים קונקרטיים שנועדו לקדם באופן פעיל את הפיתוח והאימוץ הנרחב של מודלי AI אלה בקוד פתוח שעשויים להיות מועילים. אפילו בתוך מסגרות אסטרטגיות כמו מצפן התחרותיות של האיחוד האירופי – שנועד לכאורה להתמודד עם רגולציית יתר ולחזק את התחרותיות האסטרטגית בתחומי מפתח כמו AI – המונח ‘קוד פתוח’ נעדר באופן בולט או זוכה לתשומת לב מינימלית.
גישה זהירה זו, כמעט מאופקת, מצד בריסל כלפי אימוץ ורגולציה מלאים של AI בקוד פתוח נובעת ככל הנראה ממספר גורמים. מכשול משמעותי אחד הוא הקושי המובנה בהגדרה מדויקת של AI בקוד פתוח. בניגוד לתוכנת קוד פתוח מסורתית, הכוללת בעיקר קוד מקור, AI בקוד פתוח כולל מודלים מורכבים שאומנו מראש, מאגרי נתונים עצומים וארכיטקטורות סבוכות. היעדר הגדרה משפטית מקובלת אוניברסלית, למרות מאמצים של ארגונים כמו יוזמת הקוד הפתוח (OSI), יוצר רמה של אי ודאות משפטית שגופי רגולציה כמו הנציבות האירופית (European Commission) בדרך כלל אינם חשים בנוח איתה.
עם זאת, המניע הבסיסי לחוסר הפעילות היחסי הזה עשוי להיות עמוק יותר. עצם הצלחתו של האיחוד האירופי בביסוס משטרי רגולציה מרחיקי לכת כמו GDPR עשויה לגרום לנציבות לחשוש מיצירת פטורים רחבים לטכנולוגיה חזקה ומתפתחת במהירות כמו AI, במיוחד כאשר הגרסה שלה בקוד פתוח נותרה מוגדרת באופן חלקי. ייתכן שקיים חשש שאימוץ AI בקוד פתוח בקלות רבה מדי, ללא מעקות בטיחות מבוססים לחלוטין, עלול להחליש בשוגג את ההשפעה הרגולטורית הגלובלית שהושגה בעמל רב על ידי האיחוד האירופי. זה מהווה הימור אסטרטגי – מתן עדיפות לשליטה מקיפה על פני טיפוח פוטנציאלי של אקוסיסטם חדשנות פתוח דינמי יותר, אם כי פחות צפוי – הימור שבריסל, עד כה, הראתה תיאבון מועט לנקוט בו באופן נחרץ. שיתוק רגולטורי זה מותיר ואקום שאחרים ממלאים ברצון.
הנוף הגיאופוליטי המשתנה של AI
הצטלבות הדחיפה האסטרטגית של סין ל-AI בקוד פתוח וההיסוס היחסי של ארצות הברית והאיחוד האירופי מעצבת מחדש באופן פעיל את השטח הגיאופוליטי של הבינה המלאכותית. הדחף הנחוש של סין לעבר עצמאות טכנולוגית, קמפיין שכעת כולל בבירור גיבוש אסטרטגיות סביב AI בקוד פתוח, יכול להיות מובן בחלקו כתגובה לבקרות יצוא אמריקאיות מתמשכות המכוונות לחומרת מחשוב מתקדמת ומוליכים למחצה, צעדים שיושמו עקב חששות אמריקאיים לגבי ביטחון לאומי, תחרותיות כלכלית והגנה על קניין רוחני עוד מלפני מספר שנים. צעדי הנגד של סין, כולל אימוץ הקוד הפתוח, משקפים את התחרות האסטרטגית הרחבה והמתעצמת על עליונות טכנולוגית בין שתי המעצמות הגלובליות. האיחוד האירופי, בינתיים, בדרך כלל מפעיל את השפעתו במירוץ זה לא באמצעות תחרות טכנולוגית ישירה באותו קנה מידה, אלא על ידי קביעת נורמות גלובליות המתמקדות בהגנה על זכויות יסוד, פרטיות וערכים דמוקרטיים כמו הוגנות ואחריות אלגוריתמית – סטנדרטים שאכן עיצבו את המדיניות של חברות טכנולוגיה גלובליות גדולות.
עם זאת, על ידי מיצוב עצמה באגרסיביות כמובילה ותומכת ב-AI בקוד פתוח, סין הופכת בחוכמה אתגר – גישה מוגבלת לטכנולוגיות מערביות מסוימות – להזדמנות אסטרטגית. היא למעשה יוצרת ומשווקת גרסה ייחודית משלה לפתיחות AI לקהילה הגלובלית, במיוחד למדינות מתפתחות המחפשות כלי AI נגישים. הופעתם של מודלים סיניים בעלי יכולת כמו R1 של DeepSeek, לצד הצעות מענקיות טכנולוגיה מקומיות אחרות כגון Alibaba, מתחילה לשנות את הדינמיקה הגלובלית. היא עשויה להפחית את התיאבון הגלובלי למודלי AI סגורים וקנייניים בלבד, במיוחד אם חלופות פתוחות נראות נגישות יותר או חסכוניות יותר. DeepSeek, למשל, שחררה מודלים קטנים יותר, הדורשים פחות כוח חישובי, המתאימים למכשירים עם כוח עיבוד מוגבל. פלטפורמות כמו Hugging Face, מרכז מרכזי לפיתוח AI, החלו על פי הדיווחים לנתח ולשכפל היבטים של שיטות האימון של DeepSeek-R1 כדי לשפר את המודלים שלהן. אפילו ענקיות טכנולוגיה מערביות כמו Microsoft, OpenAI ו-Meta בוחנות יותר ויותר טכניקות כמו זיקוק מודלים (model distillation), שזכו לבולטות חלקית עקב התפתחויות DeepSeek.
נוף מתפתח זה חושף את סין מקדמת באופן פרואקטיבי את השיח הגלובלי סביב פתיחות AI, ומאלצת את ארצות הברית, לראשונה, להגיב ולהסתגל לשיח זה. במקביל, האיחוד האירופי נותר לכוד במידה מסוימת במצב של אינרציה משפטית ורגולטורית בנוגע לקוד פתוח. אסימטריה זו יוצרת חוסר איזון כוחות בולט דווקא בתחום המכריע של ממשל והפצת AI בקוד פתוח.
באופן מכריע, הגרסה של AI בקוד פתוח המופצת על ידי סין נושאת חששות משמעותיים עבור חברות דמוקרטיות. נראה שה-CCP מיישמת באופן אסטרטגי מערכת ‘דו-מסלולית’: עידוד פתיחות ושיתוף פעולה יחסיים בין מפתחי AI וחברות כדי להניע חדשנות, תוך הטמעת בקרות ומגבלות במודלים הפונים לציבור כדי להגביל את זרימת המידע וחופש הביטוי. ‘פתיחות’ זו מותנית בכבדות בדפוסי השליטה הטכנולוגית המבוססים של סין, ולעתים קרובות דורשת שקלטי ופלטי המודל יתאימו לנרטיבים המאושרים על ידי המדינה, לערכי ה-CCP, ויקרינו תדמית לאומית חיובית. אפילו בתוך מסגרת ממשל בטיחות ה-AI הגלובלית שלה, שבה הרשויות הסיניות מאמצות בגלוי עקרונות קוד פתוח, יש שפה מעידה על תוכן שנוצר על ידי AI המהווה איומים על ‘ביטחון אידיאולוגי’ – איתות ברור למגבלות המובנות של ה-CCP על חופש המחשבה והדיבור.
ללא מסגרת חלופית חזקה המבוססת על הגנה על עקרונות דמוקרטיים וזכויות אדם בסיסיות, העולם מסתכן בצפייה בשכפול ואימוץ נרחבים של הפרשנות המגבילה יותר של סין ל-AI בקוד פתוח. משטרים אוטוריטריים ואולי אפילו שחקנים לא-מדינתיים ברחבי העולם יוכלו לבנות בקלות על מודלים אלה, ולאפשר צנזורה ומעקב מתוחכמים תוך טענה מטעה שהם פשוט מקדמים נגישות טכנולוגית. התמקדות אך ורק בהתאמת הביצועים הטכנולוגיים של סין אינה מספיקה אפוא. דמוקרטיות חייבות להגיב באופן אסטרטגי על ידי נטילת ההובלה בביסוס וקידום ממשל דמוקרטי לעידן ה-AI בקוד פתוח.
סלילת דרך טרנס-אטלנטית קדימה
המסלול הנוכחי דורש פעולה נחרצת ושיתוף פעולה מחודש בין הדמוקרטיות המובילות בעולם. ארצות הברית והאיחוד האירופי צריכות לשקול ברצינות יציאה לאסטרטגיה של דיפלומטיית קוד פתוח. הדבר כרוך בקידום פרואקטיבי של פיתוח ושיתוף של מודלי AI בעלי יכולת, אמינים ומכבדי זכויות ברחבי העולם כמשקל נגד לחלופות אוטוריטריות. מרכזי למאמץ זה הוא יצירת מסגרת ממשל מאוחדת ל-AI בקוד פתוח, שתפותח במשותף על ידי ארה”ב והאיחוד האירופי.
כדי לעצב ביעילות עתיד AI דמוקרטי, הקמת קבוצת עבודה טרנס-אטלנטית ייעודית בנושא AI בקוד פתוח היא צעד קריטי הבא. קבוצה זו צריכה למנף מבנים קיימים היכן שמתאים, כגון השותפות הגלובלית לבינה מלאכותית (GPAI), אך חייבת להבטיח באופן מכריע את ההשתתפות הפעילה והתשומה של חברות טכנולוגיה מובילות, חוקרים אקדמיים ומומחי חברה אזרחית משני צדי האוקיינוס האטלנטי לאורך תהליך פיתוח המסגרת. גישה מכלילה זו חיונית ליצירת סטנדרטים שהם גם עקרוניים וגם מעשיים.
שנית, הן ארצות הברית והן האיחוד האירופי צריכות להשקיע משאבים מוחשיים מאחורי חזון זה. משמעות הדבר היא הפניית מימון אסטרטגית למוסדות אקדמיים, מעבדות מחקר וסטארט-אפים חדשניים המתמקדים באופן ספציפי בפיתוח מודלי AI בקוד פתוח המתיישרים במפורש עם ערכים דמוקרטיים. מאפיינים מרכזיים של מודלים כאלה יכללו:
- שקיפות בעיצוב ובנתוני האימון.
- אמצעי הגנה חזקים מפני צנזורה ומניפולציה.
- מנגנונים לאחריות והפחתת הטיות.
- כבוד מובנה לפרטיות ולזכויות יסוד.
קידום מודלים דמוקרטיים אלה דורש הכרה ברורה מצד קובעי המדיניות הן בוושינגטון והן בבריסל בכך שהיתרונות האסטרטגיים ארוכי הטווח של טיפוח אקוסיסטם גלובלי המבוסס על עקרונות אלה עולים באופן משמעותי על הסיכונים הנתפסים לטווח הקצר הקשורים לפתיחות. במקביל, האיחוד האירופי חייב למנף את יכולתו הרגולטורית המבו