מג'איפור ל-DeepSeek: קוד פתוח ו-AI

פסטיבל ספרות, גילוי AI

לפני מספר שבועות, פסטיבל הספרות התוסס של ג’איפור (JLF) בהודו הפך לפורום בלתי צפוי לדיון מכריע על עתיד הבינה המלאכותית. במהלך פאנל שעסק לכאורה במורשת האימפריה, השיחה קיבלה תפנית חדה. הקהל, מרותק לספרו של פנקאג’ מישרה ‘מתוך חורבות האימפריה: המרד נגד המערב והעיצוב מחדש של אסיה’, הציג שורה של שאלות נוקבות, לא על ספרות, אלא על DeepSeek, מודל AI גנרטיבי חדש מסין.

שאלות אלו – איך הגענו לכאן? כיצד אנו מעצבים את הדרך הטובה ביותר האפשרית לעתיד הבינה המלאכותית? מדוע קוד פתוח הוא המפתח בפיתוח AI? – הדהדו הרבה מעבר לגבולות הפסטיבל. הן נגעו ביריבות היסטורית עמוקה, בכיסופים לעצמאות, ובתנועה עולמית גוברת הדוגלת בגישה פתוחה ושיתופית יותר לפיתוח AI.

השורשים ההיסטוריים של קבלת הפנים של DeepSeek

הופעתה של DeepSeek בפסטיבל ספרות עשויה להיראות מוזרה. עם זאת, בולטותה שזורה עמוק באירועים היסטוריים וביריבות ארוכת שנים, במיוחד בין אסיה למערב. בעוד שמעבדות AI אירופיות זכו לשבחים על פריצות הדרך שלהן בקוד פתוח, קבלת הפנים של DeepSeek באסיה נושאת תהודה היסטורית עמוקה הרבה יותר.

השקת DeepSeek זכתה לסיקור תקשורתי אינטנסיבי. קבלת הפנים שלה ב-JLF חשפה רגש שחרג מדיונים גרידא על ביצועי AI. סופרים ועיתונאים הודים, שלעתים קרובות מבקרים את סין, מצאו את עצמם מאוחדים במאבק משותף נגד הדומיננטיות של תאגידי AI אמריקאיים (AICs). ההתלהבות הזו מ-DeepSeek ברחבי אסיה נעוצה בהיסטוריה הקולוניאלית, ולאחרונה, בהצהרות תאגידיות פרובוקטיביות.

AI: מאבק מודרני לעצמאות

עבור סטיבן פלאט, מחבר הספר ‘דמדומי האימפריה: מלחמת האופיום וסוף תור הזהב האחרון של סין’, השאיפות הטכנולוגיות של סין אינן ניתנות להפרדה מהצלקות ההיסטוריות שלה. מלחמות האופיום (1839–1860) משמשות כסמל רב עוצמה לאופן שבו העליונות הטכנולוגית והצבאית של בריטניה השפילה את סין. “מאה השנים של ההשפלה” הזו מתדלקת את הדחף הנוכחי של סין לעצמאות, את ההשקעות האגרסיביות שלה ב-AI, מוליכים למחצה וטכנולוגיות קריטיות אחרות. זוהי נחישות להימנע מתלות בטכנולוגיה מערבית, לקח שנחרט בתודעה הלאומית.

חברי הפאנל ההודים ב-JLF מצאו בסיס משותף בנרטיב הזה. כמו סין, הודו נושאת את חותמה האפל של השפעת חברת הודו המזרחית הבריטית. יתרה מכך, העיתונאית הבריטית אניטה אנאנד הדגישה סרטון שנוי במחלוקת של מנכ”ל OpenAI, סם אלטמן, שביטל את הפוטנציאל של הודו להתחרות ב-AICs באימון מודלי בסיס, וקבע שזה “חסר סיכוי לחלוטין”. הערות כאלה רק חיזקו את הנחישות לעצמאות באזור.

AI בקוד פתוח: סמל להתנגדות

DeepSeek, ומעבדות אירופיות שקדמו לה, הציעו קרן אור במרוץ ה-AI. הבחירה שלהם לאמץ קוד פתוח הפכה לסמל רב עוצמה של התנגדות לדומיננטיות של מודלי AI קנייניים.

יש להבין את שחרור DeepSeek R1 בהקשר של יריבות מושרשת עמוק, במיוחד עם ארצות הברית. יריבות זו כה עמוקה עד שלעתים קרובות מתעלמים מאירופה בדיונים על תחרות עם טכנולוגיה אמריקאית.

הדומיננטיות של AICs אף עוררה השוואות לקולוניאליזם במערב. במאמר דעה מאוגוסט 2024 שכותרתו ‘עליית הטכנו-קולוניאליזם’, כתבו הרמן האוזר, חבר במועצת החדשנות האירופית, והאזם דני נקיב, חוקר בכיר ביוניברסיטי קולג’ לונדון (UCL): ‘בניגוד לקולוניאליזם של פעם, טכנו-קולוניאליזם אינו עוסק בתפיסת שטח אלא בשליטה בטכנולוגיות העומדות בבסיס הכלכלה העולמית וחיי היומיום שלנו. כדי להשיג זאת, ארה”ב וסין מגדילות את החלקים החדשניים והמורכבים ביותר של שרשראות האספקה העולמיות, ובכך יוצרות נקודות חנק אסטרטגיות.’

הגישה החלוצית של קוד פתוח של מעבדות AI אירופיות כמו Mistral, kyutai, וצוות FAIR Paris של Meta, ועכשיו DeepSeek, הציגה אלטרנטיבה משכנעת לאסטרטגיית מודל ה-AI הקנייני של ה-AICs. תרומות קוד פתוח אלו מהדהדות ברחבי העולם וחיזקו עוד יותר את אימוץ ה-AI בקוד פתוח כסמל להתנגדות לדומיננטיות ה-AI האמריקאית.

הטיעון בעד קוד פתוח: ההיסטוריה מתחרזת

שיתוף פעולה טכנולוגי משגשג על אנרגיה ומהירות, דבר שטבוע באבולוציה של קוד תוכנה.

חתן פרס נובל הצרפתי לכלכלה, ז’אן טירול, שהיה בתחילה מבולבל מהופעת הקוד הפתוח, שאל במאמרו משנת 2000 עם ג’וש לרנר, ‘הכלכלה הפשוטה של קוד פתוח’: ‘מדוע אלפי מתכנתים מהשורה הראשונה צריכים לתרום בחופשיות לאספקת מוצר ציבורי? כל הסבר המבוסס על אלטרואיזם מגיע רק עד גבול מסוים.’

אמנם מובן באותה תקופה, אך כל מי שעוקב אחר התקדמות ה-AI בשנים האחרונות, במיוחד לאחר שחרור DeepSeek R1, ימצא את התשובה מובנת מאליה. ההשפעה של FAIR Paris ב-Meta על פתיחת הקוד של Llama, העלייה המטאורית של Mistral ומייסדיה באמצעות פתיחת הקוד של מודל למידת שפה (LLM) של 7B, ו-DeepSeek R1 מדגימים את הסיבות המשכנעות מאחורי מסירותם של מתכנתים ומדענים אלה לקוד פתוח.

זה גם מבהיר מדוע סם אלטמן ומייסדיו בחרו בשם “OpenAI” כדי למשוך כישרונות. האם איזושהי ממעבדות החזית הללו הייתה משיגה פרסום כה מהדהד ובנתה מותגים אישיים כה חזקים בתוך קהילת ה-AI לו היו בוחרים בגישה קניינית? התשובה היא לא מהדהד.

שני ציטוטים רבי עוצמה משנת 1999, מאת המתכנת ריצ’רד סטולמן והמפתח אריק ריימונד, בהתאמה, הכלולים בתחילת המאמר, מאירים את קבלת הפנים של DeepSeek ב-JLF ומדגישים את הכוחות האידיאולוגיים העמוקים יותר הפועלים:

  • ‘הרעיון שהמערכת החברתית של תוכנה קניינית – המערכת שאומרת שאסור לך לשתף או לשנות תוכנה – היא אנטי-חברתית, שהיא לא אתית, שהיא פשוט שגויה, עשוי להפתיע אנשים מסוימים. אבל מה עוד נוכל לומר על מערכת המבוססת על חלוקת הציבור והשארת משתמשים חסרי אונים?’ - ריצ’רד סטולמן

  • ‘פונקציית התועלת שממקסמים האקרים של לינוקס אינה כלכלית קלאסית, אלא היא הבלתי מוחשית של סיפוק האגו שלהם והמוניטין שלהם בקרב האקרים אחרים. … תרבויות התנדבותיות שפועלות כך אינן נדירות למעשה; אחת נוספת שבה השתתפתי זמן רב היא קהילת חובבי המדע הבדיוני, שבניגוד לקהילת ההאקרים מכירה במפורש ב-egoboo (שיפור המוניטין של האדם בקרב מעריצים אחרים).’ - אריק ריימונד

מסלול ההתפתחות של Unix בשנות ה-70 וה-80 מספק אנלוגיה משכנעת למצבה הנוכחי של הבינה המלאכותית. הקידום הראשוני וההפצה החינמית של Unix בתוך האקדמיה על ידי AT&T טיפחו חדשנות ואימוץ. עם זאת, כאשר AT&T הטילה רישיון קנייני בסוף שנות ה-70, זה הוביל באופן בלתי נמנע את אוניברסיטת ברקלי להשיק את BSD Unix, אלטרנטיבה פתוחה, ובסופו של דבר את לינוס טורבאלדס ליצור את לינוקס. הפיתוח של לינוקס על ידי טורבאלדס באירופה העביר את מוקד התוכנה בקוד פתוח הרחק מארה”ב.

המקבילות בולטות, אפילו מבחינה גיאוגרפית, עם האבולוציה של AI. הפעם, לעומת זאת, צצו גיאוגרפיות חדשות: TII של אבו דאבי עם מודלי Falcon שלה, DeepSeek של סין, Qwen של עליבאבא, ולאחרונה, מעבדת Krutrim AI של הודו עם המודלים שלה בקוד פתוח לשפות הודיות.

צוות Meta FAIR Paris, יחד עם מעבדות AI אירופיות מובילות ומעבדות חזית חדשות יותר (DeepSeek, Falcon, Qwen, Krutrim), האיצו משמעותית את החדשנות בתחום ה-AI. על ידי שיתוף גלוי של מאמרי מחקר וקוד, הם:

  • הכשירו דור חדש של מהנדסי וחוקרי AI בטכניקות AI חדישות.
  • יצרו מערכת אקולוגית של שיתוף פעולה פתוח, המאפשרת התקדמות מהירה מחוץ למעבדות AI קנייניות.
  • סיפקו מודלי AI חלופיים, המבטיחים ש-AI לא יהיה מונופול של תאגידי AI אמריקאיים.

ארבע המערכות האקולוגיות הללו (אירופה, הודו, אבו דאבי וסין) יכולות ליצור ברית AI רבת עוצמה בקוד פתוח כדי לאתגר את ה-AICs הדומיננטיים שעדיין פועלים תחת חשיבה של AI קנייני.

בשאלה ותשובה (AMA) ב-31 בינואר 2025, בעקבות שחרור DeepSeek R1, אלטמן הודה שגישת מודל ה-AI הקנייני הייתה בצד הלא נכון של ההיסטוריה.

בבוא העת, מעבדות AI ברחבי העולם עשויות לבחור להצטרף לברית זו כדי לקדם באופן קולקטיבי את התחום. זו לא תהיה הפעם הראשונה שתחום מדעי חוצה גבולות ואידיאולוגיות פוליטיות באמצעות יוזמה ללא מטרות רווח. היא מציעה אופן תחרות שנמנע מהפעלת התלונות האנטי-קולוניאליות המובעות לעתים קרובות על ידי הדרום הגלובלי.

תקדימים היסטוריים: פרויקט הגנום האנושי כמודל ל-AI

כביולוג, אני מודע במיוחד להישגים של פרויקט הגנום האנושי (HGP) וכיצד הוא בסופו של דבר עלה על היוזמה למטרות רווח של Celera Genomics, והועיל לתחום ולאנושות כולה.

ה-HGP היה יוזמת מחקר בינלאומית פורצת דרך שמיפתה וריצפה את כל הגנום האנושי. הוא הושלם בשנת 2003 לאחר 13 שנות שיתוף פעולה, והניב השפעה כלכלית של כמעט 800 מיליארד דולר מהשקעה של 3 מיליארד דולר, על פי דו”ח משנת 2011 שעודכן בשנת 2013 (החזר השקעה לכלכלת ארה”ב של 141 לאחד – כל דולר של השקעה פדרלית ב-HGP תרם ליצירת 141 דולר בכלכלה). הוא חולל מהפכה ברפואה, בביוטכנולוגיה ובגנטיקה, ואפשר התקדמות ברפואה מותאמת אישית, מניעת מחלות ומחקר גנומי. עבודת הריצוף והמחקר בוצעו על ידי 20 מעבדות בשש מדינות: ארה”ב, בריטניה, צרפת, גרמניה, יפן וסין.

בעוד ש-Celera Genomics ניסתה לרצף רצפים גנומיים למטרות רווח, ה-HGP תעדף שיתוף נתונים פתוח, המעוגן בעקרונות ברמודה שלו. עקרונות אלה, שנקבעו במהלך פגישת האסטרטגיה הבינלאומית בנושא ריצוף הגנום האנושי בברמודה בפברואר 1996, היו חיוניים בעיצוב מדיניות שיתוף הנתונים עבור ה-HGP והייתה להם השפעה מתמשכת על נוהלי המחקר הגנומי ברחבי העולם. עקרונות המפתח שלו היו:

  1. שחרור נתונים מיידי: כל נתוני הרצף הגנומי האנושי שנוצרו על ידי ה-HGP היו אמורים להתפרסם במאגרי מידע ציבוריים, רצוי תוך 24 שעות מיצירתם. הפצה מהירה זו נועדה להאיץ את הגילוי המדעי ולמקסם את התועלת החברתית.
  2. גישה חופשית ובלתי מוגבלת: הנתונים היו אמורים להיות זמינים באופן חופשי לקהילה המדעית העולמית ולציבור, ללא הגבלות על השימוש בהם למטרות מחקר או פיתוח.
  3. מניעת תביעות קניין רוחני: המשתתפים הסכימו שלא יתבעו זכויות קניין רוחני על נתוני הרצף הגנומי הראשוני, תוך קידום אתוס של מדע פתוח ומניעת מכשולים פוטנציאליים למחקר עקב רישום פטנטים.

מבחינת ממשל, ה-HGP היה יוזמה מדעית שיתופית ומתואמת, ולא ארגון או תאגיד עצמאי. זה היה מאמץ מבוזר שמומן באמצעות מענקים וחוזים ממשלתיים למוסדות מחקר שונים. חלק מתקציבו (3–5%) הוקדש לחקר וטיפול בחששות אתיים, משפטיים וחברתיים הקשורים לריצוף הגנום האנושי.

גישור בין בטיחות AI ל-AI בקוד פתוח

יתרון מכריע נוסף של AI בקוד פתוח הוא תפקידו במחקר בטיחות AI.

פסגת AI בסיאול בשנת 2024 התמקדה באופן בלעדי בסיכונים קיומיים בתקופה שבה ל-AICs היה יתרון משמעותי על פני שאר העולם. עד מאי 2024, מנכ”ל גוגל לשעבר, אריק שמידט, טען שארה”ב מקדימה את סין ב-2–3 שנים ב-AI, בעוד שאירופה עסוקה מדי ברגולציה מכדי להיות רלוונטית. לו הפסגה הייתה מצליחה, היא הייתה למעשה מוותרת על השליטה בהחלטות בטיחות AI לתאגידים אלה. למרבה המזל, זה לא קרה.

כעת, כאשר AI בקוד פתוח מגשר על הפער הטכנולוגי, דיוני בטיחות לא ייקבעו עוד רק על ידי קומץ שחקנים דומיננטיים. במקום זאת, לקבוצה רחבה ומגוונת יותר של בעלי עניין – כולל חוקרים, קובעי מדיניות ומעבדות AI מאירופה, הודו, סין ואבו דאבי – יש הזדמנות לעצב את הדיון לצד ה-AICs.

יתר על כן, AI בקוד פתוח משפר את יכולות ההרתעה העולמיות, ומבטיח שאף שחקן יחיד לא יוכל לנצל לרעה מערכות AI מתקדמות ללא אחריות. גישה מבוזרת זו לבטיחות AI תסייע להפחית איומים קיומיים פוטנציאליים על ידי חלוקת היכולות והפיקוח בצורה שוויונית יותר ברחבי המערכת האקולוגית העולמית של AI.

פרויקט AI אנושי עם עקרונות פריז

איזה תפקיד יכולה למלא פסגת הפעולה של AI בפריז בשבוע הבא בעיצוב עתיד ה-AI?

זוהי הזדמנות מכרעת להקים פרויקט AI אנושי, המבוסס על פרויקט הגנום האנושי, כדי לקדם ולתמוך בפיתוח AI בקוד פתוח בקנה מידה עולמי. התרומות הנוכחיות של קוד פתוח, ממעבדות AI אירופיות חלוציות ועד DeepSeek, כבר מאיצות את התחום ומסייעות לצמצם את הפער עם AICs.

יכולות ה-AI משופרות משמעותית על ידי הבשלות של המערכת האקולוגית הכללית של קוד פתוח, עם אלפי פרויקטים בוגרים, מודלים ייעודיים של ממשל ושילוב עמוק בארגונים, באקדמיה ובממשלה.

המערכת האקולוגית של AI בקוד פתוח נהנית גם מפלטפורמות כמו Github ו-Gitlab. לאחרונה, פלטפורמות ייעודיות ל-AI בקוד פתוח, כגון Hugging Face – תאגיד אמריקאי שנוסד על ידי שלושה יזמים צרפתים – החלו למלא תפקיד חיוני כפלטפורמות הפצה עבור הקהילה.

בהתחשב בבשלות היחסית של המערכת האקולוגית של AI בקוד פתוח בהשוואה לריצוף הגנום האנושי בתחילת שנות ה-90, כיצד AI בקוד פתוח יכול להפיק תועלת מפרויקט AI אנושי?

ראשית, האיחוד האירופי זוכה לעתים קרובות לביקורת מצד AICs ומעבדות AI החזית שלו על הרגולציה שלו על קוד פתוח. פרויקט AI אנושי יכול להקדיש מאמץ משותף לפיתוח התאמה רגולטורית ותקנים בין מדינות ואזורים משתתפים. גישה מתואמת, עם תרומות ראשוניות מאירופה, הודו, אבו דאבי וסין, יכולה להקל על הפצת מודלים בקוד פתוח ברחבי אזור רגולטורי משותף זה (סוג של אזור סחר חופשי לקוד פתוח).

אמנם לא הוכח באופן סופי, אך ישנן הקבלות לדינמיקה המונעת על ידי יריבות שעיצבה את התגובה ל-DeepSeek ב-JLF. באופן דומה, ניתן לעצב רגולציה של AI תוך התמקדות בטיפוח חדשנות ומקסום התועלת הציבורית – הן עבור ארגונים והן עבור צרכנים – במקום לשמש כמנגנון פוטנציאלי לעיכוב ההתקדמות של AICs או להפריע לאלופי AI מקומיים השואפים לצמצם את הפער.

הפרויקט יכול גם להקל על חילופי כישרונות ולממן תשתית מחשוב משותפת (המקושרת לתשתית אנרגיה) עבור AI בקוד פתוח. ניכר מהתרשים שלהלן שבוגרי STEM מוכשרים בחלקים מסוימים של העולם עשויים להתקשות כיום לגשת לתשתית AI ברמה עולמית שחסרה למדינה שלהם.

תחום נוסף של שיתוף פעולה יהיה לבסס שיטות עבודה מומלצות לגבי תקני גישה פתוחה עבור מודלים וערכות נתונים, הכוללים משקולות, קוד ותיעוד.

הפרויקט יכול גם לטפח שיתוף פעולה גלובלי במחקר בטיחות AI. במקום להתחרות בסתר כדי לתקן בעיות יישור, חוקרים מפריז לבייג’ינג לבנגלור יכולים לעבוד יחד על הערכת מודלים והפחתת סיכונים. כל ממצאי הבטיחות (למשל, שיטות להפחתת תוצאות מזיקות או כלים לפרשנות) יכולים להיות משותפים באופן מיידי בתחום הפתוח.

עיקרון זה יכיר בכך שבטיחות AI היא מוצר ציבורי גלובלי – פריצת דרך במעבדה אחת (נניח, אלגוריתם חדש להפיכת חשיבת AI לשקופה) צריכה להועיל לכולם, ולא להישמר קניינית. ניתן לארגן אמות מידה משותפות לבטיחות ואירועי אתגר כדי לעודד תרבות של אחריות קולקטיבית. על ידי איגום מחקר בטיחות, הפרויקט יכוון להקדים שימוש לרעה פוטנציאלי ב-AI או תאונות, ולהרגיע את הציבור שמערכות AI רבות עוצמה מנוהלות בזהירות.

ההתמקדות בסיכון קיומי בפסגת בטיחות ה-AI בבריטניה בשנת 2023 בבלצ’לי פארק, על ידי הדגשת יתר של האנלוגיה של הפצת נשק גרעיני, החמיצה הזדמנות לבחון תחומים אחרים שבהם בטיחות נחשבת למוצר ציבורי: אבטחת סייבר, אנטיביוטיקה ואימונולוגיה (עם מספר יוזמות מעניינות לאחר קוביד-19), ובטיחות תעופה.

הפרויקט יכול גם לשתף פעולה ולקדם את העבודה המתבצעת כיום על ידי קרן פרס ARC הפרטית כדי לטפח את הפיתוח של מערכות AI בטוחות ומתקדמות. פרס ARC, שנוסד על ידי פרנסואה שולה, יוצר ספריית הקוד הפתוח Keras, ומייק קנופ, מייסד שותף של חברת התוכנה Zapier, הוא ארגון ללא מטרות רווח המארח תחרויות ציבוריות לקידום מחקר בינה מלאכותית כללית (AGI). אירוע הדגל שלהם, תחרות פרס ARC, מציע מעל מיליון דולר למשתתפים שיכולים לפתח ולפתוח פתרונות לאמת המידה ARC-AGI – מבחן שנועד להעריך את יכולתה של מערכת AI להכליל ולרכוש מיומנויות חדשות ביעילות.

הדגש של קרן פרס ARC על פתרונות קוד פתוח ותחרויות ציבוריות מתיישב בצורה חלקה עם מטרות פרויקט ה-AI האנושי לטפח שיתוף פעולה בינלאומי ושקיפות בפיתוח AI, כפי שנאמר באתר האינטרנט של קרן פרס ARC תחת “AGI”:

‘LLMs מאומנים על כמויות עצומות של נתונים, אך עדיין אינם מסוגלים להסתגל לבעיות פשוטות שלא אומנו עליהן, או לבצע המצאות חדשות, לא משנה כמה בסיסיות. תמריצים חזקים בשוק דחפו את מחקר ה-AI בחזית להפוך לקוד סגור. תשומת הלב והמשאבים המחקריים נמשכים לכיוון מבוי סתום. פרס ARC נועד לעורר השראה בחוקרים לגלות גישות טכניות חדשות שדוחפות את התקדמות ה-AGI הפתוח קדימה.’

כמו ה-HGP, פרויקט ה-AI האנושי יקדיש חלק ממימונו לממשל ופיקוח אתיים. זה יכלול דיונים על זכויות יוצרים. הפרויקט יכול לעזור לחברה לשקול את האתיקה של גישה למקור המידע הטוב ביותר באימון בחינם תוך פיתוח מודלים קנייניים על גביו. בתחום הביולוגיה, ידוע שמאגר הנתונים של חלבונים, שהיה קריטי עבור מודל AlphaFold של Google DeepMind לחיזוי מבנה חלבונים, דרש ככל הנראה מימון שווה ערך ל-10 מיליארד דולר על פני תקופה של 50 שנה. הפרויקט יכול לעזור בחשיבה על האופן שבו אנו ממשיכים לממן פיתוח AI או כיצד ה-AICs הקנייניים צריכים לחלוק הכנסות עם יוצרי עבודה מקוריים.

יחד, עקרונות פריז אלה ופרויקט ה-AI האנושי יעזרו לקדם את ה-AI ברחבי העולם בצורה פתוחה, שיתופית ואתית יותר. הם יבנו על ההישגים של תורמי קוד פתוח מובילים מאירופה למזרח התיכון, הודו, ועכשיו סין, במסגרת מסגרות ופלטפורמות קיימות של תוכנה בקוד פתוח וספציפיות ל-AI.

ההיסטוריה מתחרזת עם AI

ההזדמנות שלפנינו היא עצומה. Mistral AI, kyutai, BFL, Stability, ולאחרונה DeepSeek נתנו לציבור תקווה שעתיד שבו שיתוף פעולה מתחרה או אפילו עולה על ה-AICs הקנייניים הוא אפשרי.

אנחנו עדיין בשלבים המוקדמים של פריצת הדרך הטכנולוגית הזו. עלינו להיות אסירי תודה על התרומות ש-AICs תרמו לתחום. פסגת הפעולה של AI צריכה להיות הזדמנות לטפח חדשנות שיתופית בקנה מידה חסר תקדים ולהביא כמה שיותר שחקנים לצד הנכון של ההיסטוריה.

שוב 1789. אנו עדים למאבק על ריבונות טכנולוגית, ביזור כוח וקריאה ל-AI כמוצר ציבורי. ובדיוק כמו ב-1789, המהפכה הזו לא תיעצר.