צומת דרכים ב-AI גנרטיבי: הערכות שווי מול מודלים זולים

עולם הבינה המלאכותית הוא כיום תיאטרון של ניגודים חריפים. על במה אחת, סכומי כסף אדירים מוזרמים לחברות טכנולוגיה ענקיות, מתדלקים שאיפות לכוח קוגניטיבי חסר תקדים ומעוררים ויכוחים על בועת השקעות מתקרבת. הערכות שווי של מיליארדי דולרים הופכות לדבר שבשגרה, עם לחישות על סבבי גיוס המגיעים לסכומים אסטרונומיים. אולם, על במה שקטה ומקבילה, מתבשלת מהפכה בחוגים אקדמיים ובקהילות קוד פתוח. כאן, חוקרים מפגינים כושר המצאה יוצא דופן, יוצרים מודלי AI גנרטיביים מוכשרים לא במיליארדים, אלא לעיתים בכסף כיס בלבד, ומאתגרים באופן יסודי את התפיסה הרווחת שגדול יותר הוא תמיד טוב יותר במירוץ לעליונות הבינה המלאכותית.

פער זה הופך בולט יותר ויותר. קחו לדוגמה את OpenAI, הכוח המניע מאחורי ChatGPT, שלפי הדיווחים מחפשת השקעות נוספות שעשויות להזניק את הערכת השווי שלה לכ-300 מיליארד דולר, סכום עוצר נשימה. נתונים כאלה, לצד תחזיות להכנסות הגדלות במהירות, מציירים תמונה של אופטימיות חסרת רסן וצמיחה אקספוננציאלית. במקביל, עם זאת, רעידות של זהירות מרעידות את יסודות האופוריה הזו סביב ה-AI. מניות הטכנולוגיה המכונות “שבע המופלאות” (Magnificent 7), שהיו חביבות השוק במשך זמן רב בעיקר בזכות פוטנציאל ה-AI שלהן, חוו תקופות של ביצועי חסר משמעותיים, מה שמרמז שחרדת המשקיעים מתחילה לחלחל. אי נוחות זו מועצמת על ידי אזהרות מוותיקי תעשייה מנוסים, כמו מייסד שותף של Alibaba, Joe Tsai, שהצביע לאחרונה על סימנים מדאיגים להיווצרות בועת AI פוטנציאלית, במיוחד בשוק האמריקאי. היקף ההשקעה הנדרש, במיוחד עבור מרכזי הנתונים העצומים המפעילים את המודלים המורכבים הללו, נתון לבחינה מדוקדקת. האם רמות ההוצאה הנוכחיות בנות קיימא, או שהן מעידות על התלהבות בלתי רציונלית המנותקת ממציאויות קרובות טווח?

רוח הרפאים של בועת AI מרחפת

החששות מבועת AI אינם רק חרדות פיננסיות מופשטות; הם משקפים שאלות עמוקות יותר לגבי הקצב והכיוון של פיתוח ה-AI עצמו. הנרטיב נשלט במידה רבה על ידי מספר שחקנים מרכזיים המשקיעים מיליארדים בבניית מודלי שפה גדולים (LLMs) גדולים יותר ויותר. זה יצר סביבה שבה נראה כי הובלת השוק מבוססת על כיסים עמוקים ביותר ותשתית המחשוב הנרחבת ביותר.

  • סחרחורת הערכות שווי: הערכת השווי הפוטנציאלית של OpenAI בסך 300 מיליארד דולר, בעודה משקפת אמון עצום מצד משקיעים מסוימים, גם מעוררת הרמת גבות. האם נתון זה מוצדק על ידי היכולות הנוכחיות ותזרימי ההכנסות, או שהוא מוטה בכבדות לעבר פריצות דרך עתידיות, אולי לא ודאיות? הקבלות היסטוריות לתקופות גאות ושפל טכנולוגיות קודמות, כמו עידן הדוט-קום, צצות באופן בלתי נמנע, ומעוררות זהירות.
  • בחינת השקעות תשתית: המיליארדים המוזרמים למרכזי נתונים ייעודיים ל-AI ולחומרה מיוחדת, כמו GPUs מתקדמים, מייצגים הוצאות הון אדירות. אזהרתו של Joe Tsai מדגישה את הסיכון הכרוך בהשקעות מקדימות מסיביות כאלה, במיוחד אם הדרך למונטיזציה מתבררת כארוכה או מורכבת יותר מהצפוי. היעילות והתשואה על השקעות אלה הופכות לנקודות דיון קריטיות.
  • אותות שוק: הביצועים המשתנים של ענקיות הטכנולוגיה המושקעות בכבדות ב-AI מרמזים על מידה של ספקנות בשוק. בעוד שהפוטנציאל לטווח ארוך נותר מוקד משיכה חזק, תנודתיות לטווח קצר מצביעה על כך שהמשקיעים מעריכים מחדש באופן פעיל את הסיכון ומטילים ספק בקיימות של מסלולי הצמיחה הנוכחיים. גורלן של הנפקות ראשוניות לציבור (IPOs) עתידיות בתחום ה-AI, כמו ההנפקה הצפויה של מומחית שבבי ה-AI CoreWeave, נמצא במעקב צמוד כמדד לסנטימנט השוק. האם היא תצית מחדש את ההתלהבות או תאשר את העצבנות הבסיסית?
  • ממדים גיאופוליטיים: למירוץ ה-AI יש גם משמעויות גיאופוליטיות משמעותיות, במיוחד בין US ל-China. ההוצאות העצומות ב-US מונעות בחלקן על ידי הרצון לשמור על יתרון תחרותי. זה הוביל לדיוני מדיניות מורכבים, כולל קריאות לבקרות יצוא מחמירות יותר על טכנולוגיית מוליכים למחצה מתקדמת כדי להאט פוטנציאלית את התקדמותה של China. לעומת זאת, הון סיכון ממשיך לזרום לסטארט-אפים סיניים בתחום ה-AI, מה שמצביע על תחרות גלובלית שבה יכולת טכנולוגית ואסטרטגיה כלכלית שזורות זו בזו.

סביבה זו של סיכונים גבוהים והוצאות גבוהות מכינה את הקרקע לחידושים משבשים המאתגרים את הסדר הקיים. הופעתן של חלופות זולות משמעותית מאלצת הערכה מחדש של השאלה האם כוח חישוב גולמי וקנה מידה מסיבי הם הדרכים היחידות קדימה.

הטענה המשבשת של DeepSeek והשפעותיה המתפשטות

אל תוך נוף זה של הוצאות עתק וחרדה גוברת נכנסה DeepSeek, ישות מבוססת ב-China, שהעלתה טענה מפתיעה: היא פיתחה את מודל השפה הגדול הגנרטיבי שלה, R1, תמורת 6 מיליון דולר בלבד. נתון זה, נמוך בסדרי גודל מההשקעות המשוערות של מיליארדי דולרים על ידי מקבילותיה המערביות, שלח מיד גלים ברחבי התעשייה.

בעוד שהספקנות לגבי חישוב 6 מיליון הדולר נמשכת – תוך תהייה אילו עלויות נכללו ואילו לא – השפעת ההכרזה הייתה בלתי ניתנת להכחשה. היא שימשה כזרז רב עוצמה, ואילצה בחינה ביקורתית של מבני העלויות ומתודולוגיות הפיתוח ששימשו את מובילי השוק. אם אכן ניתן לבנות מודל בעל יכולת סבירה במיליונים ולא במיליארדים, מה זה מרמז על יעילות הגישות הנוכחיות?

  • אתגור הנרטיב: טענתה של DeepSeek, מדויקת או לא, ניקבה את הנרטיב הרווח שפיתוח AI חדשני הוא נחלתן הבלעדית של חברות בשווי טריליון דולר עם משאבים בלתי מוגבלים. היא הציגה את האפשרות של נוף פיתוח דמוקרטי יותר.
  • תדלוק הבחינה המדוקדקת: היא החריפה את הבחינה שכבר הופנתה להוצאות העתק של חברות כמו OpenAI הנתמכת על ידי Microsoft. משקיעים, אנליסטים ומתחרים החלו לשאול שאלות קשות יותר לגבי הקצאת משאבים והתשואה על ההשקעה עבור פרויקטים עתירי הון אלה.
  • תהודה גיאופוליטית: הטענה הדהדה גם בהקשר של היריבות הטכנולוגית בין US ל-China. היא רמזה כי ייתכנו מסלולים חלופיים, פוטנציאליים ויעילים יותר במשאבים, ליכולת AI, והוסיפה רובד נוסף של מורכבות לדיונים על מנהיגות טכנולוגית ותחרות אסטרטגית. זה עורר דיון נוסף על מדיניות כמו אמברגו שבבים, ובמקביל עודד משקיעי הון סיכון לבחון מקרוב שחקנים מתפתחים ב-China שעשויים להחזיק במודלי פיתוח רזים יותר.

למרות הספקנות, שחרור DeepSeek R1, במיוחד רכיבי המחקר הפתוחים הנלווים אליו, סיפק תובנות חיוניות שיהוו השראה לאחרים. לא הייתה זו רק העלות הנטענת, אלא המתודולוגיות הפוטנציאליות שנרמזו, שעוררו סקרנות וחדשנות במקומות אחרים, במיוחד במעבדות אקדמיות הפועלות תחת אילוצים פיננסיים שונים בתכלית.

עליית ה-AI הרזה במיוחד: מהפכה אוניברסיטאית

בעוד שענקיות תאגידיות התמודדו עם תקציבי מיליארדי דולרים ולחצי שוק, סוג אחר של מהפכת AI התגבש בשקט במסדרונות האקדמיה. חוקרים, שלא היו כבולים לדרישות מסחור מיידיות אך מוגבלים מאוד במימון, החלו לחקור דרכים לשכפל את העקרונות מאחורי AI מתקדם, אם לא את קנה המידה העצום, תוך שימוש במשאבים מינימליים. דוגמה מצוינת הגיעה מאוניברסיטת קליפורניה, Berkeley.

צוות ב-Berkeley, שהסתקרן מההתקדמויות האחרונות אך חסר את ההון העצום של מעבדות התעשייה, יצא לפרויקט שכונה TinyZero. מטרתם הייתה נועזת: האם יוכלו להדגים התנהגויות AI מתוחכמות, במיוחד סוג החשיבה המאפשר למודלים “לחשוב” לפני שהם עונים, תוך שימוש במודל ותקציב מוקטנים באופן דרסטי? התשובה התבררה ככן מהדהד. הם הצליחו לשחזר היבטים מרכזיים של פרדיגמת החשיבה שנחקרה הן על ידי OpenAI והן על ידי DeepSeek בעלות נמוכה להפליא – כ-30 דולר.

זה לא הושג על ידי בניית מתחרה ישיר ל-GPT-4, אלא על ידי צמצום חכם של מורכבות המודל והמשימה כאחד.

  • ניסוי ה-30 דולר: נתון זה ייצג בעיקר את עלות השכרת שני GPUs מסוג Nvidia H200 בפלטפורמת ענן ציבורית למשך זמן האימון הנדרש. הוא הציג את הפוטנציאל של מינוף תשתית ענן קיימת למחקר חדשני ללא השקעה מסיבית מראש בחומרה.
  • קנה מידה של המודל: פרויקט TinyZero השתמש במודל “3B”, המתייחס לכשלושה מיליארד פרמטרים. זה קטן משמעותית מה-LLMs הגדולים ביותר, שיכולים להתהדר במאות מיליארדי או אפילו טריליוני פרמטרים. התובנה המרכזית הייתה שהתנהגויות מורכבות עשויות להופיע גם במודלים קטנים יותר אם המשימה מתוכננת כראוי.
  • השראה מענקים ומאתגרים: Jiayi Pan, מוביל פרויקט TinyZero, ציין כי פריצות דרך מ-OpenAI, במיוחד מושגים סביב מודלים המקדישים יותר זמן לעיבוד לפני התגובה, היוו השראה מרכזית. עם זאת, היה זה המחקר הפתוח של DeepSeek R1 שסיפק תוכנית פוטנציאלית לאיך להשיג יכולת חשיבה משופרת זו, למרות שעלות האימון המדווחת של DeepSeek בסך 6 מיליון דולר עדיין הייתה הרבה מעבר להישג ידו של צוות האוניברסיטה.

צוות Berkeley שיער שעל ידי צמצום גודל המודל ומורכבות הבעיה שהוא צריך לפתור, הם עדיין יוכלו לצפות ב”התנהגות החשיבה המתהווה” הרצויה. גישה רדוקציוניסטית זו הייתה המפתח להורדה דרמטית של עלויות תוך מתן אפשרות לתצפית מדעית בעלת ערך.

פענוח ‘רגע האאוריקה’: חשיבה בתקציב נמוך

ההישג המרכזי של פרויקט TinyZero, ויוזמות דומות בעלות נמוכה, טמון בהדגמת מה שחוקרים מכנים לעתים קרובות “רגע האאוריקה” – הנקודה שבה מודל AI מתחיל להפגין יכולות חשיבה ופתרון בעיות אמיתיות, במקום רק התאמת דפוסים או שליפת מידע מאוחסן. התנהגות מתהווה זו היא יעד מרכזי עבור מפתחים של אפילו המודלים הגדולים ביותר.

כדי לבחון את ההשערה שלהם ולעורר התנהגות זו בקנה מידה קטן, צוות Berkeley השתמש במשימה ספציפית ומוגבלת: משחק מתמטיקה בשם “Countdown”.

  • משחק ה-Countdown: משחק זה דורש מה-AI להגיע למספר יעד באמצעות קבוצה נתונה של מספרי התחלה ופעולות חשבון בסיסיות (חיבור, חיסור, כפל, חילוק). באופן מכריע, הצלחה ב-Countdown מסתמכת יותר על חשיבה ותכנון אסטרטגיים – חקירת שילובים ורצפים שונים של פעולות – מאשר על היזכרות בכמויות עצומות של ידע מתמטי קיים מראש.
  • למידה דרך משחק: בתחילה, מודל TinyZero ניגש למשחק באופן אקראי, וניסה שילובים כמעט באקראי. עם זאת, באמצעות תהליך של למידת חיזוק (למידה מניסוי וטעייה ותגמולים), הוא החל להבחין בדפוסים ואסטרטגיות. הוא למד להתאים את גישתו, לזנוח נתיבים לא יעילים, ולהתכנס מהר יותר לפתרונות נכונים. הוא למעשה למד כיצד לחשוב במסגרת הכללים המוגדרים של המשחק.
  • אימות עצמי מתהווה: באופן משמעותי, המודל המאומן החל להראות סימנים של אימות עצמי – הערכת שלבי הביניים והפתרונות הפוטנציאליים שלו כדי לקבוע אם הם מובילים למספר היעד. יכולת זו להעריך ולתקן מסלול באופן פנימי היא סימן היכר של חשיבה מתקדמת יותר.

כפי שהסביר Jiayi Pan, “אנו מראים שעם מודל קטן כמו 3B, הוא יכול ללמוד לחשוב על בעיות פשוטות ולהתחיל ללמוד לאמת את עצמו ולחפש פתרונות טובים יותר.” זה הדגים כי המנגנונים הבסיסיים העומדים בבסיס החשיבה ו”רגע האאוריקה”, שקושרו בעבר בעיקר למודלים עצומים ויקרים, ניתנים לשכפול ולמחקר בסביבה מוגבלת מאוד במשאבים. הצלחת TinyZero הוכיחה שמושגי AI חזיתיים אינם נחלתם הבלעדית של ענקיות הטכנולוגיה, אלא יכולים להיות נגישים לחוקרים, מהנדסים ואפילו חובבים עם תקציבים מוגבלים, ובכך לטפח מערכת אקולוגית מכילה יותר לחקר AI. החלטת הצוות לשתף את ממצאיהם בגלוי, במיוחד באמצעות פלטפורמות כמו GitHub, אפשרה לאחרים לשכפל את הניסויים ולחוות את “רגע האאוריקה” הזה ממקור ראשון בעלות נמוכה יותר מעלות של כמה פיצות.

Stanford מצטרפת למערכה: אימות למידה בעלות נמוכה

האדוות שיצר TinyZero התפשטו במהירות בקהילת ה-AI האקדמית. חוקרים באוניברסיטת Stanford, שכבר חקרו מושגים דומים ואף הציגו בעבר את משחק ה-Countdown כמשימת מחקר, מצאו את עבודת צוות Berkeley רלוונטית ומאמתת ביותר.

בהובלת Kanishk Gandhi, צוות Stanford התעמק בשאלה קשורה ויסודית: מדוע חלק מה-LLMs מפגינים שיפורים דרמטיים, כמעט פתאומיים, ביכולות החשיבה שלהם במהלך האימון, בעוד שאחרים נראים כאילו הגיעו למישור? הבנת המנגנונים הבסיסיים המניעים קפיצות אלה ביכולת היא חיונית לבניית AI יעיל ואמין יותר.

  • בנייה על בסיס משותף: Gandhi הכיר בערכו של TinyZero, וקבע שהוא “נהדר” בין השאר מכיוון שהשתמש בהצלחה במשימת ה-Countdown שצוותו שלו חקר. התכנסות זו אפשרה אימות מהיר יותר וחזרה על רעיונות בין קבוצות מחקר שונות.
  • התגברות על משוכות הנדסיות: חוקרי Stanford הדגישו גם כיצד התקדמותם נבלמה בעבר על ידי אתגרים הנדסיים. זמינותם של כלי קוד פתוח הפכה חיונית להתגברות על מכשולים אלה.
  • כוחם של כלי קוד פתוח: באופן ספציפי, Gandhi זיכה את מערכת למידת החיזוק Volcano Engine Reinforcement Learning (VERL), פרויקט קוד פתוח שפותח על ידי ByteDance (חברת האם של TikTok), כ”חיונית להרצת הניסויים שלנו”. ההתאמה בין יכולות VERL לצרכים הניסיוניים של צוות Stanford האיצה משמעותית את מחזורי המחקר שלהם.

הסתמכות זו על רכיבי קוד פתוח מדגישה היבט קריטי של תנועת ה-AI בעלות נמוכה. ההתקדמות נבנית לעתים קרובות בשיתוף פעולה, תוך מינוף כלים ותובנות המשותפים בחופשיות בתוך הקהילה. Gandhi הוסיף וטען כי פריצות הדרך המדעיות הגדולות בהבנת חשיבת LLM ואינטליגנציה עשויות שלא להגיע בהכרח רק מהמעבדות התעשייתיות הגדולות ובעלות המימון הרב. הוא טען כי “הבנה מדעית של LLMs נוכחיים חסרה, אפילו בתוך המעבדות הגדולות”, מה שמותיר מקום משמעותי לתרומות מ”DIY AI, קוד פתוח ואקדמיה”. פרויקטים קטנים וזריזים יותר אלה יכולים לחקור תופעות ספציפיות לעומק, וליצור תובנות המועילות לתחום כולו.

הגיבור הבלתי מושר: יסודות קוד פתוח

ההישגים המדהימים של פרויקטים כמו TinyZero, המדגימים התנהגויות AI מתוחכמות בעשרות דולרים, מסתמכים במידה רבה על מרכיב חיוני, שלעתים קרובות אינו מוערך מספיק: המערכת האקולוגית העצומה של מודלים וכלי AI בקוד פתוח ובמשקל פתוח (open-weight). בעוד שהעלות השולית של ניסוי ספציפי עשויה להיות נמוכה, הוא נבנה על יסודות שלעתים קרובות מייצגים מיליוני, אם לא מיליארדי, דולרים של השקעה קודמת.

Nina Singer, מדענית למידת מכונה בכירה בחברת הייעוץ AI OneSix, סיפקה הקשר חשוב. היא ציינה שעלות האימון של TinyZero בסך 30 דולר, למרות שהיא מדויקת למשימה הספציפית שבוצעה על ידי צוות Berkeley, אינה לוקחת בחשבון את עלות הפיתוח הראשונית של מודלי היסוד שבהם השתמשה.

  • בנייה על כתפי ענקים: האימון של TinyZero מינף לא רק את מערכת VERL של ByteDance אלא גם את Qwen של Alibaba Cloud, LLM בקוד פתוח. Alibaba השקיעה משאבים ניכרים – ככל הנראה מיליונים – בפיתוח Qwen לפני ששחררה את ה”משקלים” שלה (הפרמטרים הנלמדים המגדירים את יכולות המודל) לציבור.
  • הערך של משקלים פתוחים: Singer הדגישה שזו אינה ביקורת על TinyZero אלא מדגישה את הערך והחשיבות העצומים של מודלים במשקל פתוח. על ידי שחרור פרמטרי מודל, גם אם מערך הנתונים המלא וארכיטקטורת האימון נותרים קנייניים, חברות כמו Alibaba מאפשרות לחוקרים ולישויות קטנות יותר לבנות על עבודתן, להתנסות ולחדש מבלי צורך לשכפל את תהליך האימון הראשוני היקר מאפס.
  • דמוקרטיזציה של כוונון עדין (Fine-Tuning): גישה פתוחה זו מטפחת תחום פורח של “כוונון עדין”, שבו מודלי AI קטנים יותר מותאמים או מתמחים למשימות ספציפיות. כפי שציינה Singer, מודלים מכווננים אלה יכולים לעתים קרובות “להתחרות במודלים גדולים בהרבה בשבריר מהגודל והעלות” למטרה המיועדת להם. דוגמאות רבות, כמו Sky-T1, המציע למשתמשים את היכולת לאמן גרסה משלהם של מודל מתקדם תמורת כ-450 דולר, או Qwen של Alibaba עצמה, המאפשרת כוונון עדין תמורת 6 דולרים בלבד.

הסתמכות זו על יסודות פתוחים יוצרת מערכת אקולוגית דינמית שבה חדשנות יכולה להתרחש במספר רמות. ארגונים גדולים משקיעים רבות ביצירת מודלי בסיס חזקים, בעוד שקהילה רחבה יותר ממנפת נכסים אלה כדי לחקור יישומים חדשים, לערוך מחקר ולפתח פתרונות מיוחדים בצורה חסכונית הרבה יותר. יחסים סימביוטיים אלה מניעים התקדמות מהירה ודמוקרטיזציה בתחום.

אתגור פרדיגמת ה’גדול יותר הוא טוב יותר’

סיפורי ההצלחה העולים מפרויקטים כמו TinyZero והמגמה הרחבה יותר של כוונון עדין יעיל ובעלות נמוכה, מציבים אתגר משמעותי לאמונה ארוכת השנים בתעשייה שהתקדמות ב-AI היא אך ורק פונקציה של קנה מידה – יותר נתונים, יותר פרמטרים, יותר כוח מחשוב.

אחת ההשלכות העמוקות ביותר, כפי שהודגשה על ידי Nina Singer, היא שאיכות הנתונים ואימון ספציפי למשימה עשויים להיות לעתים קרובות קריטיים יותר מגודל המודל בלבד. ניסוי TinyZero הדגים שאפילו מודל קטן יחסית (3 מיליארד פרמטרים) יכול ללמוד התנהגויות מורכבות כמו תיקון עצמי ושיפור איטרטיבי כאשר הוא מאומן ביעילות על משימה מוגדרת היטב.

  • תשואות פוחתות על קנה מידה?: ממצא זה מטיל ספק ישירות בהנחה שרק מודלים מסיביים כמו סדרת GPT של OpenAI או Claude של Anthropic, עם מאות מיליארדי או טריליוני הפרמטרים שלהם, מסוגלים ללמידה מתוחכמת כזו. Singer הציעה, “פרויקט זה מרמז שאולי כבר חצינו את הסף שבו פרמטרים נוספים מספקים תשואות פוחתות – לפחות עבור משימות מסוימות.” בעוד שמודלים גדולים יותר עשויים לשמור על יתרונות בכלליות וברוחב הידע, עבור יישומים ספציפיים, מודלים בקנה מידה היפר עשויים לייצג הגזמה, הן מבחינת עלות והן מבחינת דרישות חישוביות.
  • מעבר לעבר יעילות וספציפיות: נוף ה-AI עשוי לעבור שינוי עדין אך משמעותי. במקום התמקדות בלעדית בבניית מודלי יסוד גדולים יותר ויותר, תשומת לב גוברת מופנית ליעילות, נגישות ואינטליגנציה ממוקדת. יצירת מודלים קטנים יותר, מותאמים במיוחד לתחומים או משימות ספציפיות, מתבררת כחלופה בת קיימא ואטרקטיבית מבחינה כלכלית.
  • לחץ על מודלים סגורים: היכולת והזמינות הגוברות של מודלים במשקל פתוח וטכניקות כוונון עדין בעלות נמוכה מפעילות לחץ תחרותי על חברות המציעות בעיקר את יכולות ה-AI שלהן באמצעות APIs (ממשקי תכנות יישומים) מוגבלים. כפי שציינה Singer, חברות כמו OpenAI ו-Anthropic עשויות להצטרך להצדיק יותר ויותר את הצעת הערך של המערכות האקולוגיות הסגורות שלהן, במיוחד “כאשר חלופות פתוחות מתחילות להשתוות או לעלות על יכולותיהן בתחומים ספציפיים.”

זה לא בהכרח אומר סופם של מודלי יסוד גדולים, שככל הנראה ימשיכו לשמש כנקודות פתיחה חיוניות. עם זאת, זה כן מרמז על עתיד שבו המערכת האקולוגית של ה-AI תהיה מגוונת הרבה יותר, ותכלול שילוב של מודלים כלליים מסיביים ושפע של מודלים קטנים יותר, מיוחדים ויעילים ביותר המותאמים לצרכים ספציפיים.

גל הדמוקרטיזציה: AI ליותר אנשים?

השילוב של מחשוב ענן נגיש, כלי קוד פתוח חזקים, והיעילות המוכחת של מודלים קטנים יותר ומכווננים, מתדלק גל של דמוקרטיזציה ברחבי נוף ה-AI. מה שהיה פעם נחלתן הבלעדית של מעבדות מחקר עילית ותאגידי טכנולוגיה עם תקציבי מיליארדי דולרים הופך נגיש יותר ויותר למגוון רחב יותר של שחקנים.

יחידים,