החברות החדשניות בבינה מלאכותית

2. Nvidia

החיפוש אחר מערכות בינה מלאכותית מתוחכמות יותר ויותר ממשיך להניע השקעות משמעותיות מצד מפתחי מודלי שפה גדולים. עם זאת, חברה אחת כבר נהנית מפירות מהפכת הבינה המלאכותית הזו: Nvidia. לאחר שהציתה את מרוץ הבינה המלאכותית עם יחידות העיבוד הגרפיות (GPUs) הדומיננטיות שלה, Nvidia ממוצבת כעת בצורה מושלמת עם מעבד ופלטפורמת Blackwell פורצי הדרך שלה כדי לתמוך במרדף אחר אינטליגנציה ברמה אנושית.

Blackwell עולה על קודמו, ה-H100, ומציע עד פי 2.5 יותר כוח למשימות אימון מודלים כלליות, תוך צריכת אנרגיה נמוכה משמעותית בו-זמנית. מפעילי מרכזי נתונים ומעבדות בינה מלאכותית גדולים, כולל ענקיות תעשייה כמו Google, Meta, Microsoft, OpenAI, Tesla ו-xAI, התחייבו לרכוש מאות אלפי GPUs של Blackwell.

בעוד שמודלים אחרונים מחברות סיניות כמו DeepSeek ו-Alibaba הפגינו יכולות מרשימות באמצעות GPUs ישנים ופחות חזקים של Nvidia, Nvidia לא נחה על זרי הדפנה. החברה מפתחת באופן פעיל פלטפורמות עבור יישומים מגוונים, החל מגילוי תרופות (Clara for Biopharma) וכלי רכב אוטונומיים (Drive AGX) ועד להפקת וידאו (Holoscan) ותאומים דיגיטליים (Omniverse). על ידי טיפוח התקדמות הבינה המלאכותית במגוון רחב של תרחישים בעולם האמיתי, Nvidia ממצבת את עצמה באופן אסטרטגי לצמיחה מתמשכת, גם אם מודלים עתידיים יפגינו תלות מופחתת בכוח מחשוב גולמי.

2. OpenAI

מאז 2019, OpenAI שיפרה בעקביות את המודלים שלה על ידי הרחבת נתוני האימון ומשאבי המחשוב, אסטרטגיה שאומצה באופן נרחב בתעשייה. עם זאת, ככל שהתשואות הפוחתות מגישה זו של הגדלה הפכו ברורות, OpenAI זיהתה את הצורך בדרך חדשה להשגת AGI - מודלים העולים על האינטליגנציה האנושית ברוב המשימות.

הפתרון של OpenAI הגיע בדמות מודל o1. במקום להתמקד אך ורק בהגדלת משאבים במהלך אימון מקדים, OpenAI תכננה את o1 להקצות יותר זמן וכוח מחשוב במהלך הסקה, השלב שבו המודל נפרס באופן פעיל ומגיב להנחיות המשתמש. במהלך תהליך זה, o1 אוסף ושומר מידע הקשרי, הן מהמשתמש והן ממקורות נתונים רלוונטיים. הוא משתמש במתודולוגיית ניסוי וטעייה כדי לקבוע את הנתיב האופטימלי לתשובה. התוצאה היא יצירת תגובות ברמת דוקטורט לשאלות מורכבות, מה שמניע את o1 לראש דירוג מדדי הביצועים.

OpenAI מציעה גרסאות ‘ניסיוניות’ ו’מיני’ של o1 למנויי ChatGPT Plus. בנוסף, שירות פרימיום בשם ChatGPT Pro מספק גישה בלתי מוגבלת למודל o1 המלא תמורת 200 דולר לחודש. בדצמבר 2024, OpenAI חשפה את היורש של o1, o3, ובפברואר 2025, העניקה למשתמשים בתשלום גישה ל-o3-mini, גרסה קטנה ומהירה יותר המותאמת למדע, מתמטיקה וקידוד. ההשפעה העמוקה ביותר של מודלי החשיבה החדשים של OpenAI היא האימות של הגדלת המחשוב בזמן הסקה כדרך מבטיחה להשגת פריצות דרך נוספות באינטליגנציה בדרך ל-AGI.

2. Google DeepMind

המחקר הבסיסי שסלל את הדרך לצ’אטבוטים של היום מקורו ב-Google בסוף שנות ה-2010. Google פיתחה צ’אטבוט המופעל על ידי מודל שפה גדול הרבה לפני הופעתו של ChatGPT. עם זאת, חששות לגבי בטיחות, פרטיות והשלכות משפטיות הובילו, על פי הדיווחים, לגישה זהירה, ועיכבו את שחרורו לציבור. היסוס זה הביא לכך ש-Google פיגרה בתחילה במרוץ הבינה המלאכותית שלאחר מכן, שהופעל על ידי השקת ChatGPT.

השחרור של Gemini 2.0 של Google DeepMind בשנת 2024 סימן את התחייה המחודשת של Google. Gemini 2.0 מייצג את מודל הבינה המלאכותית הראשון בשוק ההמוני שהוא רב-מודאלי מטבעו, המסוגל לעבד וליצור תמונות, וידאו, אודיו וקוד מחשב באותה מיומנות כמו טקסט. יכולת זו מאפשרת למודל לנתח ולחשוב על קטעי וידאו, או אפילו הזנות וידאו חיות ממצלמת טלפון, במהירות ובדיוק יוצאי דופן.

Gemini בולט גם ביכולתו לשלוט בשירותי Google אחרים, כגון Maps ו-Search. שילוב זה מציג את היתרון האסטרטגי של Google, המשלב את מחקר הבינה המלאכותית שלה עם כלי המידע והפרודוקטיביות המבוססים שלה. Gemini הוא בין מודלי הבינה המלאכותית הראשונים המפגינים פעולה אוטונומית ואת היכולת לחשוב על בעיות מורכבות בשם המשתמש. מודל Gemini 2.0 Flash Thinking Experimental אף מספק למשתמשים תובנות לגבי תהליך החשיבה ששימש להגעה לתשובה. יתר על כן, בדצמבר, Google הציגה את Project Mariner, תכונת בינה מלאכותית מבוססת Gemini שנועדה לבצע משימות כמו קניות מכולת מקוונות באופן אוטונומי.

2. Anthropic

היישומים העיקריים של בינה מלאכותית גנרטיבית התמקדו עד כה בכתיבת טקסט, סיכום ויצירת תמונות. השלב האבולוציוני הבא כולל הצטיידות מודלי שפה גדולים ביכולות חשיבה וביכולת להשתמש בכלים. מודל ‘שימוש במחשב’ של Anthropic סיפק הצצה מוקדמת לעתיד זה.

החל מ-Claude 3.5 Sonnet בשנת 2024, המודל של Anthropic יכול לתפוס פעילות על המסך, כולל תוכן אינטרנט. הוא יכול לתפעל סמן, ללחוץ על כפתורים ולהזין טקסט. סרטון הדגמה הציג את יכולתו של Claude להשלים טופס באמצעות מידע הזמין באתרי אינטרנט הפתוחים בכרטיסיות דפדפן. הוא יכול לבצע משימות כמו יצירת אתר אינטרנט אישי או ארגון הלוגיסטיקה של טיול יום. הפעולות האוטונומיות של הבינה המלאכותית, כגון פתיחת כרטיסיות חדשות, ביצוע חיפושים ומילוי שדות נתונים, הן באמת יוצאות דופן.

בעוד שהמודל פועל כעת בקצב איטי יותר וייתכן שלא תמיד יפיק את התשובה הנכונה, צפויים שיפורים מהירים כאשר Anthropic תזהה ותטפל במגבלותיו. Project Mariner הנזכר לעיל של Google הלך בעקבות Anthropic בדצמבר, ו-OpenAI הציגה מודל שימוש במחשב משלה, Operator, בינואר 2025. בפברואר 2025, Anthropic חשפה את האיטרציה הגדולה הבאה שלה, Claude 3.7 Sonnet, מודל גדול יותר המסוגל להפעיל אוטומטית מצב חשיבה עבור שאילתות מאתגרות.

2. Microsoft

הפיתוח של מודלי Phi של Microsoft נבע משאלה בסיסית שהציבו חוקרי החברה בשנת 2023: ‘מהו גודל המודל הקטן ביותר שיכול להפגין סימנים של אינטליגנציה מתהווה?’ שאלה זו סימנה רגע מכריע באבולוציה של ‘מודלי שפה קטנים’, מודלים המיועדים לביצועים מיטביים בתרחישים עם זיכרון מוגבל, כוח עיבוד או קישוריות, כאשר זמני תגובה מהירים הם קריטיים.

במהלך 2024, Microsoft שחררה שני דורות של מודלים קטנים שהציגו יכולות חשיבה והיגיון שלא שולבו במפורש במהלך האימון. באפריל, החברה חשפה סדרה של מודלי Phi-3 שהצטיינו במדדי שפה, חשיבה, קידוד ומתמטיקה, ככל הנראה בשל האימון שלהם בנתונים סינתטיים שנוצרו על ידי LLMs גדולים ובעלי יכולת משמעותית יותר. גרסאות של Phi-3 בקוד פתוח הורדו למעלה מ-4.5 מיליון פעמים ב-Hugging Face במהלך 2024.

בסוף 2024, Microsoft השיקה את מודלי השפה הקטנים שלה Phi-4, שעלו על מודלי Phi-3 במשימות ממוקדות חשיבה ואף עלו על GPT-4o של OpenAI במדדי GPQA (שאלות מדעיות) ו-MATH. Microsoft שחררה את המודל תחת רישיון קוד פתוח ומשקולות פתוחות, מה שמאפשר למפתחים ליצור מודלי קצה או יישומים עבור טלפונים או מחשבים ניידים. תוך פחות מחודש, Phi-4 צבר 375,000 הורדות ב-Hugging Face.

2. Amazon

Amazon AWS הציגה לאחרונה את Trainium2, גרסה חדשה של מעבד Trainium שלה עבור בינה מלאכותית, שעשויה לאתגר את הדומיננטיות של GPUs של Nvidia בהגדרות ספציפיות. Trainium2 מתוכנן לספק את כוח המחשוב העצום הנדרש לאימון מודלי הבינה המלאכותית הגנרטיבית הגדולים ביותר ולפעולות בזמן הסקה לאחר פריסת המודל. AWS טוענת ש-Trainium חסכוני ב-30% עד 40% יותר מ-GPUs עבור משימות דומות.

Trainium2 מטפל בחסרונות של כוח ושילוב תוכנה שנצפו בשבב Trainium הראשון, וממצב את Amazon לסגור את הפער עם Nvidia. (ראוי לציין ש-AWS עצמה נותרה תלויה במידה רבה ב-Nvidia עבור GPUs.) עקירת Nvidia היא אתגר אדיר בשל נעילת לקוחות עם שכבת התוכנה CUDA של Nvidia, המספקת לחוקרים שליטה פרטנית על האופן שבו המודלים שלהם מנצלים את משאבי השבב. Amazon מציעה שכבת תוכנה משלה לשליטה בקרנל, Neuron Kernel Interface (NKI), אשר, בדומה ל-CUDA, מעניקה לחוקרים שליטה פרטנית על אינטראקציות ליבת השבב.

חשוב לציין ש-Trainium2 טרם נבדק בקנה מידה. AWS בונה כעת אשכול שרתים עם 400,000 שבבי Trainium2 עבור Anthropic, מה שיכול לספק תובנות חשובות לגבי אופטימיזציה של ביצועי שבבי הבינה המלאכותית שלה בפריסות בקנה מידה גדול.

2. Arm

מעצבת המוליכים למחצה הבריטית Arm הייתה זה מכבר ספקית מרכזית של הארכיטקטורה המשמשת בשבבים המפעילים מכשירים קטנים כמו טלפונים, חיישנים וחומרת IoT. תפקיד זה מקבל משמעות מוגברת בעידן המתהווה שבו שבבי מכשירי קצה יבצעו מודלי בינה מלאכותית. מרכזי נתונים ישחקו גם תפקיד מכריע באבולוציה זו, ולעתים קרובות יטפלו בחלק או בכל עיבוד הבינה המלאכותית התובעני ביותר ויספקו תוצאות למכשירי קצה.

ככל שמרכזי נתונים מתרבים ברחבי העולם, צריכת החשמל שלהם תהפוך לדאגה דוחקת יותר ויותר. גורם זה תורם לדגש על יעילות בארכיטקטורת ה-CPU Neoverse העדכנית ביותר של Arm. היא מתהדרת בשיפור ביצועים של 50% לעומת הדורות הקודמים ובביצועים טובים יותר ב-20% לוואט בהשוואה למעבדים המשתמשים בארכיטקטורות x86 מתחרות, על פי החברה.

Arm מדווחת ש-Amazon, Microsoft, Google ו-Oracle אימצו כולן את Arm Neoverse הן למחשוב לשימוש כללי והן להסקה ואימון של בינה מלאכותית מבוססת CPU. לדוגמה, בשנת 2024, Microsoft הודיעה שהסיליקון המותאם אישית הראשון שלה המיועד לענן, מעבד Cobalt 100, נבנה על Arm Neoverse. כמה ממרכזי הנתונים הגדולים ביותר של בינה מלאכותית יסתמכו על Grace Hopper Superchip של NVIDIA, המשלב GPU Hopper ו-CPU Grace המבוסס על Neoverse. Arm אמורה להשיק CPU משלה השנה, כאשר Meta היא אחת הלקוחות הראשוניות שלה.

2. Gretel

במהלך השנה האחרונה, חברות בינה מלאכותית חוו תשואות פוחתות מאימון המודלים שלהן בכמויות הולכות וגדלות של נתונים שנאספו מהאינטרנט. כתוצאה מכך, הן העבירו את המיקוד שלהן מהכמות העצומה של נתוני האימון לאיכותם. זה הוביל להשקעה מוגברת בתוכן לא ציבורי ומיוחד ברישיון משותפי מו’לים. חוקרי בינה מלאכותית צריכים גם לטפל בפערים או בנקודות עיוורות בתוך נתוני האימון שנוצרו על ידי אדם או עם הערות אנושיות. למטרה זו, הם פנו יותר ויותר לנתוני אימון סינתטיים שנוצרו על ידי מודלי בינה מלאכותית מיוחדים.

Gretel זכתה לבולטות בשנת 2024 על ידי התמחות ביצירה ואוצרות של נתוני אימון סינתטיים. החברה הודיעה על הזמינות הכללית של מוצר הדגל שלה, Gretel Navigator, המאפשר למפתחים להשתמש בשפה טבעית או בהנחיות SQL כדי ליצור, להגדיל, לערוך ולאצור מערכי נתונים של אימון סינתטיים עבור כוונון עדין ובדיקה. הפלטפורמה כבר משכה קהילה של למעלה מ-150,000 מפתחים שסינתזו יותר מ-350 מיליארד פיסות נתוני אימון.

שחקנים אחרים בתעשייה שמו לב ליכולות של Gretel. Gretel שיתפה פעולה עם Google כדי להפוך את נתוני האימון הסינתטיים שלה לזמינים בקלות ללקוחות Google Cloud. שותפות דומה עם Databricks הוכרזה ביוני, והעניקה ללקוחות הארגוניים של Databricks גישה לנתוני אימון סינתטיים עבור המודלים שלהם הפועלים בענן Databricks.

2. Mistral AI

Mistral AI, המתמודדת הצרפתית בזירת הבינה המלאכותית הגנרטיבית, הפעילה בעקביות לחץ על OpenAI, Anthropic ו-Google בחזית פיתוח מודל הבינה המלאכותית. Mistral AI שחררה סדרה של מודלים חדשים המשלבים התקדמות טכנולוגית משמעותית בשנת 2024, והדגימה צמיחה עסקית מהירה הן באמצעות שיווק ישיר של ממשקי ה-API שלה והן באמצעות שותפויות אסטרטגיות.

מוקדם יותר השנה, החברה הציגה צמד מודלים בקוד פתוח בשם Mixtral, הבולטים בשימוש החדשני שלהם בארכיטקטורת ‘תערובת של מומחים’, שבה רק תת-קבוצה מיוחדת של פרמטרי המודל מופעלת כדי לטפל בשאילתה, מה שמשפר את היעילות. ביולי 2024, Mistral הכריזה על Mistral Large 2, אשר, עם 123 מיליארד פרמטרים, הציג שיפורים משמעותיים ביצירת קוד, מתמטיקה, חשיבה וקריאה לפונקציות. החברה הצרפתית שחררה גם את Ministral 3B ו-Ministral 8B, מודלים קטנים יותר המיועדים לביצוע במחשבים ניידים או טלפונים, המסוגלים לאחסן כ-50 עמודי טקסט של מידע הקשרי המסופק על ידי המשתמש.

Mistral השיגה הצלחה באירופה על ידי מיצוב עצמה כחלופה זולה וגמישה לחברות בינה מלאכותית אמריקאיות כמו OpenAI. היא גם המשיכה את התרחבותה לשוק הארגוני בארה’ב במהלך 2024. ביוני, החברה גייסה סבב מימון של 640 מיליון דולר, בהובלת חברת ההון סיכון General Catalyst, מה שהעלה את השווי של Mistral לכ-6.2 מיליארד דולר.

2. Fireworks AI

Fireworks מציעה סביבת זמן ריצה מותאמת אישית המייעלת את עבודת ההנדסה המורכבת לעתים קרובות הקשורה בבניית תשתית עבור פריסות בינה מלאכותית. באמצעות פלטפורמת Fireworks, ארגונים יכולים לשלב כל אחד מיותר מ-100 מודלי בינה מלאכותית ולאחר מכן להתאים אישית ולכוונן אותם עבור מקרי השימוש הספציפיים שלהם.

החברה הציגה מוצרים חדשים במהלך 2024 שימצבו אותה לנצל מגמות מפתח בתעשיית הבינה המלאכותית. ראשית, המפתחים התמקדו יותר ויותר בהיענות של מודלים ויישומים המופעלים על ידי בינה מלאכותית. Fireworks הציגה לראשונה את FireAttention V2, תוכנת אופטימיזציה וקוונטיזציה המאיצה את ביצועי המודל ומפחיתה את השהיית הרשת. שנית, מערכות בינה מלאכותית מתפתחות יותר ויותר ל’צינורות’ המפעילים מודלים וכלים שונים באמצעות ממשקי API. תוכנת FireFunction V2 החדשה פועלת כמתזמר עבור כל הרכיבים בתוך מערכות מורכבות יותר ויותר אלה, במיוחד כאשר ארגונים פורסים יישומי בינה מלאכותית אוטונומיים יותר.

Fireworks מדווחת על עלייה של 600% בצמיחת ההכנסות בשנת 2024. בסיס הלקוחות שלה כולל חברות בולטות כגון Verizon, DoorDash, Uber, Quora ו-Upwork.

2. Snorkel AI

ארגונים הבינו שהיעילות של מערכות הבינה המלאכותית שלהם קשורה ישירות לאיכות הנתונים שלהם. Snorkel AI בנתה עסק משגשג על ידי סיוע לארגונים בהכנת הנתונים הקנייניים שלהם לשימוש במודלי בינה מלאכותית. פלטפורמת פיתוח נתוני הבינה המלאכותית Snorkel Flow של החברה מספקת שיטה חסכונית לחברות לתייג ולאצור את הנתונים הקנייניים שלהן, מה שמאפשר את השימוש בה בהתאמה אישית והערכה של מודלי בינה מלאכותית לצרכים העסקיים הספציפיים שלהן.

בשנת 2024, Snorkel הרחיבה את התמיכה שלה כך שתכלול תמונות, מה שמאפשר לחברות לאמן מודלי בינה מלאכותית רב-מודאליים ומחוללי תמונות באמצעות התמונות הקנייניות שלהן. היא גם שילבה יצירת תגבורת אחזור (RAG) בפלטפורמה שלה, מה שמאפשר ללקוחות לאחזר רק את הקטעים הרלוונטיים ביותר של מידע ממסמכים ארוכים, כגון תוכן בסיס ידע קנייני, לשימוש באימון בינה מלאכותית. Snorkel Custom, רמת שירות חדשה וגבוהה יותר, כוללת מומחי למידת מכונה של Snorkel העובדים ישירות עם לקוחות על פרויקטים.

Snorkel מצהירה שההזמנות השנתיות שלה משנה לשנה הוכפלו במהלך 2024, עם צמיחה תלת ספרתית בהזמנות השנתיות בכל אחת משלוש השנים האחרונות. שישה מהבנקים הגדולים ביותר משתמשים כעת ב-Snorkel Flow, על פי החברה, יחד עם מותגים כמו Chubb, Wayfair ו-Experian.

2. CalypsoAI

ככל שהבינה המלאכותית ממלאת תפקיד מכריע יותר ויותר בתהליכי קבלת החלטות קריטיים, ארגונים מחפשים נראות משופרת לפעולתם הפנימית של המודלים. צורך זה בולט במיוחד בתעשיות מוסדרות שחייבות לנטר באופן רציף אחר הטיה ותפוקות לא מכוונות אחרות. CalypsoAI הייתה בין הראשונות לזהות דרישה מתהווה זו והגיבה במהירות עם תכונות הסבר משופרות בפלטפורמת תשתית הבינה המלאכותית שלה.

מה שמייחד את Calypso הוא רוחב טכנולוגיית התצפית שלה. בשנת 2024, החברה השיקה את פלטפורמת האבטחה שלה לבינה מלאכותית, המגנה על נתונים ארגוניים על ידי אבטחה, ביקורת וניטור של כל מודלי הבינה המלאכותית הגנרטיבית הפעילים שבהם חברה עשויה להשתמש, ללא קשר לספק המודל או אם המודל מתארח באופן פנימי או חיצוני. Calypso הציגה גם כלי ויזואליזציה חדשים המאפשרים למשתמשים לצפות בהיגיון העומד בבסיס החלטות הבינה המלאכותית בזמן אמת.

השוק מגיב באופן חיובי לדגש של Calypso על תצפית בינה מלאכותית. החברה מדווחת על עלייה של פי עשרה בהכנסות במהלך 2024 ומצפה לעלייה נוספת של פי חמישה בשנת 2025.

2. Galileo

בעוד שמערכות בינה מלאכותית מציגות פחות מקרים של הזיות עובדתיות והטיות בהשוואה לשנה שעברה, הן נותרו רגישות לבעיות אלה. זה מהווה דאגה משמעותית עבור כל עסק המשתמש בבינה מלאכותית, במיוחד אלה במגזרים מוסדרים כמו שירותי בריאות ובנקאות. צוותי פיתוח בינה מלאכותית משתמשים בפלטפורמת הבינה המלאכותית של Galileo כדי למדוד, לייעל ולנטר את הדיוק של המודלים והיישומים שלהם.

בתחילת 2024, לאחר שנתיים של מחקר, Galileo שחררה את Luna, חבילה של מודלי הערכה שאומנו לזהות תפוקות מזיקות. מודלים אלה מאפשרים לפלטפורמה של Galileo לבחון במהירות ולתת ציון לעבודתו של LLM כשהוא מרכיב את האסימונים המרכיבים את תגובתו. תהליך זה אורך כ-200 אלפיות שנייה, מה שמאפשר מספיק זמן לסמן ולמנוע את הצגת הפלט של הבינה המלאכותית למשתמש. בעוד ש-LLM סטנדרטי יכול לבצע משימה זו, זה יהיה יקר משמעותית. המודלים שנבנו למטרה של Galileo מציעים דיוק מעולה, יעילות עלות, ובעיקר, מהירות.

Galileo מדווחת על הכפלת בסיס הלקוחות שלה פי ארבעה בשנת 2024, עם לקוחות הכוללים את Twilio, Reddit, Chegg, Comcast ו-JPMorgan Chase. הסטארט-אפ גם גייס סבב מימון של 68 מיליון דולר ממשקיעים כמו מנכ’ל Hugging Face, קלמנט דלנג.

2. Runway

אחת השאיפות - והחרדות - המשמעותיות ביותר סביב בינה מלאכותית היא הפוטנציאל שלה ליצור וידאו באיכות מספקת כדי לחולל מהפכה באמנות ובכלכלה של יצירת סרטים. הטכנולוגיה עשתה צעדים משמעותיים לקראת עתיד זה בשנת 2024, כאשר Runway, סטארט-אפ ליצירת וידאו מניו יורק, מילא תפקיד מוביל. השחרור של מודל Gen-3 Alpha של Runway ביוני 2024 זכה לשבחים נרחבים בקהילת הבינה המלאכותית בשל האמינות המשופרת משמעותית של הווידאו שנוצר.

Runway יישמה גם שיפורים משמעותיים בכלים שלה לשליטה באסתטיקה של וידאו בינה מלאכותית. המודל אומן הן על תמונות והן על וידאו ויכול ליצור וידאו המבוסס על קלט טקסט או תמונה. החברה שחררה לאחר מכן את Gen-3 Alpha Turbo, גרסה חסכונית ומהירה יותר של Gen-3.

הוליווד עוקבת מקרוב אחר ההתקדמות של בינה מלאכותית גנרטיבית, ו-Runway מדווחת שהיא החלה לייצר גרסאות מותאמות אישית של המודלים שלה עבור שחקנים בתעשיית הבידור. היא נכנסה לשותפות רשמית עם Lionsgate Studios בספטמבר 2024. Runway פיתחה מודל מותאם אישית עבור חברת ההפקה ואימנה אותו בקטלוג הסרטים של Lionsgate. Runway מצהירה שהמודל נועד לסייע ליוצרי הסרטים, הבמאים ואנשי הקריאייטיב האחרים של Lionsgate ב’הגדלת’ עבודתם תוך ‘חיסכון בזמן, כסף ומשאבים’. Runway מאמינה שההסדר שלה עם Lionsgate יכול לשמש כתוכנית לשיתופי פעולה דומים עם חברות הפקה אחרות.

2. Cerebras Systems

מערכות בינה מלאכותית, במיוחד מודלים גדולים, דורשות כוח מחשוב עצום כדי לפעול בקנה מידה. זה מחייב את החיבור ההדדי של אלפי או מיליוני שבבים כדי לחלק את עומס העבודה. עם זאת, חיבורי הרשת בין שבבים יכולים להציג צווארי בקבוק בביצועים. הטכנולוגיה של Cerebras Systems נועדה לרתום את יתרונות המהירות והיעילות של שילוב כמות עצומה של כוח מחשוב על שבב אחד גדול במיוחד.

השבב העדכני ביותר של החברה WSE-3 (Wafer Scale Engine מהדור השלישי), למשל, בגודל 814 מילימטרים רבועים, בגודל של צלחת ארוחת ערב, והוא גדול פי 56 מהשבבים H100 המובילים בשוק של Nvidia. השבב משלב 4 טריליון טרנזיסטורים ומציע 44 ג’יגה-ביט של זיכרון. ניתן לקבץ שבבים אלה ליצירת מחשבי-על, כגון Condor Galaxy, ‘קבוצת כוכבים’ של מחשבי-על מחוברים זה לזה ש-Cerebras מפתחת בשיתוף עם הלקוח הגדול ביותר שלה, G42, חברת בינה מלאכותית ומחשוב ענן מאיחוד האמירויות.

עד כה, Cerebras מצאה נישה בארגוני מחקר גדולים, כולל Mayo Clinic, Sandia National Laboratories, Lawrence Livermore National Laboratory ו-Los Alamos National Laboratory. החברה הגישה בקשה להנפקה בספטמבר 2024. התשקיף מצביע על כך שמכירות החברה גדלו יותר מפי שלושה ל-78.7 מיליון דולר בשנת 2023 וזינקו ל-136.4 מיליון דולר במחצית הראשונה של 2024.