קפיצת הדרך של Nvidia: מודלים וכלים לסוכני AI

עליית Llama Nemotron: הסקה משופרת לבינה מלאכותית חכמה יותר

במרכז האסטרטגיה של Nvidia עומדת ההשקה של משפחת מודלי הבינה המלאכותית Llama Nemotron. מודלים אלה מתהדרים ביכולות הסקה משופרות משמעותית, המהוות צעד קדימה בחיפוש אחר בינה מלאכותית מתוחכמת יותר. סדרת Nemotron, שנבנתה על בסיס מודלי Llama בקוד פתוח של Meta Platforms Inc., מתוכננת לספק למפתחים בסיס חזק ליצירת סוכני AI מתקדמים. סוכנים אלה מיועדים לבצע משימות בפיקוח אנושי מינימלי, המייצג התקדמות משמעותית באוטונומיה של AI.

Nvidia השיגה שיפורים אלה באמצעות שיפורים קפדניים לאחר האימון. תארו לעצמכם שלוקחים תלמיד שכבר מיומן ומספקים לו שיעורי עזר מיוחדים. ‘שיעורי העזר’ הללו התמקדו בשיפור יכולות המודלים במתמטיקה רב-שלבית, קידוד, קבלת החלטות מורכבות והסקה כללית. התוצאה, על פי Nvidia, היא עלייה של 20% בדיוק בהשוואה למודלי Llama המקוריים. אבל השיפורים לא נעצרים בדיוק. מהירות ההסקה – בעצם, כמה מהר המודל יכול לעבד מידע ולספק תשובה – גדלה פי חמישה. זה מתורגם לטיפול במשימות מורכבות יותר עם עלויות תפעול מופחתות, גורם מכריע לפריסה בעולם האמיתי.

מודלי Llama Nemotron מוצעים בשלושה גדלים שונים דרך פלטפורמת המיקרו-שירותים NIM של Nvidia:

  • Nano: מותאם לפריסה במכשירים עם כוח עיבוד מוגבל, כגון מחשבים אישיים והתקני קצה. זה פותח אפשרויות לסוכני AI לפעול בסביבות מוגבלות במשאבים.
  • Super: ממוטב לביצוע על יחידת עיבוד גרפית אחת (GPU). זה מספק איזון בין ביצועים לדרישות משאבים.
  • Ultra: מיועד לביצועים מקסימליים, הדורשים מספר שרתי GPU. זה מתאים ליישומים הדורשים את הרמות הגבוהות ביותר של יכולת AI.

תהליך העידון עצמו מנצל את פלטפורמת Nvidia DGX Cloud, תוך שימוש בנתונים סינתטיים באיכות גבוהה מ-Nvidia Nemotron, יחד עם ערכות נתונים שנאספו על ידי Nvidia עצמה. במהלך שמקדם שקיפות ושיתוף פעולה, Nvidia הופכת את ערכות הנתונים הללו, הכלים שבהם נעשה שימוש והפרטים של טכניקות האופטימיזציה שלה לזמינים לציבור. גישה פתוחה זו מעודדת את קהילת הבינה המלאכותית הרחבה יותר לבנות על עבודתה של Nvidia ולפתח מודלי הסקה בסיסיים משלהם.

ההשפעה של Llama Nemotron ניכרת כבר בשותפויות ש-Nvidia יצרה. שחקנים מרכזיים כמו Microsoft Corp. משלבים את המודלים הללו בשירותי הענן שלהם.

  • Microsoft הופכת אותם לזמינים בשירות Azure AI Foundry שלה.
  • הם יוצעו גם כאפשרות ללקוחות היוצרים סוכנים חדשים באמצעות שירות Azure AI Agent עבור Microsoft 365.
  • SAP SE ממנפת את Llama Nemotron כדי לשפר את העוזרת הבינה המלאכותית שלה, Joule, ואת פורטפוליו פתרונות SAP Business AI הרחב שלה.
  • חברות בולטות אחרות, כולל Accenture Plc, Atlassian Corp., Box Inc. ו-ServiceNow Inc., משתפות פעולה גם עם Nvidia כדי לספק ללקוחותיהן גישה למודלים אלה.

מעבר למודלים: מערכת אקולוגית מקיפה לבינה מלאכותית סוכנתית

Nvidia מבינה שבניית סוכני AI דורשת יותר מסתם מודלי שפה חזקים. יש צורך במערכת אקולוגית שלמה, הכוללת תשתית, כלים, צינורות נתונים ועוד. החברה נותנת מענה לצרכים אלה עם חבילה של אבני בניין נוספות לבינה מלאכותית סוכנתית, שהוכרזו גם הן ב-GTC 2025.

תוכנית האב Nvidia AI-Q: חיבור ידע לפעולה

מסגרת זו נועדה להקל על החיבור בין בסיסי ידע וסוכני AI, ולאפשר להם לפעול באופן אוטונומי. התוכנית, שנבנתה באמצעות מיקרו-שירותי Nvidia NIM ומשולבת עם Nvidia NeMo Retriever, מפשטת את תהליך אחזור הנתונים הרב-מודאליים – מידע בפורמטים שונים כמו טקסט, תמונות ושמע – עבור סוכני AI.

פלטפורמת הנתונים Nvidia AI: מיטוב זרימת הנתונים להסקה

עיצוב ייחוס הניתן להתאמה אישית זה הופך לזמין לספקי אחסון גדולים. המטרה היא לסייע לחברות כמו Dell Technologies Inc., Hewlett Packard Enterprise Co., Hitachi Vantara, IBM Corp., NetApp Inc.. Nutanix Inc., Vast Data Inc. ו-Pure Storage Inc. בפיתוח פלטפורמות נתונים יעילות יותר במיוחד עבור עומסי עבודה של הסקה של בינה מלאכותית סוכנתית. על ידי שילוב משאבי אחסון ממוטבים עם חומרת המחשוב המואצת של Nvidia, מפתחים יכולים לצפות לשיפורי ביצועים משמעותיים בהסקה של AI. זה מושג על ידי הבטחת זרימה חלקה ומהירה של מידע מבסיס הנתונים למודל הבינה המלאכותית.

מיקרו-שירותי Nvidia NIM משופרים: למידה והתאמה מתמשכת

מיקרו-שירותי NIM של Nvidia עודכנו כדי למטב את ההסקה של בינה מלאכותית סוכנתית, תוך תמיכה בלמידה והתאמה מתמשכת. מיקרו-שירותים אלה מאפשרים ללקוחות לפרוס באופן אמין את מודלי הבינה המלאכותית הסוכנתית העדכניים והחזקים ביותר, כולל Llama Nemotron של Nvidia ואלטרנטיבות מחברות כמו Meta, Microsoft ו-Mistral AI.

מיקרו-שירותי Nvidia NeMo: בניית גלגלי תנופה חזקים של נתונים

Nvidia משפרת גם את מיקרו-שירותי NeMo שלה, המספקים מסגרת למפתחים ליצור גלגלי תנופה חזקים ויעילים של נתונים. זה חיוני כדי להבטיח שסוכני AI יוכלו ללמוד ולהשתפר ללא הרף על סמך משוב שנוצר על ידי אדם וגם על ידי AI.

שותפויות אסטרטגיות: הנעת חדשנות בנוף הבינה המלאכותית

המחויבות של Nvidia לבינה מלאכותית סוכנתית מתרחבת לשיתופי הפעולה שלה עם מובילות תעשייה אחרות.

הרחבת השותפות עם Oracle: בינה מלאכותית סוכנתית ב-Oracle Cloud Infrastructure

Nvidia מרחיבה את שיתוף הפעולה שלה עם Oracle Corp. כדי להביא יכולות בינה מלאכותית סוכנתית ל-Oracle Cloud Infrastructure (OCI). שותפות זו כוללת שילוב של GPUs המואצים ותוכנת ההסקה של Nvidia בתשתית הענן של Oracle, מה שהופך אותם לתואמים לשירותי הבינה המלאכותית הגנרטיבית של Oracle. זה יאיץ את פיתוחם של סוכני AI ב-OCI. Nvidia מציעה כעת למעלה מ-160 כלי AI ומיקרו-שירותי NIM באופן מקורי דרך קונסולת OCI. שתי החברות פועלות גם כדי להאיץ חיפוש וקטורי בפלטפורמת Oracle Database 23ai.

העמקת שיתוף הפעולה עם Google: שיפור הגישה והשלמות של AI

Nvidia סיפקה גם עדכונים על שיתופי הפעולה המורחבים שלה עם Google LLC, וחשפה מספר יוזמות שמטרתן לשפר את הגישה ל-AI ולכלים הבסיסיים שלו.

גולת כותרת מרכזית היא הפיכתה של Nvidia לארגון הראשון שממנף את SynthID של Google DeepMind. טכנולוגיה זו מטמיעה ישירות סימני מים דיגיטליים בתוכן שנוצר על ידי AI, כולל תמונות, וידאו וטקסט. זה עוזר לשמר את שלמות התפוקות של AI ולהילחם במידע שגוי. SynthID משולב בתחילה עם מודלי הבסיס Cosmos World של Nvidia.

בנוסף, Nvidia שיתפה פעולה עם חוקרי DeepMind של Google כדי למטב את Gemma, משפחה של מודלי AI קלים בקוד פתוח, עבור GPUs של Nvidia. שתי החברות משתפות פעולה גם ביוזמה לבניית רובוטים המופעלים על ידי AI עם כישורי אחיזה, בין שאר הפרויקטים.

שיתופי הפעולה בין חוקרים ומהנדסים של Google ו-Nvidia מתמודדים עם מגוון רחב של אתגרים. מגילוי תרופות ועד רובוטיקה, המדגישים את הפוטנציאל הטרנספורמטיבי של.