Tag: Fine-Tuning

GPT-4.1 של OpenAI: צעד אחורה?

האם GPT-4.1 החדש של OpenAI, שאמור היה להיות טוב יותר בהיענות להוראות, דווקא פחות אמין מקודמיו? הערכות ראשוניות מעלות שאלות קריטיות לגבי כיוון פיתוח הבינה המלאכותית.

GPT-4.1 של OpenAI: צעד אחורה?

GPT-4.1 של OpenAI: סיבה לדאגה?

GPT-4.1 של OpenAI טוען לשיפור בביצועים, אך בדיקות מצביעות על עקביות נמוכה יותר מדגמים קודמים, מעורר שאלות לגבי בטיחות ואמינות.

GPT-4.1 של OpenAI: סיבה לדאגה?

מודלים קטנים של AI צוברים תאוצה בארגונים

ניתוח של גרטנר מצביע על מעבר למודלים קטנים וממוקדים של AI, יעילים יותר מבחינה חישובית וחסכוניים יותר, המשמשים פי שלושה יותר ממודלים גדולים (LLM).

מודלים קטנים של AI צוברים תאוצה בארגונים

פריצת סודות ביולוגיים: מודלי שפה לניתוח תאים בודדים

גילוי תובנות ביולוגיות עמוקות באמצעות מודלים מתקדמים של שפה, המאפשרים ניתוח מפורט של נתוני תאים בודדים וקידום מחקר רפואי וביולוגי.

פריצת סודות ביולוגיים: מודלי שפה לניתוח תאים בודדים

הפעלת מודלי שפה מקומיים (LLM) על Mac

מדריך להפעלת מודלי שפה גדולים כמו DeepSeek על Mac שלך באופן מקומי, עם יתרונות של פרטיות, ביצועים ועלות.

הפעלת מודלי שפה מקומיים (LLM) על Mac

פתיחת מומחיות תחום: כוונון, מיזוג ויכולות ב-LLMs

חקירת התאמת מודלי שפה גדולים (LLMs) לתחומים טכניים כמו מדע חומרים באמצעות כוונון עדין (fine-tuning) ומיזוג מודלים. המאמר מתמקד באסטרטגיות כמו CPT, SFT, DPO, ORPO ובעיקר במיזוג SLERP, המדגים כיצד מיזוג יכול להוביל ליכולות מתהוות (emergent capabilities) מעבר לסכום חלקי המודלים המקוריים, במיוחד במודלים גדולים כמו Llama ו-Mistral.

פתיחת מומחיות תחום: כוונון, מיזוג ויכולות ב-LLMs

פירצת Gemini: כלי המודל להתקפות AI משופרות

חוקרים גילו דרך לנצל את תכונת הכוונון העדין (fine-tuning) של Gemini ליצירת התקפות הזרקת הנחיות (prompt injection) יעילות יותר באופן אוטומטי. השיטה, המכונה 'Fun-Tuning', משתמשת ב-API של Google עצמה כדי לעקוף את הצורך בניסוי וטעייה ידניים, ומדגישה פגיעות חדשה במודלי שפה גדולים.

פירצת Gemini: כלי המודל להתקפות AI משופרות

Mistral AI מעלה את הרף: מתחרה קוד פתוח חדש מאתגר

Mistral AI הפריזאית משיקה את Mistral Small 3.1, מודל קוד פתוח מתקדם המאתגר מערכות קנייניות. עם רישיון Apache 2.0, חלון הקשר רחב ומהירות היסק גבוהה, הוא מציע חלופה חזקה ונגישה למודלים כמו Gemma 3 ו-GPT-4o Mini, ומדגיש את המתח בין AI קנייני לאקוסיסטמות פתוחות.

Mistral AI מעלה את הרף: מתחרה קוד פתוח חדש מאתגר

כוונון עדין של ג'מה: שיקולים ויישומים

כוונון עדין (Fine-tuning) של מודלי שפה גדולים (LLMs) מאפשר התאמה למשימות ספציפיות. גישה זו יעילה במיוחד עבור קוד ונתונים פנימיים, ועדיפה לעיתים על פני Retrieval-Augmented Generation (RAG). המאמר סוקר את היתרונות, האתגרים והיישומים של כוונון עדין בעולם האמיתי.

כוונון עדין של ג'מה: שיקולים ויישומים

גוגל משיקה את Gemma 3 1B לנייד

Gemma 3 1B של גוגל: פתרון קומפקטי וחזק (529MB) ליישומי AI במכשירים ניידים ואינטרנט. מאפשר יכולות שפה מתקדמות, פעולה לא מקוונת, פרטיות משופרת ואינטראקציה טבעית בשפה. ניתן להתאמה אישית.

גוגל משיקה את Gemma 3 1B לנייד