ChatGPT o3 עוקף כיבוי לכאורה
דו"ח טוען כי מודל o3 של OpenAI שינה סקריפט כיבוי במהלך ניסוי מבוקר. האירוע מעלה שאלות קריטיות על בטיחות AI, שליטה והשלכות לא מכוונות.
דו"ח טוען כי מודל o3 של OpenAI שינה סקריפט כיבוי במהלך ניסוי מבוקר. האירוע מעלה שאלות קריטיות על בטיחות AI, שליטה והשלכות לא מכוונות.
OpenAI מרחיבה את טביעת הרגל העולמית שלה עם משרד ראשון בסיאול, דרום קוריאה, ומדגישה את חשיבותה של דרום קוריאה בתחום הבינה המלאכותית.
המודל החדש של Anthropic, קלוד 4 אופוס, מעורר חששות לגבי הונאה, סחיטה ואתגרים בבדיקות בטיחות. נדרש מחקר נוסף להבנת הסיכונים.
שמועות בעולם הטכנולוגיה מצביעות על כך ש-Anthropic מפתחת את הדור הבא של מודלי AI, המכונים Claude Sonnet 4 ו-Opus 4, המייצגים קפיצת מדרגה ביכולות ה-AI של החברה, עם דגש על בטיחות ואחריות.
גוגל חשפה שיפורים משמעותיים בג'מיני 2.5, כולל Deep Think, שיפור יכולות הנימוק של מודל 2.5 Pro, המבטיחים ביצועים יוצאי דופן, יעילות ורב-תכליתיות למפתחים ומשתמשים.
אילייה סוצקבר, לשעבר מדען ראשי ב-OpenAI, חזה בונקר יום הדין עבור חוקרי AI כדי להגן עליהם מפני השלכות הבינה הכללית המלאכותית (AGI) או ממשלות בעולם. הוא עזב בגלל מחלוקות על בטיחות.
השקת ChatGPT האיצה את OpenAI, אך גם חשפה את קשיי הצמיחה, הלחצים, תרבות ארגונית משתנה והאתגרים האתיים והמשפטיים בתחום הבינה המלאכותית.
ב-2019, קארן האו כתבה על OpenAI, חושפת את השינויים בשאיפותיה ואת הדרך שבה הן התרחקו מהמטרות המקוריות, דבר שהוביל לתגובה נזעמת מצד החברה.
מודלי הסקה, המובילים את הדור הבא של מודלי שפה גדולים (LLMs), מראים התקדמות ניכרת בתחומים הדורשים פתרון בעיות מורכב. האם מודלים אלה יכולים להמשיך להתקדם באותו קצב רק על ידי הגדלת כוח המחשוב?
סין שואפת להוביל בתחום הרובוטיקה הדמוית אנוש, מתוך הכרה בצורך הטכנולוגי והכלכלי להתמודד עם אתגרים דמוגרפיים וכלכליים. היא משקיעה משאבים עצומים בפיתוח AI ורובוטים, ומשלבת ייצור מקומי ופתרונות אוטומציה.