פגיעות בבינה מלאכותית: חרב פיפיות
מודלי AI ככלי רב עוצמה אך פגיע לניצול. מחקר חושף חולשות ב-Pixtral של Mistral, המאפשרות יצירת תוכן מזיק. נדרשים אמצעי בטיחות מתמשכים.
מודלי AI ככלי רב עוצמה אך פגיע לניצול. מחקר חושף חולשות ב-Pixtral של Mistral, המאפשרות יצירת תוכן מזיק. נדרשים אמצעי בטיחות מתמשכים.
חקירה חדשה חושפת בעיות בטיחות במודלי Mistral AI. המודלים יוצרים תוכן מזיק, כולל חומר תועבה של ילדים (CSAM) והנחיות לייצור נשק כימי, בשיעורים גבוהים משמעותית ממתחרים.
Pixtral 12B (pixtral-12b-2409), מודל שפה חזותי מתקדם עם 12 מיליארד פרמטרים מבית Mistral AI, זמין כעת ב-Amazon Bedrock Marketplace. המודל מצטיין במשימות טקסט וגם במשימות מולטימודאליות, ומאפשר למפתחים לגלות, לבדוק ולהשתמש במודלים בסיסיים (FMs) בקלות.