הצד האפל של בינה מלאכותית: נשק סייבר

השילוב המהיר וההתקדמות של בינה מלאכותית (AI) לחיינו הדיגיטליים היומיומיים התקבלו בשמחה ובחשש. בעוד שבינה מלאכותית מבטיחה מהפכה בתעשיות ושיפור היעילות, היא מציבה גם מערכת אתגרים חדשה, במיוחד בכל הנוגע לניצולה על ידי פושעי סייבר. דו"ח אבטחת AI האחרון של Check Point, חברת מחקר טכנולוגיות תוכנה, שופך אור על האיום הגובר הזה, וחושף כיצד האקרים ממנפים יותר ויותר כלי AI כדי להגביר את ההיקף, היעילות וההשפעה של הפעילויות הזדוניות שלהם.

דו"ח Check Point, הראשון מסוגו, מדגיש את הצורך הדחוף באמצעי הגנה חזקים על AI ככל שהטכנולוגיה ממשיכה להתפתח. הדו"ח מדגיש שאיומי בינה מלאכותית אינם עוד תרחישים היפותטיים אלא מתפתחים באופן פעיל בזמן אמת. ככל שכלי AI הופכים לנגישים יותר, שחקני איומים מנצלים נגישות זו בשתי דרכים עיקריות: שיפור היכולות שלהם באמצעות AI ומיקוד לארגונים ולאנשים המאמצים טכנולוגיות AI.

הפיתוי של מודלים שפה עבור פושעי סייבר

פושעי סייבר עוקבים בדבקות אחר מגמות באימוץ AI. בכל פעם שמשחררים לציבור מודל שפה גדול (LLM) חדש, השחקנים הזדוניים האלה ממהרים לחקור את הפוטנציאל שלו למטרות נלוזות. ChatGPT ו-API של OpenAI הם כיום כלים מועדפים בקרב הפושעים האלה, אך מודלים אחרים כמו Google Gemini, Microsoft Copilot ו-Anthropic Claude צוברים בהתמדה אחיזה.

הפיתוי של מודלים שפה אלה טמון ביכולתם להפוך לאוטומטיים ולהגדיל את היבטים שונים של פשעי סייבר, החל מיצירת הודעות דוא"ל משכנעות של דיוג ועד ליצירת קוד זדוני. הדו"ח מדגיש מגמה מדאיגה: פיתוח ומסחר של LLM זדוניים מיוחדים המותאמים במיוחד לפשעי סייבר, המכונים לעתים קרובות "מודלים אפלים".

עלייתם של מודלים AI אפלים

מודלים בקוד פתוח, כמו DeepSeek ו-Qwen של Alibaba, הופכים לאטרקטיביים יותר ויותר עבור פושעי סייבר בשל מגבלות השימוש המינימליות שלהם והנגישות לרמה החינמית. מודלים אלה מספקים קרקע פורייה לניסויים והתאמה זדוניים. עם זאת, הדו"ח חושף מגמה מדאיגה יותר: פיתוח ומסחר של LLM זדוניים מיוחדים המותאמים במיוחד לפשעי סייבר. "מודלים אפלים" אלה מתוכננים לעקוף אמצעי הגנה אתיים ומשווקים בגלוי ככלי פריצה.

דוגמה ידועה לשמצה היא WormGPT, מודל שנוצר על ידי פריצת ChatGPT. WormGPT, הממותגת כ-"AI הפריצה האולטימטיבית", יכולה ליצור הודעות דוא"ל של דיוג, לכתוב תוכנות זדוניות ולייצר סקריפטים של הנדסה חברתית ללא מסננים אתיים. היא אף מגובה על ידי ערוץ טלגרם המציע מנויים והדרכות, מה שמצביע בבירור על המסחור של AI אפל.

מודלים אפלים אחרים כוללים GhostGPT, FraudGPT ו-HackerGPT, כל אחד מיועד להיבטים מיוחדים של פשעי סייבר. חלקם הם פשוט עטיפות של פריצת כלא סביב כלים מיינסטרים, בעוד שאחרים הם גרסאות ששונו של מודלים בקוד פתוח. מודלים אלה מוצעים בדרך כלל למכירה או להשכרה בפורומים תת-קרקעיים ובשווקים אפלים של האינטרנט, מה שהופך אותם לנגישים למגוון רחב של פושעי סייבר.

פלטפורמות AI מזויפות והפצת תוכנות זדוניות

הביקוש לכלי AI הוביל גם להתרבות של פלטפורמות AI מזויפות המתחזות לשירותים לגיטימיים, אך הן למעשה כלי רכב לתוכנות זדוניות, גניבת נתונים והונאה פיננסית. דוגמה אחת לכך היא HackerGPT Lite, החשודה כאתר דיוג. באופן דומה, כמה אתרי אינטרנט המציעים הורדות של DeepSeek מדווחים כמפיצים תוכנות זדוניות.

פלטפורמות מזויפות אלה מפתות לעתים קרובות משתמשים תמימים עם הבטחות ליכולות AI מתקדמות או תכונות בלעדיות. ברגע שמשתמש מתקשר עם הפלטפורמה, ניתן לרמות אותו להוריד תוכנה זדונית או לספק מידע רגיש, כגון אישורי כניסה או פרטים פיננסיים.

דוגמאות בעולם האמיתי להתקפות סייבר המופעלות על ידי AI

דו"ח Check Point מדגיש מקרה בעולם האמיתי הכולל הרחבת Chrome זדונית המתחזה ל-ChatGPT שהתגלתה כגונבת אישורי משתמשים. לאחר ההתקנה, היא חטפה קובצי Cookie של הפעלה בפייסבוק, והעניקה לתוקפים גישה מלאה לחשבונות משתמשים - טקטיקה שאפשר להרחיב בקלות על פני פלטפורמות מרובות.

תקרית זו מדגישה את הסיכונים הכרוכים בהרחבות דפדפן שנראות תמימות ואת הפוטנציאל להתקפות הנדסה חברתית המופעלות על ידי AI. פושעי סייבר יכולים להשתמש ב-AI כדי ליצור אתרי אינטרנט או יישומים מזויפים משכנעים המחקים שירותים לגיטימיים, מה שמקשה על משתמשים להבחין בין הדבר האמיתי למתחזה זדוני.

ההשפעה של AI על היקף פשעי הסייבר

"התרומה העיקרית של כלים מונעי AI אלה היא היכולת שלהם להגדיל את הפעולות הפליליות", מוסיף דו"ח Check Point. "טקסט שנוצר על ידי AI מאפשר לפושעי סייבר להתגבר על מחסומי שפה ותרבות, ולשפר משמעותית את יכולתם לבצע התקפות תקשורת מתוחכמות בזמן אמת ובמצב לא מקוון".

AI מאפשר לפושעי סייבר להפוך לאוטומטיים משימות שבעבר גזלו זמן ועבודה רבה. לדוגמה, ניתן להשתמש ב-AI כדי ליצור אלפי הודעות דוא"ל של דיוג בהתאמה אישית תוך דקות, מה שמגדיל את הסבירות שמישהו יפול קורבן להונאה.

יתר על כן, ניתן להשתמש ב-AI כדי לשפר את האיכות של הודעות דוא"ל של דיוג והתקפות הנדסה חברתית אחרות. על ידי ניתוח נתוני משתמשים והתאמת המסר לנמען האישי, פושעי סייבר יכולים ליצור הונאות משכנעות מאוד שקשה לזהות.

נוף האיומים בקניה

הרשויות הקנייתיות מעלות גם הן אזעקות לגבי העלייה בהתקפות סייבר המופעלות על ידי AI. באוקטובר 2024, רשות התקשורת של קניה (CA) הזהירה מפני עלייה בהתקפות סייבר המופעלות על ידי AI - גם כאשר האיומים הכלליים צנחו ב-41.9 אחוז במהלך הרבעון שהסתיים בספטמבר.

"פושעי סייבר משתמשים יותר ויותר בהתקפות המופעלות על ידי AI כדי לשפר את היעילות והגודל של הפעולות שלהם", אמר מנכ"ל CA דייוויד מוגוני. "הם ממנפים AI ולמידת מכונה כדי להפוך את היצירה של הודעות דוא"ל של דיוג וסוגים אחרים של הנדסה חברתית לאוטומטית".

הוא ציין גם כי תוקפים מנצלים יותר ויותר תצורות שגויות של מערכות - כגון יציאות פתוחות ובקרות גישה חלשות - כדי לקבל גישה לא מורשית, לגנוב נתונים רגישים ולפרוס תוכנות זדוניות.

קניה אינה לבדה מול האיום הזה. מדינות ברחבי העולם מתמודדות עם האתגרים של פשעי סייבר המופעלים על ידי AI.

הנגישות של כלי AI והתחכום הגובר של התקפות סייבר מקשים יותר על ארגונים ויחידים להגן על עצמם.

מרוץ החימוש כדי להגן מפני AI

ככל שהמרוץ לאמץ AI מואץ, כך גם מרוץ החימוש כדי להגן מפניו. עבור ארגונים ומשתמשים כאחד, עירנות אינה עוד אופציונלית - היא הכרחית.

כדי להפחית את הסיכונים של פשעי סייבר המופעלים על ידי AI, ארגונים צריכים לאמץ גישת אבטחה מרובת שכבות הכוללת:

  • זיהוי איומים המופעל על ידי AI: יישום פתרונות אבטחה מבוססי AI שיכולים לזהות ולהגיב להתקפות המופעלות על ידי AI בזמן אמת.
  • הדרכת עובדים: חינוך עובדים לגבי הסיכונים של התקפות הנדסה חברתית המופעלות על ידי AI ומתן להם את הכישורים לזהות ולהימנע מהונאות אלה.
  • בקרות גישה חזקות: יישום בקרות גישה חזקות כדי למנוע גישה לא מורשית לנתונים ומערכות רגישים.
  • ביקורות אבטחה קבועות: עריכת ביקורות אבטחה קבועות כדי לזהות ולטפל בפגיעויות במערכות ובתשתיות.
  • שיתוף פעולה ושיתוף מידע: שיתוף מודיעין איומים עם ארגונים אחרים וספקי אבטחה כדי לשפר את ההגנה הקולקטיבית מפני פשעי סייבר המופעלים על ידי AI.
  • פיתוח ופריסה אתיים של AI: הבטחה שמערכות AI מפותחות ופרוסות בצורה אתית ואחראית, עם אמצעי הגנה במקום כדי למנוע שימוש לרעה.

יחידים יכולים גם לנקוט צעדים כדי להגן על עצמם מפני פשעי סייבר המופעלים על ידי AI, כולל:

  • להיזהר מהודעות דוא"ל והודעות לא רצויות: לנקוט משנה זהירות בעת פתיחת הודעות דוא"ל והודעות משולחים לא ידועים, במיוחד אלה המכילות קישורים או קבצים מצורפים.
  • אימות האותנטיות של אתרי אינטרנט ויישומים: הבטחה שאם אתרי אינטרנט ויישומים הם לגיטימיים לפני מסירת מידע אישי כלשהו.
  • שימוש בסיסמאות חזקות והפעלת אימות רב-שלבי: הגנה על חשבונות עם סיסמאות חזקות וייחודיות והפעלת אימות רב-שלבי במידת האפשר.
  • שמירה על עדכניות של תוכנה: עדכון קבוע של תוכנה ומערכות הפעלה כדי לתקן נקודות תורפה באבטחה.
  • דיווח על הונאות חשודות: דיווח על הונאות חשודות לרשויות המתאימות.

המאבק נגד פשעי סייבר המופעלים על ידי AI הוא קרב מתמשך. על ידי שמירה על מידע, אימוץ אמצעי אבטחה חזקים ועבודה משותפת, ארגונים ויחידים יכולים להפחית את הסיכון שלהם להפוך לקורבנות של איומים מתפתחים אלה.