שחיקת הפתיחות: מדוע AI 'קוד פתוח' לרוב אינו כזה

המונח “קוד פתוח” מהדהד בעוצמה בעולם הטכנולוגיה. הוא מעורר דימויים של חדשנות שיתופית, ידע משותף ואמונה בסיסית בשקיפות. רוח זו התגלמה בצורה חיה לפני חצי מאה עם הקמתו של ה-Homebrew Computer Club במנלו פארק, קליפורניה. קולקטיב זה של חובבים ו’טינקררים’ לא רק בנה מכונות; הוא בנה תרבות המבוססת על החלפה חופשית של רעיונות ותוכנה, והניח אבני יסוד לתנועת הקוד הפתוח שתחולל מהפכה במחשוב. אולם כיום, מורשת זו שהושגה בעמל רב ועצם הגדרת הפתיחות עומדים בפני אתגר עדין אך משמעותי, במיוחד בתחום הבינה המלאכותית המתרחב במהירות. מספר גדל והולך של חברות המפתחות מודלי AI מתוחכמים ממהרות למתג את יצירותיהן כ”קוד פתוח”, אך מבט מקרוב מגלה כי תווית זו מיושמת לעתים קרובות באופן שטחי, ומסתירה מציאות שאינה עומדת בעקרונות הליבה של התנועה. דילול משמעות זה אינו רק התפלפלות סמנטית; הוא מהווה איום ממשי על עקרונות השקיפות והשחזור (replicability) החיוניים, במיוחד בקהילה המדעית.

הבנת הרוח האמיתית של שיתוף פעולה פתוח

כדי להבין את המצב הנוכחי, יש להעריך תחילה מה באמת מסמל “קוד פתוח”. זה יותר מסתם תוכנה חינמית; זו פילוסופיה המושרשת בקדמה קולקטיבית ובאמון שניתן לאימות. הבסיס לפילוסופיה זו נשען על ארבע חירויות חיוניות:

  1. החופש להריץ את התוכנית לכל מטרה.
  2. החופש ללמוד כיצד התוכנית פועלת ולשנות אותה כך שתבצע את המחשוב שלך כרצונך. גישה לקוד המקור היא תנאי מוקדם לכך.
  3. החופש להפיץ מחדש עותקים כדי שתוכל לעזור לאחרים.
  4. החופש להפיץ עותקים של הגרסאות ששינית לאחרים. בכך תוכל לתת לכל הקהילה הזדמנות להפיק תועלת מהשינויים שלך. גישה לקוד המקור היא תנאי מוקדם לכך.

חירויות אלו, המעוגנות בדרך כלל ברישיונות כמו ה-GNU General Public License (GPL), MIT License, או Apache License, התמקדו היסטורית בקוד מקור. קוד מקור – ההוראות הקריאות לבני אדם שנכתבו על ידי מתכנתים – הוא התוכנית (blueprint) של תוכנה מסורתית. הפיכת קוד זה לזמין באופן פתוח מאפשרת לכל אחד לבדוק אותו, להבין את ההיגיון שלו, לזהות פגמים פוטנציאליים, להתאים אותו לצרכים חדשים ולשתף את השיפורים הללו.

מודל זה היווה זרז יוצא דופן לחדשנות ולקדמה מדעית. שקול את ההשפעה של כלים הזמינים לחוקרים ברחבי העולם:

  • ניתוח סטטיסטי: תוכנה כמו R Studio מספקת סביבה עוצמתית, שקופה וניתנת להרחבה למחשוב סטטיסטי וגרפיקה, והפכה לאבן פינה בניתוח נתונים באינספור תחומים מדעיים. הפתיחות שלה מאפשרת ביקורת עמיתים של שיטות ופיתוח חבילות מיוחדות.
  • דינמיקת זורמים חישובית: OpenFOAM מציעה ספרייה מתוחכמת לסימולציה של זרימות נוזלים, חיונית בתחומים החל מהנדסת אווירונאוטיקה ועד מדעי הסביבה. האופי הפתוח שלה מאפשר התאמה אישית ואימות של סימולציות מורכבות.
  • מערכות הפעלה: Linux ומערכות הפעלה אחרות בקוד פתוח מהוות את עמוד השדרה של חלק ניכר מתשתית המחשוב העולמית, כולל אשכולי מחשוב עתירי ביצועים מדעיים, המוערכים בזכות יציבותם, גמישותם ושקיפותם.

היתרונות משתרעים הרבה מעבר לחיסכון בעלויות בלבד. קוד פתוח מטפח שחזור (reproducibility), אבן יסוד של השיטה המדעית. כאשר הכלים והקוד המשמשים במחקר פתוחים, מדענים אחרים יכולים לשחזר את הניסויים, לאמת את הממצאים ולהתבסס על העבודה בביטחון. הוא מקדם שיתוף פעולה גלובלי, שובר מחסומים ומאפשר לחוקרים מרקעים ומוסדות מגוונים לתרום לאתגרים משותפים. הוא מבטיח אריכות ימים ומונע תלות בספק (vendor lock-in), ומגן על השקעות מחקר מפני גחמות של חברות תוכנה קנייניות. הוא מאיץ גילויים על ידי מתן אפשרות להפצה מהירה וחזרה (iteration) על רעיונות וטכניקות חדשות. האתוס של הקוד הפתוח מתיישב באופן יסודי עם החתירה המדעית לידע באמצעות שקיפות, בדיקה קפדנית וקדמה משותפת.

בינה מלאכותית: חיה אחרת לגמרי

פרדיגמת הקוד הפתוח המבוססת, הבנויה היטב סביב נגישות קוד המקור, נתקלת במערבולות משמעותיות כאשר היא מיושמת בתחום הבינה המלאכותית, במיוחד במודלים בקנה מידה גדול כמו מודלי שפה גדולים (LLMs) יסודיים. בעוד שמערכות AI אלו בהחלט כוללות קוד, הפונקציונליות וההתנהגות שלהן מעוצבות על ידי אלמנטים מורכבים הרבה יותר ולעתים קרובות אטומים. פשוט שחרור קוד הארכיטקטורה של רשת עצבית אינו שווה ערך לפתיחות אמיתית כפי שהוא עבור תוכנה מסורתית.

מודל AI, במיוחד מודל למידה עמוקה, מורכב בדרך כלל מכמה מרכיבים מרכזיים:

  1. ארכיטקטורת המודל (Model Architecture): זהו התכנון המבני של הרשת העצבית – סידור השכבות, הנוירונים והקשרים. חברות לעתים קרובות כן משחררות מידע זה, ומציגות אותו כראיה לפתיחות. זה דומה לשיתוף התוכנית של מנוע.
  2. משקולות המודל (פרמטרים) (Model Weights/Parameters): אלו הם הערכים המספריים, לעתים קרובות מיליארדים מהם, בתוך הרשת שהותאמו במהלך תהליך האימון. הם מייצגים את הדפוסים והידע שנלמדו מנתוני האימון. שחרור המשקולות מאפשר לאחרים להשתמש במודל שאומן מראש. זה כמו לספק את המנוע המורכב במלואו, מוכן להפעלה.
  3. נתוני האימון (Training Data): זהו אולי המרכיב הקריטי ביותר והמוסתר בתדירות הגבוהה ביותר. מודלים יסודיים מאומנים על מערכי נתונים עצומים, לעתים קרובות שנגרפו מהאינטרנט או נאספו מאוספים קנייניים או פרטיים (כמו רשומות רפואיות, המעלות חששות משמעותיים לפרטיות). ההרכב, האצירה, הסינון וההטיות הפוטנציאליות בתוך נתונים אלה משפיעים עמוקות על יכולות המודל, מגבלותיו והתנהגותו האתית. ללא מידע מפורט על נתוני האימון, הבנת מדוע מודל מתנהג כפי שהוא מתנהג, או הערכת התאמתו ובטיחותו ליישומים ספציפיים, הופכת לקשה להפליא. זוהי תערובת הדלק הסודית והתנאים המדויקים שבהם המנוע הורץ.
  4. קוד ותהליך האימון (Training Code and Process): זה כולל את האלגוריתמים הספציפיים המשמשים לאימון, טכניקות האופטימיזציה, ההיפר-פרמטרים שנבחרו (הגדרות השולטות בתהליך הלמידה), התשתית החישובית ששימשה, והאנרגיה המשמעותית שנצרכה. שינויים קלים בתהליך האימון יכולים להוביל להתנהגויות מודל שונות, מה שהופך את השחזור למאתגר גם אם הארכיטקטורה והנתונים היו ידועים. זה מייצג את המפרטים ההנדסיים המפורטים, הכלים ותנאי המפעל ששימשו לבנייה וכוונון המנוע.

מערכות רבות המשווקות כיום כ-AI “קוד פתוח” מציעות בעיקר גישה לארכיטקטורת המודל ולמשקולות שאומנו מראש. בעוד שזה מאפשר למשתמשים להריץ את המודל ואולי לכוונן אותו (fine-tune) על מערכי נתונים קטנים יותר, זה נכשל באופן קריטי במתן השקיפות הדרושה לגבי נתוני האימון והתהליך. זה מגביל קשות את היכולת ללמוד באמת את תכונות היסוד של המודל או לשנות אותו בדרכים משמעותיות עמוקות הדורשות אימון מחדש או הבנת מקורותיו. החירויות ללמוד ולשנות, המרכזיות להגדרת הקוד הפתוח, נפגעות באופן משמעותי כאשר המרכיבים המכריעים של נתונים ומתודולוגיית אימון נותרים חבויים. שחזור יצירת המודל מאפס – מבחן מפתח להבנה ואימות מדעיים – הופך לכמעט בלתי אפשרי.

המגמה המטרידה של ‘שטיפת קוד פתוח’ (Openwashing) ב-AI

פער זה בין התווית למציאות הוליד פרקטיקה המכונה “שטיפת קוד פתוח” (openwashing). מונח זה מתאר את הפעולה של חברות הממנפות את המוניטין החיובי והיתרונות הנתפסים של “קוד פתוח” לשיווק ויתרון אסטרטגי, תוך מניעת גישה למרכיבים קריטיים כמו מידע מפורט על נתוני אימון או הקוד ששימש לאימון עצמו. הן עוטפות את המערכות שלהן בשפת הפתיחות מבלי לאמץ במלואן את עקרונותיה התובעניים של שקיפות וגישה קהילתית.

מספר מודלי AI בולטים, למרות היותם בשימוש נרחב ולעתים נושאים תיוג “פתוח”, אינם עומדים במבחן כאשר הם נמדדים מול ההגדרה המקיפה של קוד פתוח שקודמה על ידי ארגונים כמו ה-Open Source Initiative (OSI). ניתוח של ה-OSI, הפועל במרץ מאז 2022 להבהרת משמעות הקוד הפתוח בהקשר של AI, הדגיש חששות לגבי מספר מודלים פופולריים:

  • Llama 2 & Llama 3.x (Meta): בעוד שמשקולות המודל והארכיטקטורה זמינים, הגבלות על שימוש ושקיפות לא מלאה לגבי מערך נתוני האימון המלא והתהליך מגבילות את התאמתם לערכי הקוד הפתוח המסורתיים.
  • Grok (X): באופן דומה, למרות שזמין, היעדר מידע מקיף על נתוני האימון והמתודולוגיה שלו מעלה שאלות לגבי פתיחותו האמיתית.
  • Phi-2 (Microsoft): לעתים קרובות מתואר כ”מודל פתוח”, שקיפות מלאה לגבי תהליך יצירתו והנתונים נותרה מוגבלת.
  • Mixtral (Mistral AI): למרות שחלקים משוחררים, הוא אינו עומד בקריטריונים המלאים לקוד פתוח בשל מגבלות בגישה לכל המרכיבים הדרושים ללימוד ושינוי.

דוגמאות אלו עומדות בניגוד למאמצים השואפים לדבקות רבה יותר בעקרונות הקוד הפתוח:

  • OLMo (Allen Institute for AI): פותח על ידי מכון מחקר ללא מטרות רווח, OLMo תוכנן במפורש מתוך מחשבה על פתיחות, ושחרר לא רק משקולות אלא גם קוד אימון ופרטים על הנתונים ששימשו.
  • LLM360’s CrystalCoder: פרויקט מונע קהילה השואף לשקיפות מלאה לאורך כל מחזור החיים של המודל, כולל נתונים, נהלי אימון ומדדי הערכה.

מדוע לעסוק ב’שטיפת קוד פתוח’? המניעים מגוונים:

  1. שיווק ותפיסה: התווית “קוד פתוח” נושאת מוניטין חיובי משמעותי. היא מרמזת על שיתוף פעולה, פרקטיקות אתיות ומחויבות לקהילה הרחבה, מה שיכול למשוך משתמשים, מפתחים ועיתונות חיובית.
  2. בניית אקוסיסטם: שחרור משקולות מודל, גם ללא שקיפות מלאה, מעודד מפתחים לבנות יישומים על גבי מערכת ה-AI, ועלול ליצור אקוסיסטם תלוי המיטיב עם החברה המקורית.
  3. ארביטראז’ רגולטורי: זהו מניע מדאיג במיוחד. רגולציות עתידיות, כמו חוק ה-AI של האיחוד האירופי (European Union’s AI Act (2024)), צפויות להטיל דרישות מחמירות יותר על מערכות AI מסוימות בסיכון גבוה. עם זאת, פטורים או בדיקה קלה יותר מוצעים לעתים קרובות עבור “תוכנה חופשית וקוד פתוח”. על ידי יישום התווית “קוד פתוח” – גם אם באופן לא מדויק על פי הגדרות מבוססות – חברות עשויות לקוות לנווט ברגולציות אלו ביתר קלות, ולהימנע מעלויות ציות פוטנציאליות יקרות הקשורות למערכות קנייניות בסיכון גבוה. תיוג אסטרטגי זה מנצל פרצה פוטנציאלית, ומערער את כוונת הרגולציה להבטיח בטיחות ושקיפות.

פרקטיקה זו בסופו של דבר מפחיתה מערכו של המונח “קוד פתוח” ויוצרת בלבול, ומקשה על משתמשים, מפתחים וחוקרים להבחין אילו מערכות AI מציעות באמת את השקיפות והחירויות שהתווית מרמזת עליהן.

מדוע פתיחות אמיתית חשובה בדחיפות למדע

עבור הקהילה המדעית, ההימור בדיון זה גבוה במיוחד. המדע משגשג על שקיפות, שחזור ויכולת לאימות עצמאי. השילוב הגובר של AI במחקר – מניתוח נתונים גנומיים ומידול שינויי אקלים ועד גילוי חומרים חדשים והבנת מערכות ביולוגיות מורכבות – הופך את טבעם של כלי AI אלה לחשוב באופן קריטי. הסתמכות על מערכות AI מסוג “קופסה שחורה”, או כאלו המתחזות לפתוחות מבלי לספק שקיפות אמיתית, מציבה סיכונים עמוקים:

  • פגיעה בשחזור (Reproducibility): אם חוקרים אינם יכולים לגשת או להבין את נתוני האימון והמתודולוגיה מאחורי מודל AI ששימש במחקר, שחזור התוצאות הופך לבלתי אפשרי. זה מערער באופן יסודי עמוד תווך מרכזי של השיטה המדעית. כיצד ניתן לסמוך על ממצאים או להתבסס עליהם אם לא ניתן לאמתם באופן עצמאי?
  • הטיות ומגבלות נסתרות: כל מודלי ה-AI יורשים הטיות מנתוני האימון שלהם ומבחירות התכנון. ללא שקיפות, חוקרים אינם יכולים להעריך כראוי הטיות אלו או להבין את מגבלות המודל. שימוש במודל מוטה ללא ידיעה עלול להוביל לתוצאות מוטות, מסקנות פגומות והשלכות מזיקות פוטנציאליות בעולם האמיתי, במיוחד בתחומים רגישים כמו מחקר רפואי או מדעי החברה.
  • היעדר בדיקה קפדנית: מודלים אטומים חומקים מביקורת עמיתים קפדנית. הקהילה המדעית אינה יכולה לחקור במלואה את פעולתו הפנימית של המודל, לזהות שגיאות פוטנציאליות בהיגיון שלו, או להבין את אי-הוודאויות הקשורות לתחזיותיו. זה מעכב את טבע התיקון העצמי של החקירה המדעית.
  • תלות במערכות תאגידיות: הסתמכות על מערכות AI סגורות או סגורות למחצה הנשלטות על ידי תאגידים יוצרת תלויות. סדר יום מחקרי עלול להיות מושפע בעדינות מהיכולות והמגבלות של כלי תאגיד זמינים, והגישה עלולה להיות מוגבלת או להפוך ליקרה, מה שעלול לחנוק כיווני מחקר עצמאיים ולהרחיב את הפער בין מוסדות ממומנים היטב לאחרים.
  • חניקת חדשנות: קוד פתוח אמיתי מאפשר לחוקרים לא רק להשתמש בכלים אלא גם לנתח, לשנות, לשפר ולהתאים אותם למטרות חדשות. אם מרכיבים מרכזיים של מודלי AI נותרים בלתי נגישים, שדרה חיונית זו לחדשנות נחסמת. מדענים נמנעים מלהתנסות בטכניקות אימון חדשניות, לחקור שילובי נתונים שונים, או להתאים מודלים לשאלות מחקר ספציפיות ומדויקות שהמפתחים המקוריים לא צפו.

הקהילה המדעית אינה יכולה להרשות לעצמה לקבל באופן פסיבי את דילול המונח “קוד פתוח”. עליה לתמוך באופן פעיל בבהירות ולדרוש שקיפות אמיתית ממפתחי AI, במיוחד כאשר כלים אלה מועסקים בהקשרים מחקריים. זה כרוך ב:

  • קידום סטנדרטים ברורים: תמיכה במאמצים, כמו אלה של ה-OSI, לקבוע הגדרות ברורות וקפדניות למה מהווה “AI בקוד פתוח”, הגדרות הכוללות שקיפות לגבי ארכיטקטורה, משקולות, נתוני אימון ותהליכי אימון.
  • תעדוף כלים ניתנים לאימות: העדפת שימוש במודלי AI ופלטפורמות העומדים בסטנדרטים גבוהים אלה של שקיפות, גם אם הם בתחילה פחות ביצועיים או דורשים יותר מאמץ מאשר חלופות אטומות זמינות.
  • דרישת שקיפות: התעקשות שפרסומים הכוללים AI יכללו גילויים מפורטים על המודלים ששימשו, כולל מידע מקיף על מקור נתוני האימון, עיבודם והטיות פוטנציאליות, כמו גם מתודולוגיות אימון.
  • תמיכה בפרויקטים פתוחים באמת: תרומה ושימוש בפרויקטים ויוזמות מונעי קהילה ממוסדות המחויבים לפתיחות אמיתית בפיתוח AI.

רוח ה-Homebrew Computer Club – של ידע משותף ובנייה שיתופית – חיונית לניווט אחראי במורכבויות עידן ה-AI. החזרה וההגנה על המשמעות האמיתית של “קוד פתוח” עבור בינה מלאכותית אינה נוגעת רק לטוהר טרמינולוגי; היא נוגעת לשמירה על היושרה, השחזור והקדמה המתמשכת של המדע עצמו בעולם המונע יותר ויותר על ידי AI. הדרך קדימה דורשת ערנות ומחויבות קולקטיבית להבטיח שהכלים העוצמתיים של AI יפותחו ויוטמעו באופן העולה בקנה אחד עם עקרונות החקירה הפתוחה ששירתו את המדע היטב במשך מאות שנים.