הונאת 'הקוד הפתוח' ב-AI: חטיפת אידיאל

המונח ‘קוד פתוח’ הדהד פעם בבהירות מסוימת, הבטחה לידע משותף ולקדמה שיתופית שהניעה קפיצות מדעיות וטכנולוגיות רבות קדימה. הוא העלה תמונות של קהילות הבונות יחד, בוחנות זו את עבודתה של זו, ועומדות על כתפי ענקים משום שהשרטוטים היו זמינים בחופשיות. כעת, בניווט בנוף הבינה המלאכותית (AI), המונח הזה מרגיש יותר ויותר… חמקמק. כפי שהודגש בדפי Nature ונלחש במעבדות ובחדרי ישיבות, מספר מדאיג של שחקנים בבהלה לזהב של ה-AI עוטים את יצירותיהם בגלימת ‘קוד פתוח’ בעודם שומרים את הרכיבים הקריטיים באמת תחת מנעול ובריח. זו אינה רק התפלפלות סמנטית; זוהי פרקטיקה המכרסמת ביסודות היושרה המדעית ומאיימת לערפל את נתיב החדשנות העתידית. קהילת המחקר, הקבוצה שעומדת להרוויח או להפסיד הכי הרבה, צריכה לזהות את ההצגה הזו כפי שהיא ולתמוך בכוח במערכות AI המגלמות באמת את עקרונות השקיפות והשחזוריות (reproducibility) שעליהם הסתמכנו זמן רב.

תור הזהב של הפתיחות: מורשת תחת איום

במשך עשרות שנים, תנועת הקוד הפתוח הייתה גיבורה אלמונית של הקידמה המדעית. חשבו מעבר לכלים המוכרים כמו R Studio לקסמי סטטיסטיקה או OpenFOAM למידול דינמיקת נוזלים. קחו בחשבון את מערכות היסוד כמו Linux, המניעות חלקים נרחבים מהאינטרנט ומאשכולי מחשוב מדעיים, או שרת האינטרנט Apache, עדות לפיתוח תוכנה שיתופי. הפילוסופיה הייתה פשוטה: ספקו גישה לקוד המקור, אפשרו שינוי והפצה מחדש תחת רישיונות מתירניים, וטפחו מערכת אקולוגית גלובלית שבה שיפורים מועילים לכולם.

זו לא הייתה רק אלטרואיזם; זו הייתה גאונות פרגמטית. הפתיחות האיצה את הגילוי. חוקרים יכלו לשחזר ניסויים, לאמת ממצאים ולהתבסס על עבודה קיימת מבלי להמציא מחדש את הגלגל או לנווט במערכות קנייניות אטומות. היא טיפחה אמון, שכן המנגנונים הפנימיים היו זמינים לבדיקה, מה שאפשר למצוא ולתקן באגים באופן קולקטיבי. היא דמוקרטיזציה של הגישה, ואפשרה למדענים ולמפתחים ברחבי העולם, ללא קשר לשיוך מוסדי או לתקציב, להשתתף בעבודה חדשנית. רוח שיתופית זו, הבנויה על גישה משותפת ובחינה הדדית, הפכה מושרשת עמוק בשיטה המדעית עצמה, הבטיחה חוסן וטיפחה התקדמות מהירה בתחומים מגוונים. עצם היכולת לנתח, להבין ולשנות את הכלים שבהם נעשה שימוש הייתה בעלת חשיבות עליונה. זה לא היה רק עניין של שימוש בתוכנה; זה היה עניין של הבנה כיצד היא עובדת, הבטחת התאמתה למשימה מדעית ספציפית, ותרומה חזרה למאגר הידע הקולקטיבי. מעגל קסמים זה הניע חדשנות בקצב חסר תקדים.

תלות ה-AI בנתונים: מדוע ‘הקוד הוא המלך’ אינו מספיק

היכנסו לעידן הבינה המלאכותית בקנה מידה גדול, במיוחד מודלי היסוד (foundational models) הלוכדים כל כך הרבה תשומת לב והשקעה. כאן, פרדיגמת הקוד הפתוח המסורתית, המרוכזת בעיקר בקוד המקור, נתקלת בחוסר התאמה מהותי. בעוד שהאלגוריתמים והקוד המשמשים לבניית מודל AI הם בהחלט חלק מהתמונה, הם רחוקים מלהיות הסיפור כולו. AI מודרני, במיוחד מודלי למידה עמוקה, הם צרכנים רעבתניים של נתונים. נתוני האימון אינם רק קלט; הם ללא ספק הגורם הקובע העיקרי ליכולות, להטיות ולמגבלות של המודל.

שחרור קוד המודל, או אפילו הפרמטרים הסופיים שאומנו (‘המשקולות’), מבלי לספק גישה משמעותית למידע מפורט על מערכי הנתונים העצומים ששימשו לאימון, דומה למסירת מפתחות למכונית אך סירוב לומר איזה סוג דלק היא צורכת, היכן נסעה, או כיצד המנוע הורכב בפועל. ייתכן שתוכלו לנהוג בה, אך יש לכם יכולת מוגבלת להבין את מוזרויות הביצועים שלה, לאבחן בעיות פוטנציאליות, או לשנות אותה באופן אמין למסעות חדשים.

יתר על כן, משאבי המחשוב הנדרשים לאימון מודלים אלה מאפס הם עצומים, ולעתים קרובות מגיעים למיליוני דולרים עבור ריצת אימון אחת. זה יוצר מחסום נוסף. גם אם הקוד והנתונים היו זמינים במלואם, רק קומץ ארגונים מחזיקים בתשתית לשכפול תהליך האימון. מציאות זו משנה באופן יסודי את הדינמיקה בהשוואה לתוכנה מסורתית, שבה הידור קוד נמצא בדרך כלל בהישג ידם של רוב המפתחים או החוקרים. עבור AI, שחזוריות אמיתית והיכולת להתנסות באמצעות אימון מחדש נותרות לעתים קרובות חמקמקות, גם כאשר רכיבים מסומנים כ’פתוחים’. לכן, פשוט יישום הגדרות קוד פתוח ישנות שנוצרו עבור קוד אינו תופס את הצרכים של תחום חדש זה, המרוכז בנתונים ואינטנסיבי במחשוב.

‘Openwashing’: זאב בעור כבש

פער זה בין מושגי קוד פתוח מסורתיים למציאות של פיתוח AI יצר קרקע פורייה לתופעה המכונה ‘openwashing’. חברות ממהרות להדביק את התווית ‘קוד פתוח’ על מודלי ה-AI שלהן, קוצרות את היתרונות ביחסי ציבור ואת הרצון הטוב הקשורים למונח, תוך שימוש ברישיונות או הגבלות גישה הבוגדים ברוח, אם לא באות המחמירה (ויש שיאמרו מיושנת) של פתיחות אמיתית.

איך זה נראה בפועל?

  • שחרור קוד ללא נתונים: חברה עשויה לשחרר את קוד ארכיטקטורת המודל ואולי אפילו את המשקולות שאומנו מראש, מה שמאפשר לאחרים להשתמש במודל “כפי שהוא” או לכוונן אותו (fine-tune) על מערכי נתונים קטנים יותר. עם זאת, מערך הנתונים העצום והיסודי של האימון – הרוטב הסודי המגדיר את יכולות הליבה של המודל – נותר קנייני ומוסתר.
  • רישוי מגביל: מודלים עשויים להשתחרר תחת רישיונות שנראים פתוחים במבט ראשון אך מכילים סעיפים המגבילים שימוש מסחרי, מגבילים פריסה בתרחישים מסוימים, או אוסרים על סוגים ספציפיים של שינוי או ניתוח. הגבלות אלה נוגדות את החירויות הקשורות בדרך כלל לתוכנת קוד פתוח.
  • חשיפת נתונים עמומה: במקום מידע מפורט על מקורות הנתונים, שיטות האיסוף, תהליכי הניקוי והטיות פוטנציאליות, חברות עשויות להציע תיאורים מעורפלים או להשמיט פרטים חיוניים לחלוטין. חוסר זה ב’שקיפות נתונים’ הופך את ההערכה המלאה של אמינות המודל או השלכותיו האתיות לבלתי אפשרית.

מדוע לעסוק בפרקטיקות כאלה? המניעים ככל הנראה מגוונים. הקונוטציות החיוביות של ‘קוד פתוח’ הן בעלות ערך ללא ספק למשיכת כישרונות, בניית קהילות מפתחים (גם אם מוגבלות), ויצירת עיתונות אוהדת. באופן ציני יותר, כפי שמציע Nature, ייתכנו תמריצים רגולטוריים. חוק ה-AI המקיף של האיחוד האירופי משנת 2024, למשל, כולל פטורים פוטנציאליים או דרישות קלות יותר למערכות המסווגות כקוד פתוח. על ידי שימוש אסטרטגי בתווית, חברות מסוימות עשויות לקוות לנווט בנופים רגולטוריים מורכבים עם פחות חיכוך, תוך עקיפה פוטנציאלית של פיקוח המיועד למערכות AI חזקות ורב-תכליתיות. תרגיל מיתוג אסטרטגי זה מנצל את הרצון הטוב ההיסטורי של תנועת הקוד הפתוח תוך פגיעה פוטנציאלית במאמצים להבטיח פריסה אחראית של AI.

ספקטרום של פתיחות: בחינת המוצגים

חשוב להכיר בכך שפתיחות ב-AI אינה בהכרח מצב בינארי; היא קיימת על ספקטרום. עם זאת, נוהלי התיוג הנוכחיים לעתים קרובות מטשטשים היכן מודל מסוים באמת יושב על הספקטרום הזה.

שקלו כמה דוגמאות בולטות הנידונות לעתים קרובות בהקשר זה:

  • סדרת Llama של Meta: בעוד ש-Meta שחררה את המשקולות והקוד עבור מודלי Llama, הגישה דרשה בתחילה בקשה, והרישיון כלל הגבלות, במיוחד בנוגע לשימוש על ידי חברות גדולות מאוד ויישומים ספציפיים. באופן קריטי, נתוני האימון הבסיסיים לא שוחררו, מה שהגביל שחזוריות מלאה וניתוח מעמיק של מאפייניו. בעוד שגרסאות מאוחרות יותר התאימו את התנאים, סוגיית הליבה של אטימות הנתונים נותרה לעתים קרובות.
  • Phi-2 של Microsoft: Microsoft הציגה את Phi-2 כמודל שפה קטן ‘קוד פתוח’. בעוד שמשקולות המודל זמינות, לרישיון יש מגבלות שימוש ספציפיות, ומידע מפורט על מערך נתוני האימון שלו, החיוני להבנת יכולותיו והטיותיו הפוטנציאליות (במיוחד בהתחשב באימונו על נתונים “סינתטיים”), אינו שקוף לחלוטין.
  • Mixtral של Mistral AI: מודל זה, ששוחרר על ידי סטארט-אפ AI אירופאי בולט, זכה לתשומת לב בזכות ביצועיו. בעוד שרכיבים שוחררו תחת רישיון Apache 2.0 מתירני (רישיון פתוח באמת לקוד/משקולות), שקיפות מלאה בנוגע להרכב נתוני האימון ותהליך האצירה נותרה מוגבלת, מה שמקשה על בחינה מדעית מעמיקה.

השוו זאת ליוזמות השואפות להתאמה רבה יותר לעקרונות הקוד הפתוח המסורתיים:

  • OLMo של Allen Institute for AI: פרויקט זה כיוון במפורש לבנות מודל שפה פתוח באמת, תוך מתן עדיפות לשחרור לא רק של משקולות המודל והקוד, אלא גם של נתוני האימון (מערך הנתונים Dolma) ויומני האימון המפורטים. מחויבות זו מאפשרת רמות חסרות תקדים של שחזוריות וניתוח על ידי קהילת המחקר הרחבה יותר.
  • CrystalCoder של LLM360: מאמץ מונע-קהילה זה מדגיש באופן דומה שחרור של כל רכיבי מחזור חיי פיתוח המודל, כולל נקודות ביניים (checkpoints) ותיעוד מפורט על הנתונים ותהליך האימון, תוך טיפוח רמת שקיפות החסרה לעתים קרובות בשחרורים תאגידיים.

דוגמאות מנוגדות אלה מדגישות כי פתיחות אמיתית ב-AI אפשרית, אך היא דורשת מחויבות מכוונת מעבר לשחרור קוד או משקולות בלבד. היא דורשת שקיפות לגבי הנתונים והתהליך, תוך אימוץ הבחינה הנלווית לכך. העמימות הנוכחית המטופחת על ידי ‘openwashing’ מקשה על חוקרים להבחין אילו כלים תומכים באמת בחקירה מדעית פתוחה.

שחיקת האמון: יושרה מדעית על כף המאזניים

ההשלכות של ‘openwashing’ נרחב זה משתרעות הרבה מעבר למיתוג בלבד. כאשר חוקרים מסתמכים על מודלי AI שהמנגנונים הפנימיים שלהם, במיוחד הנתונים שעליהם אומנו, אטומים, זה פוגע בלב המתודולוגיה המדעית.

  • פגיעה בשחזוריות: אבן יסוד בתוקף מדעי היא היכולת של חוקרים בלתי תלויים לשחזר תוצאות. אם נתוני האימון ומתודולוגיות האימון המדויקות אינם ידועים, שכפול אמיתי הופך לבלתי אפשרי. חוקרים עשויים להשתמש במודל שאומן מראש, אך הם אינם יכולים לאמת את בנייתו או לבחון את תכונותיו הבסיסיות הנגזרות מהנתונים הנסתרים.
  • עיכוב באימות: כיצד מדענים יכולים לסמוך על הפלטים של מודל אם הם אינם יכולים לבדוק את הנתונים מהם למד? הטיות נסתרות, אי דיוקים או חששות אתיים המוטמעים בנתוני האימון יתבטאו בהכרח בהתנהגות המודל, אך ללא שקיפות, קשה לזהות, לאבחן או למתן פגמים אלה. שימוש בקופסאות שחורות כאלה לגילוי מדעי מציג רמת אי ודאות בלתי קבילה.
  • חניקת חדשנות: המדע מתקדם על ידי בנייה על עבודה קודמת. אם מודלי יסוד משוחררים עם הגבלות או ללא השקיפות הדרושה (במיוחד בנוגע לנתונים), זה מעכב את היכולת של אחרים לחדש, להתנסות במשטרי אימון חלופיים, או להתאים את המודלים ליישומים מדעיים חדשים בדרכים שהיוצרים המקוריים אולי לא חזו. הקדמה הופכת מוגבלת על ידי ספקי מערכות אטומות-למחצה אלה.

ההסתמכות על מערכות תאגידיות סגורות או סגורות חלקית מאלצת חוקרים לתפקיד צרכני פסיבי במקום משתתפים פעילים ומחדשים. היא מסכנת יצירת עתיד שבו תשתית מדעית קריטית נשלטת על ידי מספר מצומצם של ישויות גדולות, תוך העדפה פוטנציאלית של אינטרסים מסחריים על פני צרכי החקירה המדעית הפתוחה. שחיקת שקיפות זו מתורגמת ישירות לשחיקת האמון בכלים העומדים בבסיס המחקר המודרני.

ריכוזיות שוק והאפקט המצנן על חדשנות

מעבר להשפעה המיידית על הפרקטיקה המדעית, השכיחות של קוד פתוח מזויף ב-AI נושאת השלכות כלכליות ושוקיות משמעותיות. פיתוח מודלי יסוד גדולים דורש לא רק מומחיות משמעותית אלא גם גישה למערכי נתונים עצומים וכוח מחשוב אדיר – משאבים המוחזקים באופן לא פרופורציונלי על ידי תאגידי טכנולוגיה גדולים.

כאשר תאגידים אלה משחררים מודלים תחת דגל ‘קוד פתוח’ אך שומרים על שליטה בנתוני האימון החיוניים או מטילים רישיונות מגבילים, זה יוצר מגרש משחקים לא שוויוני.

  • חסמי כניסה: סטארט-אפים ומעבדות מחקר קטנות יותר חסרים את המשאבים ליצור מודלי יסוד דומים מאפס. אם המודלים ה’פתוחים’ לכאורה שמשחררים השחקנים המכהנים מגיעים עם תנאים נלווים (כמו הגבלות שימוש מסחרי או אטימות נתונים המונעת שינוי עמוק), זה מגביל את היכולת של שחקנים קטנים אלה להתחרות ביעילות או לבנות יישומים חדשניים באמת על גביהם.
  • ביצור השחקנים המכהנים: ‘Openwashing’ יכול לשמש כחפיר אסטרטגי. על ידי שחרור מודלים שימושיים אך לא פתוחים באמת, חברות גדולות יכולות לטפח מערכות אקולוגיות התלויות בטכנולוגיה שלהן תוך מניעת מתחרים מלשכפל באופן מלא או לשפר משמעותית את נכסי הליבה שלהן (הנתונים ותהליכי האימון המעודנים). זה נראה כמו פתיחות אך מתפקד קרוב יותר לאסטרטגיית פלטפורמה מבוקרת.
  • צמצום מגוון הגישות: אם החדשנות הופכת תלויה יתר על המידה בכמה מודלי יסוד דומיננטיים ואטומים-למחצה, זה עלול להוביל להומוגניזציה של פיתוח AI, תוך התעלמות פוטנציאלית מארכיטקטורות חלופיות, פרדיגמות אימון או אסטרטגיות נתונים שקבוצות קטנות ועצמאיות עשויות לחקור אם התחום היה פתוח באמת.

קוד פתוח אמיתי היה היסטורית מנוע רב עוצמה לתחרות ולחדשנות מבוזרת. המגמה הנוכחית ב-AI מסכנת ריכוז כוח וחניקת הדינמיות ששיתוף פעולה פתוח נועד לטפח, מה שעלול להוביל לנוף AI פחות תוסס ונשלט יותר מרכזית.

נקודות עיוורון רגולטוריות והליכה על חבל דק אתי

הפוטנציאל של ‘openwashing’ לנצל פרצות רגולטוריות, במיוחד בנוגע למסגרות כמו חוק ה-AI של האיחוד האירופי (EU AI Act), ראוי לבחינה מעמיקה יותר. חוק זה נועד לקבוע תקנות מבוססות סיכון למערכות AI, תוך הטלת דרישות מחמירות יותר על יישומים בסיכון גבוה. פטורים או הקלות למערכות AI בקוד פתוח נועדו לטפח חדשנות ולהימנע מהכבדת יתר על קהילת הקוד הפתוח.

עם זאת, אם חברות יכולות לטעון בהצלחה לגלימת’קוד פתוח’ עבור מודלים החסרים שקיפות אמיתית (במיוחד בנוגע לנתונים ואימון), הן עשויות לעקוף אמצעי הגנה חשובים. זה מעלה שאלות קריטיות:

  • בחינה משמעותית: האם רגולטורים יכולים להעריך כראוי את הסיכונים של מודל AI חזק אם נתוני האימון שלו – גורם מכריע בהתנהגותו ובהטיותיו הפוטנציאליות – מוסתרים מהעין? תיוג שגוי עלול לאפשר למערכות בעלות סיכון פוטנציאלי גבוה לפעול עם פחות פיקוח מהמתוכנן.
  • פערי אחריות: כאשר דברים משתבשים – אם מודל מפגין הטיה מזיקה או מייצר פלטים מסוכנים – מי אחראי אם הנתונים הבסיסיים ותהליך האימון אטומים? פתיחות אמיתית מאפשרת חקירה ואחריות; ‘openwashing’ מטשטש אותה.
  • ממשל אתי: פריסה אחראית של AI דורשת הבנה של מגבלותיו והשפעותיו החברתיות הפוטנציאליות. הבנה זו נפגעת באופן יסודי כאשר רכיבי ליבה כמו נתוני אימון נשמרים בסוד. זה הופך ביקורות בלתי תלויות, הערכות הטיה וסקירות אתיות למאתגרות משמעותית, אם לא בלתי אפשריות.

השימוש האסטרטגי בתווית ‘קוד פתוח’ לניווט ברגולציה אינו רק תמרון משפטי; יש לו השלכות אתיות עמוקות. הוא מסכן את אמון הציבור ומעכב מאמצים להבטיח שפיתוח AI יתקדם באופן בטוח, הוגן ואחראי. הבטחה שהגדרות רגולטוריות של ‘AI בקוד פתוח’ יתאימו לעקרונות של שקיפות אמיתית היא אפוא בעלת חשיבות עליונה.

התוויית מסלול לקראת פתיחות AI אמיתית

למרבה המזל, פעמוני האזעקה מצלצלים, ומאמצים נמצאים בעיצומם להחזיר את משמעות ‘הקוד הפתוח’ בעידן ה-AI. יוזמת הקוד הפתוח (Open Source Initiative - OSI), אפוטרופוס ותיק של הגדרות קוד פתוח, הובילה תהליך התייעצות גלובלי לקביעת סטנדרטים ברורים ל-AI בקוד פתוח (שהביא להגדרת OSAID 1.0).

חידוש מרכזי במאמץ זה הוא הרעיון של ‘מידע נתונים’ (data information). מתוך הכרה בכך ששחרור מערכי נתונים גולמיים עצומים עשוי להיות בלתי אפשרי מבחינה משפטית או לוגיסטית במקרים מסוימים (בשל פרטיות, זכויות יוצרים או קנה מידה עצום), מסגרת OSAID מדגישה את הצורך בחשיפה מקיפה אודות הנתונים. זה כולל פרטים על:

  • מקורות: מאין הגיעו הנתונים?
  • מאפיינים: איזה סוג נתונים זה (טקסט, תמונות, קוד)? מהם המאפיינים הסטטיסטיים שלו?
  • הכנה: כיצד נאספו הנתונים, סוננו, נוקו ועובדו מראש? אילו צעדים ננקטו להפחתת הטיה?

רמת שקיפות זו, גם ללא הנתונים הגולמיים עצמם, מספקת הקשר חיוני לחוקרים להבין את היכולות, המגבלות וההטיות הפוטנציאליות הסבירות של המודל. היא מייצגת פשרה פרגמטית, הדוחפת לשקיפות מרבית במסגרת האילוצים הקיימים. לצד OSI, ארגונים כמו Open Future תומכים בשינוי רחב יותר לעבר מודל ‘מאגר נתונים משותף’ (data-commons), בוחנים דרכים ליצור מערכי נתונים משותפים, ממקורות אתיים ונגישים באופן פתוח לאימון AI, ובכך מנמיכים עוד יותר את חסמי הכניסה ומטפחים פיתוח שיתופי. קביעה ועמידה בסטנדרטים ברורים כאלה, שאושרו על ידי הקהילה, היא הצעד הראשון החיוני לקראת פיזור ערפל ה-‘openwashing’.

הצו המוטל על קהילת המחקר

מדענים וחוקרים אינם רק צרכנים של כלי AI; הם בעלי עניין חיוניים בהבטחת התאמת כלים אלה לערכים מדעיים. מעורבות פעילה עם ההגדרות והסטנדרטים המתפתחים, כגון OSAID 1.0, היא חיונית. אך הפעולה חייבת לחרוג מעבר למודעות בלבד:

  • דרישה לשקיפות: בפרסומים, בהצעות למענקים ובבחירת כלים, חוקרים צריכים לתעדף ולדרוש שקיפות רבה יותר בנוגע למודלי ה-AI שבהם הם משתמשים. זה כולל דחיפה ל’כרטיסי מידע נתונים’ (data information cards) או גיליונות נתונים (datasheets) מפורטים הנלווים לשחרורי מודלים.
  • תמיכה בפתיחות אמיתית: תרמו באופן פעיל, השתמשו וצטטו פרויקטים כמו OLMo או יוזמות אחרות המדגימות מחויבות אמיתית לשחרור קוד, נתונים ומתודולוגיה. הצבעה באמצעות הורדות וציטוטים שולחת איתות שוק חזק.
  • פיתוח תקני הערכה: הקהילה זקוקה לשיטות ורשימות תיוג חזקות להערכת מידת הפתיחות של מודל AI, מעבר לתוויות פשטניות. תהליכי ביקורת עמיתים צריכים לשלב בחינה של טענות השקיפות הקשורות לכלי AI המשמשים במחקר.
  • קידום בתוך מוסדות: עודדו אוניברסיטאות, מכוני מחקר ואגודות מקצועיות לאמץ מדיניות המעדיפה או דורשת שימוש בכלי ופלטפורמות AI פתוחים ושקופים באמת.

קהילת המדע מחזיקה בהשפעה ניכרת. על ידי התעקשות קולקטיבית על סטנדרטים המקיימים שחזוריות, שקיפות וגישה שיתופית, חוקרים יכולים לדחוף נגד טענות מטעות ולעזור לעצב מערכת אקולוגית של AI התורמת לגילוי מדעי קפדני.

מדיניות, מימון והדרך קדימה

ממשלות וסוכנויות מימון ציבוריות מחזיקות גם הן בכוח משמעותי בעיצוב נוף ה-AI. המדיניות שלהן יכולה לאשר במשתמע ‘openwashing’ או לקדם באופן פעיל פתיחות אמיתית.

  • מנדטים לפתיחות: למוסדות כמו המכונים הלאומיים לבריאות בארה”ב (NIH) יש כבר מנדטים הדורשים רישוי פתוח ושיתוף נתונים למחקר שהם מממנים. הרחבת עקרונות דומים למודלי AI ומערכי נתונים שפותחו בכסף ציבורי היא צעד הגיוני והכרחי. אם כספים ציבוריים תומכים בפיתוח AI, התוצאות צריכות להיות נגישות לציבור וניתנות לאימות במידה המרבית האפשרית.
  • כוח רכש: סוכנויות ממשלתיות הן צרכניות מרכזיות