หน้ากาก 'โอเพนซอร์ส' AI: เรียกร้องความซื่อตรงทางวิทยาศาสตร์

การลดทอนคุณค่าของแนวคิดพื้นฐาน: การกัดเซาะของ 'โอเพนซอร์ส'

คำว่า ‘โอเพนซอร์ส’ ครั้งหนึ่งเคยเป็นดั่งสัญญาณนำทางในแวดวงเทคโนโลยีและวิทยาศาสตร์ มันเป็นตัวแทนของหลักการอันทรงพลังที่ตั้งอยู่บนพื้นฐานของ ความโปร่งใส การเข้าถึงอย่างไม่มีข้อจำกัด การปรับปรุงร่วมกัน และหลักการพื้นฐานของการทำซ้ำได้ สำหรับนักวิจัยและนักพัฒนาหลายรุ่น คำนี้หมายถึงความมุ่งมั่นในการแบ่งปันความรู้และความก้าวหน้าร่วมกัน ตั้งแต่เครื่องมือทางสถิติพื้นฐานที่พบในสภาพแวดล้อมอย่าง R Studio ซึ่งช่วยให้การวิเคราะห์นับไม่ถ้วนในหลากหลายสาขาวิชา ไปจนถึงแพลตฟอร์มการจำลองที่ซับซ้อน เช่น OpenFOAM ที่ใช้ไขความซับซ้อนของพลศาสตร์ของไหล ซอฟต์แวร์โอเพนซอร์สเป็นตัวเร่งที่ขาดไม่ได้สำหรับนวัตกรรม มันเร่งการค้นพบโดยอนุญาตให้นักวิทยาศาสตร์ทั่วโลกตรวจสอบ ยืนยัน แก้ไข และต่อยอดจากงานของกันและกัน ทำให้มั่นใจได้ว่าผลการวิจัยสามารถทำซ้ำและตรวจสอบความถูกต้องได้ ซึ่งเป็นรากฐานสำคัญของระเบียบวิธีทางวิทยาศาสตร์

อย่างไรก็ตาม บัดนี้มีเงาทะมึนทาบทับคำที่น่าเชื่อถือนี้ ซึ่งเกิดจากสาขาปัญญาประดิษฐ์ที่กำลังเติบโตอย่างรวดเร็ว ดังที่ได้มีการเน้นย้ำในการอภิปรายเชิงวิพากษ์เมื่อเร็วๆ นี้ รวมถึงที่กล่าวถึงในสิ่งพิมพ์อย่าง Nature แนวโน้มที่น่ากังวลได้เกิดขึ้น โดยนักพัฒนา AI ที่มีชื่อเสียงนำป้าย ‘โอเพนซอร์ส’ มาใช้กับโมเดลของตน ขณะเดียวกันก็ปกปิดส่วนประกอบสำคัญที่จำเป็นสำหรับความเปิดกว้างอย่างแท้จริง การปฏิบัตินี้เสี่ยงต่อการทำให้ความหมายของคำนี้เจือจางลง เปลี่ยนจากสัญลักษณ์ของความโปร่งใสไปเป็นสโลแกนทางการตลาดที่อาจทำให้เข้าใจผิด ประเด็นหลักมักอยู่ที่ลักษณะเฉพาะของระบบ AI สมัยใหม่ ซึ่งแตกต่างจากซอฟต์แวร์แบบดั้งเดิมที่ซอร์สโค้ดมีความสำคัญสูงสุด พลังและพฤติกรรมของโมเดล AI ขนาดใหญ่นั้นเชื่อมโยงอย่างแยกไม่ออกกับชุดข้อมูลขนาดมหึมาที่ใช้ในการฝึกและสถาปัตยกรรมที่ซับซ้อนซึ่งกำหนดพวกมัน เมื่อการเข้าถึงข้อมูลการฝึกนี้หรือข้อมูลโดยละเอียดเกี่ยวกับโครงสร้างและการถ่วงน้ำหนักของโมเดลถูกจำกัด การอ้างว่าเป็น ‘โอเพนซอร์ส’ ก็ฟังดูกลวงเปล่า ไม่ว่าโค้ดบางส่วนของโมเดลจะเปิดเผยหรือไม่ก็ตาม ความคลาดเคลื่อนนี้กระทบโดยตรงต่อหัวใจของปรัชญาโอเพนซอร์ส สร้างภาพลวงตาของการเข้าถึงได้ในขณะที่บดบังองค์ประกอบที่สำคัญที่สุดสำหรับการตรวจสอบและการทำซ้ำโดยอิสระ

ความจำเป็นของความเปิดกว้างอย่างแท้จริงใน AI เชิงวิทยาศาสตร์

เดิมพันที่เกี่ยวข้องกับการรักษาความเปิดกว้างอย่างแท้จริงใน AI โดยเฉพาะอย่างยิ่งในขอบเขตทางวิทยาศาสตร์นั้นสูงอย่างยิ่ง วิทยาศาสตร์เจริญรุ่งเรืองได้ด้วยความสามารถในการตรวจสอบผลลัพธ์อย่างอิสระ ทำความเข้าใจระเบียบวิธี และต่อยอดจากงานก่อนหน้า เมื่อเครื่องมือเอง – ซึ่งเป็นโมเดล AI ที่ซับซ้อนมากขึ้นเรื่อยๆ – กลายเป็นกล่องดำ กระบวนการพื้นฐานนี้ก็ตกอยู่ในอันตราย การพึ่งพาระบบ AI ที่การทำงานภายใน อคติของข้อมูลการฝึก หรือโหมดความล้มเหลวที่อาจเกิดขึ้นนั้นไม่โปร่งใส นำมาซึ่งระดับความไม่แน่นอนที่ยอมรับไม่ได้ในการวิจัย นักวิทยาศาสตร์จะสามารถสรุปผลโดยอาศัยผลลัพธ์จาก AI ได้อย่างมั่นใจได้อย่างไร หากปัจจัยที่กำหนดผลลัพธ์นั้นไม่เป็นที่รู้จักหรือไม่สามารถตรวจสอบได้? ชุมชนจะเชื่อถือผลการวิจัยที่สร้างขึ้นโดยระบบที่เป็นกรรมสิทธิ์ซึ่งไม่สามารถตรวจสอบหรือทำซ้ำได้อย่างอิสระได้อย่างไร?

ความสำเร็จในอดีตของซอฟต์แวร์โอเพนซอร์สในวงการวิทยาศาสตร์ให้ภาพที่แตกต่างอย่างชัดเจนและเป็นเกณฑ์มาตรฐานที่ชัดเจน ความโปร่งใสที่มีอยู่ในโครงการโอเพนซอร์สแบบดั้งเดิมช่วยสร้างความไว้วางใจและทำให้เกิดการตรวจสอบโดยผู้ทรงคุณวุฒิที่เข้มแข็ง นักวิจัยสามารถตรวจสอบอัลกอริทึม ทำความเข้าใจข้อจำกัด และปรับให้เข้ากับความต้องการเฉพาะได้ ระบบนิเวศที่ทำงานร่วมกันนี้เร่งความก้าวหน้าในสาขาต่างๆ ตั้งแต่ชีวสารสนเทศศาสตร์ไปจนถึงฟิสิกส์ดาราศาสตร์ ศักยภาพของ AI ในการปฏิวัติการค้นพบทางวิทยาศาสตร์นั้นมีมหาศาล โดยมีแนวโน้มที่จะวิเคราะห์ชุดข้อมูลที่ซับซ้อน สร้างสมมติฐาน และจำลองกระบวนการที่ซับซ้อนในระดับที่ไม่เคยมีมาก่อน อย่างไรก็ตาม การตระหนักถึงศักยภาพนี้ขึ้นอยู่กับการรักษาหลักการเดียวกันของความโปร่งใสและการทำซ้ำได้ซึ่งเป็นรากฐานของการพัฒนาทางวิทยาศาสตร์มาโดยตลอด การเปลี่ยนแปลงไปสู่ระบบ AI แบบปิดที่เป็นกรรมสิทธิ์ แม้แต่ระบบที่แสร้งทำเป็น ‘เปิด’ ก็ตาม คุกคามที่จะทำให้ชุมชนวิจัยแตกแยก ขัดขวางการทำงานร่วมกัน และท้ายที่สุดทำให้ความเร็วของการค้นพบล่าช้าลงโดยการสร้างอุปสรรคต่อความเข้าใจและการตรวจสอบความถูกต้อง ความพยายามทางวิทยาศาสตร์ต้องการเครื่องมือที่ไม่เพียงแต่ทรงพลัง แต่ยังโปร่งใสและน่าเชื่อถืออีกด้วย

ปริศนาข้อมูล: ความท้าทายด้านความโปร่งใสของ AI

หัวใจสำคัญของการถกเถียงเรื่อง ‘โอเพนซอร์ส’ ใน AI คือประเด็นสำคัญของ ข้อมูลการฝึก (training data) ซึ่งแตกต่างจากซอฟต์แวร์ทั่วไปที่กำหนดโดยโค้ดเป็นหลัก โมเดลภาษาขนาดใหญ่ (LLMs) และระบบ AI พื้นฐานอื่นๆ ได้รับการหล่อหลอมโดยพื้นฐานจากชุดข้อมูลขนาดมหึมาที่พวกมันรับเข้าไปในระหว่างการพัฒนา ลักษณะเฉพาะ อคติ และที่มาของข้อมูลนี้มีอิทธิพลอย่างลึกซึ้งต่อพฤติกรรมของโมเดล ความสามารถ และข้อจำกัดที่อาจเกิดขึ้น ดังนั้น ความเปิดกว้างอย่างแท้จริงใน AI จึงจำเป็นต้องมีระดับความโปร่งใสเกี่ยวกับข้อมูลนี้ซึ่งไปไกลกว่าการเปิดเผยเพียงน้ำหนักโมเดล (model weights) หรือโค้ดสำหรับการอนุมาน (inference code)

โมเดลจำนวนมากที่วางตลาดภายใต้ร่ม ‘โอเพนซอร์ส’ ในปัจจุบันมักขาดตกบกพร่องในด้านนี้อย่างเห็นได้ชัด พิจารณาตัวอย่างที่โดดเด่นเช่นซีรีส์ Llama ของ Meta, Phi-2 ของ Microsoft หรือ Mixtral ของ Mistral AI แม้ว่าบริษัทเหล่านี้จะเปิดเผยส่วนประกอบบางอย่าง ทำให้นักพัฒนาสามารถรันหรือปรับแต่งโมเดลได้ แต่พวกเขามักจะกำหนดข้อจำกัดที่สำคัญหรือให้รายละเอียดเพียงเล็กน้อยเกี่ยวกับข้อมูลการฝึกพื้นฐาน ชุดข้อมูลที่เกี่ยวข้องอาจมีขนาดใหญ่ เป็นกรรมสิทธิ์ ถูกขูดมาจากเว็บโดยมีการคัดกรองเพียงเล็กน้อย หรืออยู่ภายใต้ข้อจำกัดด้านใบอนุญาต ทำให้การเปิดเผยต่อสาธารณะเต็มรูปแบบเป็นเรื่องท้าทายหรือเป็นไปไม่ได้ อย่างไรก็ตาม หากไม่มีข้อมูลที่ครอบคลุมเกี่ยวกับ:

  • แหล่งข้อมูล (Data Sources): ข้อมูลมาจากไหน? ส่วนใหญ่เป็นข้อความ รูปภาพ หรือโค้ด? จากเว็บไซต์ หนังสือ หรือฐานข้อมูลใด?
  • การคัดกรองข้อมูล (Data Curation): ข้อมูลถูกกรอง ทำความสะอาด และประมวลผลอย่างไร? ใช้เกณฑ์ใดในการรวมหรือยกเว้นข้อมูล?
  • ลักษณะข้อมูล (Data Characteristics): อคติที่ทราบในข้อมูลคืออะไร (เช่น ด้านประชากร วัฒนธรรม ภาษา)? ครอบคลุมช่วงเวลาใด?
  • ขั้นตอนการประมวลผลล่วงหน้า (Preprocessing Steps): มีการแปลงข้อมูลใดบ้างก่อนการฝึก?

…เป็นเรื่องยากอย่างยิ่งสำหรับนักวิจัยอิสระที่จะเข้าใจพฤติกรรมของโมเดลได้อย่างถ่องแท้ ทำซ้ำการพัฒนา หรือประเมินอคติและจุดบกพร่องที่อาจเกิดขึ้นได้อย่างมีวิจารณญาณ การขาดความโปร่งใสของข้อมูลนี้เป็นเหตุผลหลักว่าทำไมการเปิดตัว AI ‘โอเพนซอร์ส’ ในปัจจุบันจำนวนมากจึงไม่เป็นไปตามเจตนารมณ์ หากไม่ใช่ตัวบทกฎหมาย ของความเปิดกว้างอย่างแท้จริงที่กำหนดไว้ในโลกของซอฟต์แวร์ ในทางตรงกันข้าม โครงการริเริ่มต่างๆ เช่น โมเดล OLMo ของ Allen Institute for AI หรือความพยายามที่ขับเคลื่อนโดยชุมชน เช่น CrystalCoder ของ LLM360 ได้พยายามอย่างจริงจังมากขึ้นในการให้ความโปร่งใสมากขึ้นเกี่ยวกับข้อมูลและระเบียบวิธีการฝึกของตน ซึ่งเป็นการกำหนดมาตรฐานที่สูงขึ้นซึ่งสอดคล้องกับคุณค่าของโอเพนซอร์สแบบดั้งเดิมมากขึ้น

'Openwashing': การติดป้ายเชิงกลยุทธ์หรือการหลีกเลี่ยงกฎระเบียบ?

การนำป้าย ‘โอเพนซอร์ส’ ไปใช้โดยหน่วยงานที่ไม่ยอมรับหลักการของมันอย่างเต็มที่ทำให้เกิดความกังวลเกี่ยวกับ ‘openwashing’ คำนี้อธิบายถึงการปฏิบัติในการใช้ประโยชน์จากความหมายเชิงบวกของความเปิดกว้างเพื่อประโยชน์ด้านการประชาสัมพันธ์หรือความได้เปรียบเชิงกลยุทธ์ โดยไม่ต้องผูกมัดกับระดับความโปร่งใสและการเข้าถึงที่เกี่ยวข้อง ทำไมบริษัทต่างๆ ถึงทำเช่นนี้? อาจมีปัจจัยหลายประการเข้ามาเกี่ยวข้อง แบรนด์ ‘โอเพนซอร์ส’ มีความหมายที่ดีอย่างมาก บ่งบอกถึงความมุ่งมั่นต่อชุมชนและความก้าวหน้าร่วมกัน ซึ่งสามารถดึงดูดนักพัฒนาและลูกค้าได้

นอกจากนี้ ดังที่ Nature และผู้สังเกตการณ์อื่นๆ ตั้งข้อสังเกต ภูมิทัศน์ด้านกฎระเบียบอาจส่งเสริมพฤติกรรมดังกล่าวโดยไม่ได้ตั้งใจ กฎหมาย AI Act ที่สำคัญของสหภาพยุโรป ซึ่งสรุปได้ในปี 2024 รวมถึงบทบัญญัติที่กำหนดข้อกำหนดที่เข้มงวดมากขึ้นสำหรับระบบ AI ที่มีความเสี่ยงสูงและใช้งานทั่วไป อย่างไรก็ตาม ยังมีข้อยกเว้นที่เป็นไปได้หรือข้อกำหนดที่เบากว่าสำหรับโมเดล AI ที่เผยแพร่ภายใต้ใบอนุญาตโอเพนซอร์ส สิ่งนี้สร้างช่องโหว่ที่อาจเกิดขึ้นซึ่งบริษัทต่างๆ อาจติดป้ายกำกับโมเดลของตนอย่างมีกลยุทธ์ว่าเป็น ‘โอเพนซอร์ส’ – แม้ว่าส่วนประกอบสำคัญเช่นข้อมูลการฝึกยังคงถูกจำกัด – โดยเฉพาะเพื่อหลีกเลี่ยงอุปสรรคด้านกฎระเบียบและหลีกเลี่ยงภาระผูกพันในการปฏิบัติตามที่เข้มงวดมากขึ้น

ศักยภาพในการเก็งกำไรด้านกฎระเบียบนี้เป็นเรื่องที่น่ากังวลอย่างยิ่ง หาก ‘openwashing’ อนุญาตให้ระบบ AI ที่ทรงพลังหลีกเลี่ยงการตรวจสอบที่มุ่งหมายเพื่อให้แน่ใจถึงความปลอดภัย ความเป็นธรรม และความรับผิดชอบ มันก็บ่อนทำลายวัตถุประสงค์ของกฎระเบียบนั้นเอง นอกจากนี้ยังทำให้ชุมชนวิทยาศาสตร์ตกอยู่ในสถานการณ์ที่ล่อแหลม นักวิจัยอาจถูกดึงดูดไปยังระบบ ‘เปิด’ ในนามเหล่านี้เนื่องจากการเข้าถึงได้เมื่อเทียบกับข้อเสนอเชิงพาณิชย์ที่ปิดสนิท เพียงเพื่อพบว่าตนเองต้องพึ่งพาเครื่องมือที่ระเบียบวิธียังคงคลุมเครือและไม่สามารถตรวจสอบได้ การพึ่งพานี้เสี่ยงต่อการประนีประนอมความสมบูรณ์ทางวิทยาศาสตร์ ทำให้ยากต่อการรับรองว่าการวิจัยสามารถทำซ้ำได้ ปราศจากอคติ และสร้างขึ้นบนรากฐานที่มั่นคงและเข้าใจได้ เสน่ห์ของป้ายกำกับที่คุ้นเคยอาจบดบังข้อจำกัดพื้นฐานที่ขัดขวางการสอบสวนทางวิทยาศาสตร์อย่างแท้จริง

นิยามใหม่ของความเปิดกว้างสำหรับยุค AI: กรอบการทำงาน OSAID

ด้วยตระหนักถึงความไม่เพียงพอของคำจำกัดความโอเพนซอร์สแบบดั้งเดิมสำหรับความท้าทายเฉพาะที่เกิดจาก AI Open Source Initiative (OSI) – ผู้ดูแลหลักการโอเพนซอร์สมายาวนาน – ได้ริเริ่มความพยายามระดับโลกที่สำคัญ เป้าหมายของพวกเขาคือการสร้างคำจำกัดความที่ชัดเจนและเข้มแข็งซึ่งปรับให้เหมาะกับปัญญาประดิษฐ์โดยเฉพาะ: Open Source AI Definition (OSAID 1.0) ความคิดริเริ่มนี้แสดงถึงก้าวสำคัญในการทวงคืนความหมายของ ‘เปิด’ ในบริบทของ AI และการกำหนดมาตรฐานที่ชัดเจนสำหรับความโปร่งใสและความรับผิดชอบ

นวัตกรรมที่สำคัญภายในกรอบการทำงาน OSAID ที่เสนอคือแนวคิดของ ‘ข้อมูลเกี่ยวกับข้อมูล (data information)’ โดยตระหนักว่าการเปิดเผยชุดข้อมูลการฝึกขนาดใหญ่อย่างเต็มรูปแบบมักจะไม่สามารถทำได้จริงหรือถูกห้ามตามกฎหมายเนื่องจากข้อกังวลด้านความเป็นส่วนตัว ข้อจำกัดด้านลิขสิทธิ์ หรือขนาดที่แท้จริง OSAID จึงมุ่งเน้นไปที่การบังคับให้เปิดเผยข้อมูล เกี่ยวกับ ข้อมูลอย่างครอบคลุม ซึ่งรวมถึงข้อกำหนดสำหรับนักพัฒนาในการให้ข้อมูลโดยละเอียดเกี่ยวกับ:

  1. แหล่งที่มาและองค์ประกอบ (Sources and Composition): ระบุที่มาของข้อมูลการฝึกอย่างชัดเจน
  2. ลักษณะเฉพาะ (Characteristics): จัดทำเอกสารเกี่ยวกับคุณลักษณะ ข้อจำกัด และอคติที่อาจเกิดขึ้นภายในข้อมูล
  3. วิธีการเตรียม (Preparation Methods): อธิบายกระบวนการที่ใช้ในการทำความสะอาด กรอง และเตรียมข้อมูลสำหรับการฝึก

แม้ว่าจะไม่สามารถแบ่งปันข้อมูลดิบได้ การให้ข้อมูลเมตาดาต้านี้ช่วยให้นักวิจัยและผู้ตรวจสอบได้รับข้อมูลเชิงลึกที่สำคัญเกี่ยวกับปัจจัยที่หล่อหลอมโมเดล AI ช่วยให้เข้าใจอคติที่อาจเกิดขึ้นได้ดีขึ้น ช่วยให้การประเมินความเสี่ยงมีข้อมูลมากขึ้น และเป็นพื้นฐานสำหรับการพยายามทำซ้ำหรือการศึกษาเปรียบเทียบ

นอกเหนือจากข้อมูลเกี่ยวกับข้อมูลแล้ว ความพยายามของ OSIควบคู่ไปกับการสนับสนุนจากองค์กรต่างๆ เช่น Open Future ยังส่งเสริมการเปลี่ยนแปลงในวงกว้างไปสู่ ‘รูปแบบข้อมูลสาธารณะ (data-commons model)’ สิ่งนี้จินตนาการถึงอนาคตที่ชุดข้อมูลที่จำเป็นสำหรับการฝึก AI ได้รับการดูแลจัดการและเปิดให้เข้าถึงได้อย่างเปิดเผยและเท่าเทียมกันมากขึ้น ส่งเสริมระบบนิเวศที่โปร่งใสและทำงานร่วมกันมากขึ้นสำหรับการพัฒนา AI โดยเฉพาะอย่างยิ่งภายในชุมชนวิจัย คำจำกัดความ OSAID มีเป้าหมายเพื่อให้เกณฑ์มาตรฐานที่ชัดเจนซึ่งสามารถใช้ประเมินระบบ AI ได้ ก้าวข้ามป้ายกำกับผิวเผินไปสู่การประเมินความมุ่งมั่นอย่างแท้จริงต่อความเปิดกว้าง

ความรับผิดชอบร่วมกัน: ขับเคลื่อนความโปร่งใสของ AI อย่างแท้จริง

ความท้าทายในการรับรองความเปิดกว้างอย่างแท้จริงใน AI ไม่สามารถแก้ไขได้ด้วยคำจำกัดความเพียงอย่างเดียว แต่ต้องการการดำเนินการร่วมกันจากผู้มีส่วนได้ส่วนเสียหลายฝ่าย ชุมชนวิทยาศาสตร์ ในฐานะทั้งนักพัฒนาและผู้ใช้หลักของเครื่องมือ AI ที่ซับซ้อน มีความรับผิดชอบที่สำคัญ นักวิจัยต้องมีส่วนร่วมอย่างแข็งขันกับโครงการริเริ่มต่างๆ เช่น OSAID 1.0 ทำความเข้าใจหลักการและสนับสนุนการนำไปใช้ พวกเขาจำเป็นต้องประเมินคำกล่าวอ้างเรื่อง ‘ความเปิดกว้าง’ ของโมเดล AI ที่พวกเขาพิจารณาใช้อย่างมีวิจารณญาณ โดยให้ความสำคัญกับโมเดลที่ให้ความโปร่งใสมากขึ้นเกี่ยวกับข้อมูลการฝึกและระเบียบวิธี แม้ว่าจะต้องต่อต้านสิ่งล่อใจของระบบที่ดูเหมือนสะดวกแต่คลุมเครือก็ตาม การแสดงความต้องการเครื่องมือ AI ที่ตรวจสอบได้และทำซ้ำได้ในสิ่งพิมพ์ การประชุม และการอภิปรายในสถาบันเป็นสิ่งสำคัญยิ่ง

หน่วยงานให้ทุนสาธารณะและหน่วยงานภาครัฐก็มีบทบาทสำคัญเช่นกัน พวกเขามีอิทธิพลอย่างมากผ่านข้อกำหนดของทุนและนโยบายการจัดซื้อจัดจ้าง สถาบันต่างๆ เช่น สถาบันสุขภาพแห่งชาติของสหรัฐอเมริกา (NIH) ซึ่งกำหนดให้มีการอนุญาตแบบเปิดสำหรับข้อมูลการวิจัยที่สร้างขึ้นผ่านเงินทุนอยู่แล้ว ถือเป็นแบบอย่างที่มีคุณค่า ในทำนองเดียวกัน ตัวอย่างเช่น ข้อกำหนดของอิตาลีที่ให้หน่วยงานบริหารราชการต้องให้ความสำคัญกับซอฟต์แวร์โอเพนซอร์ส แสดงให้เห็นว่านโยบายสามารถขับเคลื่อนการนำไปใช้ได้อย่างไร หลักการเหล่านี้สามารถและควรขยายไปสู่ขอบเขตของ AI รัฐบาลและหน่วยงานให้ทุนควรพิจารณา:

  • การบังคับใช้การปฏิบัติตามมาตรฐาน Open Source AI ที่เข้มแข็ง (เช่น OSAID) สำหรับการวิจัยและพัฒนา AI ที่ได้รับทุนสนับสนุนจากสาธารณะ
  • การลงทุนในการสร้างชุดข้อมูลคุณภาพสูงที่เปิดกว้างอย่างแท้จริง – ‘ข้อมูลสาธารณะ (data commons)’ – ที่เหมาะสมสำหรับการฝึกโมเดล AI ที่มุ่งเน้นการวิจัย
  • การทำให้แน่ใจว่ากฎระเบียบ เช่น EU AI Act ถูกนำไปใช้ในลักษณะที่ป้องกัน ‘openwashing’ และทำให้ระบบ AI ที่ทรงพลังทั้งหมดต้องรับผิดชอบ โดยไม่คำนึงถึงการอ้างสิทธิ์ในใบอนุญาต

ท้ายที่สุดแล้ว การปกป้องอนาคตของ AI ในการวิจัยจำเป็นต้องมีแนวร่วมที่เป็นหนึ่งเดียว นักวิทยาศาสตร์ต้องเรียกร้องความโปร่งใส สถาบันต้องดำเนินนโยบายที่ให้ความสำคัญกับความเปิดกว้างอย่างแท้จริง และหน่วยงานกำกับดูแลต้องทำให้แน่ใจว่าป้ายกำกับ ‘โอเพนซอร์ส’ หมายถึงความมุ่งมั่นที่มีความหมายต่อความรับผิดชอบ ไม่ใช่ช่องทางหลบหนีที่สะดวก หากปราศจากความพยายามร่วมกันเหล่านี้ ศักยภาพอันมหาศาลของ AI สำหรับการค้นพบทางวิทยาศาสตร์ก็เสี่ยงที่จะถูกทำลายโดยภูมิทัศน์ที่ครอบงำโดยระบบปิดที่เป็นกรรมสิทธิ์ ซึ่งบ่อนทำลายลักษณะการทำงานร่วมกันและการตรวจสอบได้ของความก้าวหน้าทางวิทยาศาสตร์โดยพื้นฐาน ความสมบูรณ์ของการวิจัยในอนาคตแขวนอยู่บนเส้นด้าย