คำว่า ‘โอเพนซอร์ส’ (open source) ก้องกังวานอย่างทรงพลังในโลกเทคโนโลยี มันปลุกภาพของการสร้างสรรค์นวัตกรรมร่วมกัน การแบ่งปันความรู้ และความเชื่อพื้นฐานในความโปร่งใส จิตวิญญาณนี้ปรากฏชัดเมื่อครึ่งศตวรรษก่อนกับการก่อตั้ง Homebrew Computer Club ใน Menlo Park รัฐ California กลุ่มผู้ที่กระตือรือร้นและนักประดิษฐ์กลุ่มนี้ไม่ได้เพียงแค่สร้างเครื่องจักร พวกเขาสร้างวัฒนธรรมที่ตั้งอยู่บนพื้นฐานของการแลกเปลี่ยนความคิดและซอฟต์แวร์อย่างอิสระ วางรากฐานสำคัญสำหรับขบวนการโอเพนซอร์สที่จะปฏิวัติวงการคอมพิวเตอร์ ทว่าในปัจจุบัน มรดกที่ได้มาอย่างยากลำบากนี้และนิยามของความเปิดกว้างกำลังเผชิญกับความท้าทายที่ละเอียดอ่อนแต่สำคัญ โดยเฉพาะอย่างยิ่งในขอบเขตของปัญญาประดิษฐ์ (artificial intelligence) ที่ขยายตัวอย่างรวดเร็ว บริษัทจำนวนมากขึ้นที่พัฒนาโมเดล AI ที่ซับซ้อนต่างกระตือรือร้นที่จะติดป้ายกำกับผลงานสร้างสรรค์ของตนว่าเป็น ‘โอเพนซอร์ส’ แต่เมื่อพิจารณาอย่างใกล้ชิดจะพบว่าป้ายกำกับนี้มักถูกนำมาใช้อย่างผิวเผิน บดบังความเป็นจริงที่ขาดตกบกพร่องจากหลักการสำคัญของขบวนการ การลดทอนความหมายนี้ไม่ใช่แค่การเล่นสำนวนทางความหมายเท่านั้น มันก่อให้เกิดภัยคุกคามอย่างแท้จริงต่อหลักการของความโปร่งใสและความสามารถในการทำซ้ำ (replicability) ซึ่งมีความสำคัญยิ่ง โดยเฉพาะอย่างยิ่งในแวดวงวิทยาศาสตร์
ทำความเข้าใจจิตวิญญาณที่แท้จริงของการทำงานร่วมกันแบบเปิด
เพื่อที่จะเข้าใจสถานการณ์ปัจจุบัน เราต้องเข้าใจก่อนว่า ‘โอเพนซอร์ส’ หมายถึงอะไรอย่างแท้จริง มันเป็นมากกว่าแค่ซอฟต์แวร์ที่ไม่เสียค่าใช้จ่าย มันคือปรัชญาที่หยั่งรากลึกในความก้าวหน้าร่วมกันและความไว้วางใจที่ตรวจสอบได้ รากฐานของปรัชญานี้ตั้งอยู่บน เสรีภาพที่จำเป็นสี่ประการ:
- เสรีภาพในการรันโปรแกรม เพื่อวัตถุประสงค์ใดก็ได้
- เสรีภาพในการศึกษาการทำงานของโปรแกรม และเปลี่ยนแปลงเพื่อให้คอมพิวเตอร์ทำงานตามที่คุณต้องการ การเข้าถึงซอร์สโค้ดเป็นเงื่อนไขเบื้องต้นสำหรับสิ่งนี้
- เสรีภาพในการเผยแพร่สำเนา เพื่อที่คุณจะสามารถช่วยเหลือผู้อื่นได้
- เสรีภาพในการเผยแพร่สำเนาของเวอร์ชันที่คุณแก้ไข ให้กับผู้อื่น การทำเช่นนี้จะทำให้ชุมชนทั้งหมดมีโอกาสได้รับประโยชน์จากการเปลี่ยนแปลงของคุณ การเข้าถึงซอร์สโค้ดเป็นเงื่อนไขเบื้องต้นสำหรับสิ่งนี้
เสรีภาพเหล่านี้ ซึ่งโดยทั่วไปจะถูกประดิษฐานอยู่ในสัญญาอนุญาตเช่น GNU General Public License (GPL), MIT License หรือ Apache License ในอดีตได้มุ่งเน้นไปที่ ซอร์สโค้ด (source code) ซอร์สโค้ด – คำสั่งที่มนุษย์อ่านได้ซึ่งเขียนโดยโปรแกรมเมอร์ – คือพิมพ์เขียวของซอฟต์แวร์แบบดั้งเดิม การทำให้โค้ดนี้เปิดเผยต่อสาธารณะช่วยให้ทุกคนสามารถตรวจสอบ ทำความเข้าใจตรรกะ ระบุข้อบกพร่องที่อาจเกิดขึ้น ปรับให้เข้ากับความต้องการใหม่ๆ และแบ่งปันการปรับปรุงเหล่านั้นได้
โมเดลนี้เป็นตัวเร่งปฏิกิริยาที่ไม่ธรรมดาสำหรับนวัตกรรมและความก้าวหน้าทางวิทยาศาสตร์ ลองพิจารณาผลกระทบของเครื่องมือที่พร้อมใช้งานสำหรับนักวิจัยทั่วโลก:
- การวิเคราะห์ทางสถิติ: ซอฟต์แวร์เช่น R Studio มอบสภาพแวดล้อมที่มีประสิทธิภาพ โปร่งใส และขยายได้สำหรับการคำนวณทางสถิติและกราฟิก กลายเป็นรากฐานที่สำคัญของการวิเคราะห์ข้อมูลในสาขาวิทยาศาสตร์นับไม่ถ้วน ความเปิดกว้างช่วยให้สามารถตรวจสอบวิธีการโดยเพื่อนร่วมงาน (peer review) และพัฒนาแพ็คเกจเฉพาะทางได้
- พลศาสตร์ของไหลเชิงคำนวณ: OpenFOAM นำเสนอไลบรารีที่ซับซ้อนสำหรับการจำลองการไหลของของไหล ซึ่งมีความสำคัญในสาขาต่างๆ ตั้งแต่วิศวกรรมการบินและอวกาศไปจนถึงวิทยาศาสตร์สิ่งแวดล้อม ลักษณะที่เปิดกว้างช่วยให้สามารถปรับแต่งและตรวจสอบการจำลองที่ซับซ้อนได้
- ระบบปฏิบัติการ: Linux และระบบปฏิบัติการโอเพนซอร์สอื่นๆ เป็นแกนหลักของโครงสร้างพื้นฐานคอมพิวเตอร์ส่วนใหญ่ของโลก รวมถึงคลัสเตอร์คอมพิวเตอร์สมรรถนะสูงทางวิทยาศาสตร์ ซึ่งมีคุณค่าในด้านความเสถียร ความยืดหยุ่น และความโปร่งใส
ประโยชน์ที่ได้รับนั้นมีมากกว่าแค่การประหยัดค่าใช้จ่าย โอเพนซอร์สส่งเสริม ความสามารถในการทำซ้ำ (reproducibility) ซึ่งเป็นรากฐานที่สำคัญของวิธีการทางวิทยาศาสตร์ เมื่อเครื่องมือและโค้ดที่ใช้ในการวิจัยเปิดเผย นักวิทยาศาสตร์คนอื่นๆ สามารถทำซ้ำการทดลอง ตรวจสอบผลการวิจัย และต่อยอดงานด้วยความมั่นใจ มันส่งเสริม การทำงานร่วมกันระดับโลก ทำลายอุปสรรคและช่วยให้นักวิจัยจากภูมิหลังและสถาบันที่หลากหลายสามารถมีส่วนร่วมในความท้าทายร่วมกันได้ มันรับประกัน ความยั่งยืนและหลีกเลี่ยงการผูกมัดกับผู้จำหน่าย (vendor lock-in) ปกป้องการลงทุนด้านการวิจัยจากความไม่แน่นอนของบริษัทซอฟต์แวร์ที่เป็นกรรมสิทธิ์ มันเร่งการค้นพบโดยช่วยให้สามารถเผยแพร่และทำซ้ำแนวคิดและเทคนิคใหม่ๆ ได้อย่างรวดเร็ว หลักการของโอเพนซอร์สนั้นสอดคล้องโดยพื้นฐานกับการแสวงหาความรู้ทางวิทยาศาสตร์ผ่านความโปร่งใส การตรวจสอบอย่างละเอียด และความก้าวหน้าร่วมกัน
ปัญญาประดิษฐ์: สัตว์ร้ายที่แตกต่างออกไปโดยสิ้นเชิง
กระบวนทัศน์โอเพนซอร์สที่ καθιερωμένο ซึ่งสร้างขึ้นอย่างมั่นคงรอบๆ การเข้าถึงซอร์สโค้ด ประสบกับความปั่นป่วนอย่างมีนัยสำคัญเมื่อนำไปใช้กับขอบเขตของปัญญาประดิษฐ์ โดยเฉพาะอย่างยิ่งโมเดลขนาดใหญ่เช่น โมเดลภาษาขนาดใหญ่พื้นฐาน (foundational large language models - LLMs) ในขณะที่ระบบ AI เหล่านี้เกี่ยวข้องกับโค้ดอย่างแน่นอน ฟังก์ชันการทำงานและพฤติกรรมของพวกมันถูกหล่อหลอมโดยองค์ประกอบที่ซับซ้อนกว่ามากและมักจะทึบแสง การเปิดเผยเพียงแค่โค้ดสถาปัตยกรรมสำหรับโครงข่ายประสาทเทียม (neural network) ไม่ได้เท่ากับความเปิดกว้างอย่างแท้จริงในแบบที่ทำได้สำหรับซอฟต์แวร์แบบดั้งเดิม
โมเดล AI โดยเฉพาะอย่างยิ่งโมเดลการเรียนรู้เชิงลึก (deep learning model) โดยทั่วไปประกอบด้วยส่วนประกอบสำคัญหลายอย่าง:
- สถาปัตยกรรมโมเดล (Model Architecture): นี่คือการออกแบบโครงสร้างของโครงข่ายประสาทเทียม – การจัดเรียงของชั้น (layers), เซลล์ประสาท (neurons) และการเชื่อมต่อ (connections) บริษัทต่างๆ มักจะ เปิดเผย ข้อมูลนี้ โดยนำเสนอเป็นหลักฐานของความเปิดกว้าง มันคล้ายกับการแบ่งปันพิมพ์เขียวของเครื่องยนต์
- ค่าน้ำหนักโมเดล (Model Weights หรือ Parameters): นี่คือค่าตัวเลข ซึ่งมักจะมีจำนวนหลายพันล้านค่า ภายในเครือข่ายที่ได้รับการปรับเปลี่ยนในระหว่างกระบวนการฝึกสอน (training process) พวกมันแสดงถึงรูปแบบและความรู้ที่เรียนรู้ซึ่งสกัดมาจากข้อมูลการฝึกสอน การเปิดเผยค่าน้ำหนักช่วยให้ผู้อื่นสามารถ ใช้ โมเดลที่ฝึกไว้ล่วงหน้า (pre-trained model) ได้ นี่เปรียบเสมือนการให้เครื่องยนต์ที่ประกอบเสร็จสมบูรณ์ พร้อมใช้งาน
- ข้อมูลการฝึกสอน (Training Data): นี่อาจเป็นองค์ประกอบที่สำคัญที่สุดและถูกปิดบังบ่อยที่สุด โมเดลพื้นฐานได้รับการฝึกสอนบนชุดข้อมูลขนาดมหึมา ซึ่งมักจะถูกขูด (scraped) มาจากอินเทอร์เน็ต หรือมาจากคอลเลกชันที่เป็นกรรมสิทธิ์หรือส่วนตัว (เช่น เวชระเบียน ซึ่งก่อให้เกิดข้อกังวลด้านความเป็นส่วนตัวอย่างมีนัยสำคัญ) องค์ประกอบ การดูแลจัดการ (curation) การกรอง และอคติที่อาจเกิดขึ้นภายในข้อมูลนี้มีอิทธิพลอย่างลึกซึ้งต่อความสามารถ ข้อจำกัด และพฤติกรรมทางจริยธรรมของโมเดล หากไม่มีข้อมูลโดยละเอียดเกี่ยวกับข้อมูลการฝึกสอน การทำความเข้าใจว่า ทำไม โมเดลถึงมีพฤติกรรมเช่นนั้น หรือการประเมินความเหมาะสมและความปลอดภัยสำหรับการใช้งานเฉพาะทาง จะกลายเป็นเรื่องยากอย่างเหลือเชื่อ นี่คือส่วนผสมเชื้อเพลิงที่เป็นความลับและเงื่อนไขที่แม่นยำซึ่งใช้ในการทดสอบเครื่องยนต์
- โค้ดและกระบวนการฝึกสอน (Training Code and Process): ซึ่งรวมถึงอัลกอริทึมเฉพาะที่ใช้สำหรับการฝึกสอน เทคนิคการปรับให้เหมาะสม (optimization techniques) ไฮเปอร์พารามิเตอร์ (hyperparameters) ที่เลือก (การตั้งค่าที่ควบคุมกระบวนการเรียนรู้) โครงสร้างพื้นฐานคอมพิวเตอร์ที่ใช้ และพลังงานจำนวนมากที่ใช้ไป การเปลี่ยนแปลงเล็กน้อยในกระบวนการฝึกสอนอาจนำไปสู่พฤติกรรมของโมเดลที่แตกต่างกัน ทำให้ความสามารถในการทำซ้ำเป็นเรื่องท้าทายแม้ว่าจะทราบสถาปัตยกรรมและข้อมูลแล้วก็ตาม สิ่งนี้แสดงถึงข้อกำหนดทางวิศวกรรมโดยละเอียด เครื่องมือ และเงื่อนไขโรงงานที่ใช้ในการสร้างและปรับแต่งเครื่องยนต์
ระบบจำนวนมากที่วางตลาดในปัจจุบันว่าเป็น ‘โอเพนซอร์ส’ AI ส่วนใหญ่ให้การเข้าถึงสถาปัตยกรรมโมเดลและค่าน้ำหนักที่ฝึกไว้ล่วงหน้าเท่านั้น ในขณะที่สิ่งนี้ช่วยให้ผู้ใช้สามารถรันโมเดลและอาจจะปรับแต่ง (fine-tune) บนชุดข้อมูลขนาดเล็กได้ แต่มันล้มเหลวอย่างยิ่งในการให้ความโปร่งใสที่จำเป็นเกี่ยวกับข้อมูลและกระบวนการฝึกสอน สิ่งนี้จำกัดความสามารถในการ ศึกษา คุณสมบัติพื้นฐานของโมเดลอย่างแท้จริง หรือ แก้ไข ในรูปแบบที่มีความหมายอย่างลึกซึ้งซึ่งต้องมีการฝึกสอนใหม่หรือทำความเข้าใจที่มาของมัน เสรีภาพในการศึกษาและแก้ไข ซึ่งเป็นหัวใจสำคัญของนิยามโอเพนซอร์ส ถูกขัดขวางอย่างมีนัยสำคัญเมื่อองค์ประกอบที่สำคัญของข้อมูลและวิธีการฝึกสอนยังคงถูกซ่อนไว้ การสร้างโมเดลขึ้นมาใหม่ตั้งแต่ต้น – การทดสอบที่สำคัญของความเข้าใจและการตรวจสอบทางวิทยาศาสตร์ – กลายเป็นเรื่องที่เป็นไปไม่ได้ในทางปฏิบัติ
แนวโน้มที่น่ากังวลของ ‘Openwashing’ ใน AI
ช่องว่างระหว่างป้ายกำกับและความเป็นจริงนี้ได้ก่อให้เกิดแนวปฏิบัติที่เรียกว่า ‘openwashing’ คำนี้อธิบายถึงการกระทำของบริษัทต่างๆ ที่ใช้ประโยชน์จากชื่อเสียงในเชิงบวกและประโยชน์ที่รับรู้ได้ของ ‘โอเพนซอร์ส’ เพื่อการตลาดและความได้เปรียบเชิงกลยุทธ์ ในขณะเดียวกันก็ระงับการเข้าถึงองค์ประกอบที่สำคัญ เช่น ข้อมูลรายละเอียดเกี่ยวกับข้อมูลการฝึกสอน หรือโค้ดที่ใช้สำหรับการฝึกสอนเอง พวกเขาปกปิดระบบของตนด้วยภาษาของความเปิดกว้างโดยไม่ยอมรับหลักการที่เข้มงวดของความโปร่งใสและการเข้าถึงของชุมชนอย่างเต็มที่
โมเดล AI ที่โดดเด่นหลายตัว แม้จะมีการใช้งานอย่างแพร่หลายและบางครั้งมีป้ายกำกับว่า ‘เปิด’ ก็ยังขาดคุณสมบัติเมื่อวัดเทียบกับนิยามที่ครอบคลุมของโอเพนซอร์สที่สนับสนุนโดยองค์กรต่างๆ เช่น Open Source Initiative (OSI) การวิเคราะห์โดย OSI ซึ่งทำงานอย่างขยันขันแข็งมาตั้งแต่ปี 2022 เพื่อชี้แจงความหมายของโอเพนซอร์สในบริบทของ AI ได้เน้นย้ำถึงข้อกังวลเกี่ยวกับโมเดลยอดนิยมหลายตัว:
- Llama 2 & Llama 3.x (Meta): ในขณะที่ค่าน้ำหนักและสถาปัตยกรรมของโมเดลมีให้ใช้งาน ข้อจำกัดในการใช้งานและความโปร่งใสที่ไม่สมบูรณ์เกี่ยวกับชุดข้อมูลการฝึกสอนและกระบวนการทั้งหมดจำกัดความสอดคล้องกับคุณค่าโอเพนซอร์สแบบดั้งเดิม
- Grok (X): ในทำนองเดียวกัน แม้ว่าจะเปิดให้ใช้งาน การขาดข้อมูลที่ครอบคลุมเกี่ยวกับข้อมูลการฝึกสอนและวิธีการทำให้เกิดคำถามเกี่ยวกับความเปิดกว้างที่แท้จริง
- Phi-2 (Microsoft): มักถูกอธิบายว่าเป็น ‘โมเดลเปิด’ แต่ความโปร่งใสอย่างเต็มที่เกี่ยวกับกระบวนการสร้างและข้อมูลยังคงมีจำกัด
- Mixtral (Mistral AI): แม้ว่าบางส่วนจะถูกเปิดเผย แต่ก็ไม่ตรงตามเกณฑ์ทั้งหมดสำหรับโอเพนซอร์สเนื่องจากข้อจำกัดในการเข้าถึงส่วนประกอบที่จำเป็นทั้งหมดสำหรับการศึกษาและแก้ไข
ตัวอย่างเหล่านี้ตรงกันข้ามกับความพยายามที่มุ่งมั่นเพื่อให้สอดคล้องกับหลักการโอเพนซอร์สมากขึ้น:
- OLMo (Allen Institute for AI): พัฒนาโดยสถาบันวิจัยที่ไม่แสวงหาผลกำไร OLMo ได้รับการออกแบบมาโดยคำนึงถึงความเปิดกว้างอย่างชัดเจน โดยเปิดเผยไม่เพียงแค่ค่าน้ำหนัก แต่ยังรวมถึงโค้ดการฝึกสอนและรายละเอียดเกี่ยวกับข้อมูลที่ใช้ด้วย
- LLM360’s CrystalCoder: โครงการที่ขับเคลื่อนโดยชุมชนซึ่งมีเป้าหมายเพื่อความโปร่งใสอย่างเต็มที่ตลอดวงจรชีวิตของโมเดล รวมถึงข้อมูล ขั้นตอนการฝึกสอน และตัวชี้วัดการประเมินผล
ทำไมถึงต้องทำ openwashing? แรงจูงใจมีหลายแง่มุม:
- การตลาดและการรับรู้: ป้ายกำกับ ‘โอเพนซอร์ส’ มาพร้อมกับความปรารถนาดีอย่างมีนัยสำคัญ มันบ่งบอกถึงการทำงานร่วมกัน แนวปฏิบัติทางจริยธรรม และความมุ่งมั่นต่อชุมชนในวงกว้าง ซึ่งสามารถดึงดูดผู้ใช้ นักพัฒนา และการประชาสัมพันธ์ในเชิงบวกได้
- การสร้างระบบนิเวศ: การเปิดเผยค่าน้ำหนักโมเดล แม้ว่าจะไม่มีความโปร่งใสเต็มที่ ก็กระตุ้นให้นักพัฒนาสร้างแอปพลิเคชันบนระบบ AI ซึ่งอาจสร้างระบบนิเวศที่ต้องพึ่งพาซึ่งเป็นประโยชน์ต่อบริษัทต้นกำเนิด
- การเก็งกำไรด้านกฎระเบียบ (Regulatory Arbitrage): นี่เป็นตัวขับเคลื่อนที่น่ากังวลเป็นพิเศษ กฎระเบียบที่กำลังจะเกิดขึ้น เช่น AI Act (2024) ของสหภาพยุโรป (European Union) คาดว่าจะกำหนดข้อกำหนดที่เข้มงวดมากขึ้นสำหรับระบบ AI ที่มีความเสี่ยงสูงบางประเภท อย่างไรก็ตาม มักมีการเสนอข้อยกเว้นหรือการตรวจสอบที่ผ่อนปรนกว่าสำหรับ ‘ซอฟต์แวร์เสรีและโอเพนซอร์ส’ (free and open-source software) โดยการใช้ป้ายกำกับ ‘โอเพนซอร์ส’ – แม้ว่าจะไม่ถูกต้องตามคำจำกัดความที่ καθιερωμένο – บริษัทต่างๆ อาจหวังว่าจะสามารถปฏิบัติตามกฎระเบียบเหล่านี้ได้ง่ายขึ้น หลีกเลี่ยงภาระการปฏิบัติตามข้อกำหนดที่อาจมีค่าใช้จ่ายสูงซึ่งเกี่ยวข้องกับระบบที่เป็นกรรมสิทธิ์และมีความเสี่ยงสูง การติดป้ายกำกับเชิงกลยุทธ์นี้ใช้ประโยชน์จากช่องโหว่ที่อาจเกิดขึ้น บ่อนทำลายเจตนารมณ์ของกฎระเบียบในการรับรองความปลอดภัยและความโปร่งใส
แนวปฏิบัตินี้ในที่สุดก็ลดคุณค่าของคำว่า ‘โอเพนซอร์ส’ และสร้างความสับสน ทำให้ผู้ใช้ นักพัฒนา และนักวิจัยแยกแยะได้ยากขึ้นว่าระบบ AI ใดที่ให้ความโปร่งใสและเสรีภาพตามที่ป้ายกำกับบอกไว้อย่างแท้จริง
ทำไมความเปิดกว้างที่แท้จริงจึงมีความสำคัญเร่งด่วนสำหรับวิทยาศาสตร์
สำหรับชุมชนวิทยาศาสตร์ เดิมพันในการถกเถียงนี้สูงเป็นพิเศษ วิทยาศาสตร์เจริญรุ่งเรืองบนความโปร่งใส ความสามารถในการทำซ้ำ และความสามารถในการตรวจสอบโดยอิสระ การบูรณาการ AI เข้ากับการวิจัยที่เพิ่มขึ้น – ตั้งแต่การวิเคราะห์ข้อมูลจีโนมและการสร้างแบบจำลองการเปลี่ยนแปลงสภาพภูมิอากาศ ไปจนถึงการค้นพบวัสดุใหม่และการทำความเข้าใจระบบชีวภาพที่ซับซ้อน – ทำให้ลักษณะของเครื่องมือ AI เหล่านี้มีความสำคัญอย่างยิ่ง การพึ่งพาระบบ AI แบบ ‘กล่องดำ’ (black box) หรือระบบที่แสร้งทำเป็นเปิดโดยไม่ให้ความโปร่งใสอย่างแท้จริง ก่อให้เกิดความเสี่ยงอย่างลึกซึ้ง:
- ความสามารถในการทำซ้ำที่บกพร่อง: หากนักวิจัยไม่สามารถเข้าถึงหรือเข้าใจข้อมูลการฝึกสอนและวิธีการเบื้องหลังโมเดล AI ที่ใช้ในการศึกษา การทำซ้ำผลลัพธ์จะกลายเป็นไปไม่ได้ สิ่งนี้บ่อนทำลายเสาหลักของวิธีการทางวิทยาศาสตร์โดยพื้นฐาน ผลการวิจัยจะน่าเชื่อถือหรือนำไปต่อยอดได้อย่างไรหากไม่สามารถตรวจสอบโดยอิสระได้?
- อคติและข้อจำกัดที่ซ่อนอยู่: โมเดล AI ทั้งหมดสืบทอดอคติจากข้อมูลการฝึกสอนและตัวเลือกการออกแบบ หากไม่มีความโปร่งใส นักวิจัยจะไม่สามารถประเมินอคติเหล่านี้ได้อย่างเพียงพอหรือเข้าใจข้อจำกัดของโมเดล การใช้โมเดลที่มีอคติโดยไม่รู้ตัวอาจนำไปสู่ผลลัพธ์ที่บิดเบือน ข้อสรุปที่ผิดพลาด และผลกระทบที่เป็นอันตรายในโลกแห่งความเป็นจริง โดยเฉพาะอย่างยิ่งในด้านที่ละเอียดอ่อน เช่น การวิจัยทางการแพทย์หรือสังคมศาสตร์
- การขาดการตรวจสอบอย่างละเอียด: โมเดลที่ทึบแสงหลีกเลี่ยงการตรวจสอบโดยเพื่อนร่วมงานอย่างเข้มงวด ชุมชนวิทยาศาสตร์ไม่สามารถซักถามการทำงานภายในของโมเดลได้อย่างเต็มที่ ระบุข้อผิดพลาดที่อาจเกิดขึ้นในตรรกะของมัน หรือเข้าใจความไม่แน่นอนที่เกี่ยวข้องกับการคาดการณ์ของมัน สิ่งนี้ขัดขวางธรรมชาติการแก้ไขตนเองของการสืบเสาะทางวิทยาศาสตร์
- การพึ่งพาระบบขององค์กร: การพึ่งพาระบบ AI แบบปิดหรือกึ่งปิดที่ควบคุมโดยบริษัทต่างๆ สร้างการพึ่งพา วาระการวิจัยอาจได้รับอิทธิพลอย่างละเอียดอ่อนจากความสามารถและข้อจำกัดของเครื่องมือขององค์กรที่มีอยู่ และการเข้าถึงอาจถูกจำกัดหรือมีค่าใช้จ่ายสูง ซึ่งอาจขัดขวางทิศทางการวิจัยอิสระและขยายช่องว่างระหว่างสถาบันที่มีทุนสนับสนุนดีและสถาบันอื่นๆ
- นวัตกรรมที่ถูกขัดขวาง: โอเพนซอร์สที่แท้จริงช่วยให้นักวิจัยไม่เพียงแค่ใช้เครื่องมือ แต่ยังสามารถแยกส่วน แก้ไข ปรับปรุง และนำไปใช้ใหม่ได้ หากองค์ประกอบสำคัญของโมเดล AI ยังคงไม่สามารถเข้าถึงได้ ช่องทางสำคัญสำหรับนวัตกรรมนี้จะถูกปิดกั้น นักวิทยาศาสตร์ถูกขัดขวางไม่ให้ทดลองกับเทคนิคการฝึกสอนแบบใหม่ สำรวจการผสมผสานข้อมูลที่แตกต่างกัน หรือปรับโมเดลสำหรับคำถามการวิจัยเฉพาะทางที่ละเอียดอ่อนซึ่งผู้พัฒนาเดิมไม่ได้คาดการณ์ไว้
ชุมชนวิทยาศาสตร์ไม่สามารถยอมรับการลดทอนความหมายของคำว่า ‘โอเพนซอร์ส’ อย่างเฉยเมยได้ ต้องสนับสนุนความชัดเจนอย่างแข็งขันและเรียกร้องความโปร่งใสอย่างแท้จริงจากนักพัฒนา AI โดยเฉพาะอย่างยิ่งเมื่อเครื่องมือเหล่านี้ถูกนำมาใช้ในบริบทการวิจัย ซึ่งเกี่ยวข้องกับ:
- การส่งเสริมมาตรฐานที่ชัดเจน: สนับสนุนความพยายาม เช่น ความพยายามของ OSI เพื่อสร้างคำจำกัดความที่ชัดเจนและเข้มงวดสำหรับสิ่งที่ถือเป็น ‘โอเพนซอร์ส AI’ คำจำกัดความที่ครอบคลุมความโปร่งใสเกี่ยวกับสถาปัตยกรรม ค่าน้ำหนัก ข้อมูลการฝึกสอน และกระบวนการฝึกสอน
- การให้ความสำคัญกับเครื่องมือที่ตรวจสอบได้: สนับสนุนการใช้โมเดลและแพลตฟอร์ม AI ที่ตรงตามมาตรฐานความโปร่งใสระดับสูงเหล่านี้ แม้ว่าในตอนแรกอาจมีประสิทธิภาพน้อยกว่าหรือต้องใช้ความพยายามมากกว่าทางเลือกอื่นที่ทึบแสงและพร้อมใช้งาน
- การเรียกร้องความโปร่งใส: ยืนยันว่าสิ่งพิมพ์ที่เกี่ยวข้องกับ AI ต้องมีการเปิดเผยข้อมูลโดยละเอียดเกี่ยวกับโมเดลที่ใช้ รวมถึงข้อมูลที่ครอบคลุมเกี่ยวกับที่มาของข้อมูลการฝึกสอน การประมวลผล และอคติที่อาจเกิดขึ้น ตลอดจนวิธีการฝึกสอน
- การสนับสนุนโครงการที่เปิดกว้างอย่างแท้จริง: มีส่วนร่วมและใช้ประโยชน์จากโครงการที่ขับเคลื่อนโดยชุมชนและโครงการริเริ่มจากสถาบันที่มุ่งมั่นในความเปิดกว้างอย่างแท้จริงในการพัฒนา AI
จิตวิญญาณของ Homebrew Computer Club – จิตวิญญาณแห่งการแบ่งปันความรู้และการสร้างสรรค์ร่วมกัน – เป็นสิ่งจำเป็นสำหรับการนำทางความซับซ้อนของยุค AI อย่างมีความรับผิดชอบ การทวงคืนและปกป้องความหมายที่แท้จริงของ ‘โอเพนซอร์ส’ สำหรับปัญญาประดิษฐ์ไม่ใช่แค่เรื่องความบริสุทธิ์ทางศัพท์เท่านั้น แต่ยังเกี่ยวกับการปกป้องความสมบูรณ์ ความสามารถในการทำซ้ำ และความก้าวหน้าอย่างต่อเนื่องของวิทยาศาสตร์ในโลกที่ขับเคลื่อนด้วย AI มากขึ้นเรื่อยๆ เส้นทางข้างหน้าต้องการความระมัดระวังและความมุ่งมั่นร่วมกันเพื่อให้แน่ใจว่าเครื่องมืออันทรงพลังของ AI ได้รับการพัฒนาและนำไปใช้อย่างสอดคล้องกับหลักการของการสืบเสาะแบบเปิดที่รับใช้วิทยาศาสตร์ได้เป็นอย่างดีมานานหลายศตวรรษ