Istilah ‘sumber terbuka’ pernah bergema dengan kejelasan tertentu, satu janji perkongsian pengetahuan dan kemajuan kolaboratif yang mendorong banyak lonjakan saintifik dan teknologi ke hadapan. Ia membangkitkan imej komuniti yang membina bersama, meneliti kerja masing-masing, dan berdiri di atas bahu gergasi kerana rangka tindakan tersedia secara bebas. Kini, menavigasi landskap Kecerdasan Buatan (Artificial Intelligence), istilah itu terasa semakin… licin. Seperti yang diketengahkan dalam halaman Nature dan dibisikkan di makmal dan bilik lembaga pengarah, sejumlah pemain yang membimbangkan dalam kerubut emas AI menyelubungi ciptaan mereka dengan jubah ‘sumber terbuka’ sambil menyimpan komponen yang benar-benar kritikal di bawah kunci dan kunci. Ini bukan sekadar perbalahan semantik; ia adalah amalan yang menggerogoti asas integriti saintifik dan mengancam untuk mengaburkan laluan inovasi masa depan. Komuniti penyelidikan, kumpulan yang paling banyak mendapat keuntungan atau kerugian, perlu mengenali sandiwara ini seadanya dan secara paksa menyokong sistem AI yang benar-benar merangkumi prinsip ketelusan dan kebolehulangan yang telah lama kita harapkan.
Zaman Keemasan Keterbukaan: Warisan Terancam
Selama beberapa dekad, gerakan sumber terbuka telah menjadi wira kemajuan saintifik yang tidak didendang. Fikirkan di luar alat biasa seperti R Studio untuk keajaiban statistik atau OpenFOAM untuk pemodelan dinamik bendalir. Pertimbangkan sistem asas seperti Linux, yang menguasai sebahagian besar internet dan kluster pengkomputeran saintifik, atau pelayan web Apache, bukti pembangunan perisian kolaboratif. Falsafahnya mudah: sediakan akses kepada kod sumber, benarkan pengubahsuaian dan pengedaran semula di bawah lesen permisif, dan pupuk ekosistem global di mana penambahbaikan memberi manfaat kepada semua orang.
Ini bukan sekadar altruisme; ia adalah genius pragmatik. Keterbukaan mempercepatkan penemuan. Penyelidik boleh meniru eksperimen, mengesahkan penemuan, dan membina kerja sedia ada tanpa mencipta semula roda atau menavigasi sistem proprietari yang legap. Ia memupuk kepercayaan, kerana kerja dalaman tersedia untuk pemeriksaan, membolehkan pepijat ditemui dan diperbaiki secara kolektif. Ia mendemokrasikan akses, membolehkan saintis dan pembangun di seluruh dunia, tanpa mengira gabungan institusi atau bajet, untuk mengambil bahagian dalam kerja canggih. Semangat kolaboratif ini, yang dibina atas akses bersama dan penelitian bersama, menjadi sebati dalam kaedah saintifik itu sendiri, memastikan keteguhan dan memupuk kemajuan pesat merentasi pelbagai bidang. Keupayaan untuk membedah, memahami, dan mengubah suai alat yang digunakan adalah amat penting. Ia bukan hanya tentang menggunakan perisian; ia adalah tentang memahami bagaimana ia berfungsi, memastikan kesesuaiannya untuk tugas saintifik tertentu, dan menyumbang kembali kepada kumpulan pengetahuan kolektif. Kitaran murni ini mendorong inovasi pada kadar yang tidak pernah berlaku sebelum ini.
Kebergantungan Data AI: Mengapa ‘Kod Adalah Raja’ Tidak Mencukupi
Masuki era Kecerdasan Buatan (Artificial Intelligence) berskala besar, terutamanya model asas yang menarik begitu banyak perhatian dan pelaburan. Di sini, paradigma sumber terbuka tradisional, yang berpusat terutamanya pada kod sumber, menghadapi ketidakpadanan asas. Walaupun algoritma dan kod yang digunakan untuk membina model AI sememangnya sebahagian daripada gambaran, ia jauh daripada keseluruhan cerita. AI moden, terutamanya model pembelajaran mendalam, adalah pengguna data yang rakus. Data latihan bukan sekadar input; ia boleh dikatakan penentu utama keupayaan, kecenderungan, dan batasan model.
Mengeluarkan kod model, atau bahkan parameter terlatih terakhirnya (‘pemberat’), tanpa menyediakan akses bermakna kepada atau maklumat terperinci tentang set data kolosal yang digunakan untuk latihan adalah seperti menyerahkan kunci kereta kepada seseorang tetapi enggan memberitahu mereka jenis bahan api yang digunakannya, di mana ia telah dipandu, atau bagaimana enjin itu sebenarnya dipasang. Anda mungkin boleh memandunya, tetapi anda mempunyai keupayaan terhad untuk memahami keanehan prestasinya, mendiagnosis masalah yang berpotensi, atau mengubah suainya secara boleh dipercayai untuk perjalanan baharu.
Tambahan pula, sumber pengkomputeran yang diperlukan untuk melatih model ini dari awal adalah sangat besar, selalunya mencecah berjuta-juta dolar untuk satu larian latihan. Ini mewujudkan satu lagi halangan. Walaupun kod dan data sepenuhnya tersedia, hanya segelintir organisasi yang memiliki infrastruktur untuk meniru proses latihan. Realiti ini secara asasnya mengubah dinamik berbanding perisian tradisional, di mana penyusunan kod biasanya boleh dicapai oleh kebanyakan pembangun atau penyelidik. Untuk AI, kebolehulangan sebenar dan keupayaan untuk bereksperimen dengan melatih semula selalunya sukar dicapai, walaupun komponen dilabelkan ‘terbuka’. Oleh itu, sekadar menggunakan definisi sumber terbuka lama yang dicipta untuk kod tidak menangkap keperluan domain baharu yang berpusatkan data dan intensif pengkomputeran ini.
‘Openwashing’: Serigala Berbulu Domba
Jurang antara konsep sumber terbuka tradisional dan realiti pembangunan AI ini telah mewujudkan tanah subur untuk fenomena yang dikenali sebagai ‘openwashing’. Syarikat-syarikat dengan penuh semangat meletakkan label ‘sumber terbuka’ pada model AI mereka, meraih faedah perhubungan awam dan muhibah yang berkaitan dengan istilah tersebut, sambil menggunakan lesen atau sekatan akses yang mengkhianati semangat, jika bukan huruf yang ketat (dan boleh dikatakan lapuk), keterbukaan tulen.
Apakah rupanya dalam amalan?
- Pengeluaran Kod tanpa Data: Sesebuah syarikat mungkin mengeluarkan kod seni bina model dan mungkin juga pemberat pra-latihan, membolehkan orang lain menggunakan model “seadanya” atau menala halusnya pada set data yang lebih kecil. Walau bagaimanapun, set data latihan asas yang besar – ramuan rahsia yang mentakrifkan keupayaan teras model – kekal proprietari dan tersembunyi.
- Pelesenan Terhad: Model mungkin dikeluarkan di bawah lesen yang kelihatan terbuka pada pandangan pertama tetapi mengandungi klausa yang mengehadkan penggunaan komersial, menyekat penggunaan dalam senario tertentu, atau melarang jenis pengubahsuaian atau analisis tertentu. Sekatan ini bertentangan dengan kebebasan yang biasanya dikaitkan dengan perisian sumber terbuka.
- Pendedahan Data Samar-samar: Daripada maklumat terperinci tentang sumber data, kaedah pengumpulan, proses pembersihan, dan potensi kecenderungan, syarikat mungkin menawarkan penerangan yang samar-samar atau meninggalkan butiran penting sama sekali. Kekurangan ‘ketelusan data’ ini menjadikannya mustahil untuk menilai sepenuhnya kebolehpercayaan atau implikasi etika model.
Mengapa terlibat dalam amalan sedemikian? Motivasinya mungkin pelbagai. Konotasi positif ‘sumber terbuka’ tidak dapat dinafikan berharga untuk menarik bakat, membina komuniti pembangun (walaupun terhad), dan menjana akhbar yang baik. Secara lebih sinis, seperti yang dicadangkan oleh Nature, mungkin terdapat insentif kawal selia. Akta AI Kesatuan Eropah 2024 yang komprehensif, misalnya, termasuk potensi pengecualian atau keperluan yang lebih ringan untuk sistem yang diklasifikasikan sebagai sumber terbuka. Dengan menggunakan label secara strategik, sesetengah firma mungkin berharap untuk menavigasi landskap kawal selia yang kompleks dengan kurang geseran, berpotensi mengelak penelitian yang ditujukan untuk sistem AI tujuan umum yang berkuasa. Latihan penjenamaan strategik ini mengeksploitasi muhibah sejarah gerakan sumber terbuka sambil berpotensi menjejaskan usaha untuk memastikan penggunaan AI yang bertanggungjawab.
Spektrum Keterbukaan: Meneliti Bahan Bukti
Adalah penting untuk menyedari bahawa keterbukaan dalam AI tidak semestinya keadaan binari; ia wujud pada spektrum. Walau bagaimanapun, amalan pelabelan semasa sering mengaburkan di mana model tertentu benar-benar terletak pada spektrum itu.
Pertimbangkan beberapa contoh terkemuka yang sering dibincangkan dalam konteks ini:
- Siri Llama Meta: Walaupun Meta mengeluarkan pemberat dan kod untuk model Llama, akses pada mulanya memerlukan permohonan, dan lesen itu termasuk sekatan, terutamanya mengenai penggunaan oleh syarikat yang sangat besar dan aplikasi tertentu. Secara kritikal, data latihan asas tidak dikeluarkan, mengehadkan kebolehulangan penuh dan analisis mendalam ciri-cirinya. Walaupun versi seterusnya telah melaraskan terma, isu teras kelegapan data selalunya kekal.
- Phi-2 Microsoft: Microsoft mempersembahkan Phi-2 sebagai model bahasa kecil ‘sumber terbuka’. Walaupun pemberat model tersedia, lesen itu mempunyai batasan penggunaan khusus, dan maklumat terperinci tentang set data latihannya, yang penting untuk memahami keupayaan dan potensi kecenderungannya (terutamanya memandangkan latihannya pada data “sintetik”), tidak telus sepenuhnya.
- Mixtral Mistral AI: Model ini, yang dikeluarkan oleh syarikat permulaan AI Eropah yang terkemuka, mendapat perhatian kerana prestasinya. Walaupun komponen dikeluarkan di bawah lesen Apache 2.0 yang permisif (lesen yang benar-benar terbuka untuk kod/pemberat), ketelusan penuh mengenai komposisi data latihan dan proses kurasi kekal terhad, menghalang penelitian saintifik yang mendalam.
Kontraskan ini dengan inisiatif yang berusaha untuk penjajaran yang lebih besar dengan prinsip sumber terbuka tradisional:
- OLMo Allen Institute for AI: Projek ini secara eksplisit bertujuan untuk membina model bahasa yang benar-benar terbuka, mengutamakan pengeluaran bukan sahaja pemberat dan kod model tetapi juga data latihan (set data Dolma) dan log latihan terperinci. Komitmen ini membolehkan tahap kebolehulangan dan analisis yang belum pernah berlaku sebelum ini oleh komuniti penyelidikan yang lebih luas.
- CrystalCoder LLM360: Usaha yang didorong oleh komuniti ini juga menekankan pengeluaran semua komponen kitaran hayat pembangunan model, termasuk pusat pemeriksaan perantaraan dan dokumentasi terperinci tentang data dan proses latihan, memupuk tahap ketelusan yang sering hilang dalam keluaran korporat.
Contoh-contoh yang berbeza ini menonjolkan bahawa keterbukaan tulen dalam AI adalah mungkin, tetapi ia memerlukan komitmen yang disengajakan di luar sekadar mengeluarkan kod atau pemberat. Ia menuntut ketelusan tentang data dan proses, menerima penelitian yang datang bersamanya. Kekaburan semasa yang dipupuk oleh ‘openwashing’ menyukarkan penyelidik untuk membezakan alat mana yang benar-benar menyokong pertanyaan saintifik terbuka.
Hakisan Kepercayaan: Integriti Saintifik Dipertaruhkan
Implikasi ‘openwashing’ yang meluas ini melangkaui sekadar penjenamaan. Apabila penyelidik bergantung pada model AI yang kerja dalamannya, terutamanya data yang dilatihnya, adalah legap, ia menyerang jantung metodologi saintifik.
- Kebolehubahan Terjejas: Batu asas kesahihan saintifik ialah keupayaan penyelidik bebas untuk menghasilkan semula keputusan. Jika data latihan dan metodologi latihan yang tepat tidak diketahui, replikasi sebenar menjadi mustahil. Penyelidik mungkin menggunakan model pra-latihan, tetapi mereka tidak dapat mengesahkan pembinaannya atau menyiasat sifat asasnya yang diperoleh daripada data tersembunyi.
- Pengesahan Terhalang: Bagaimana saintis boleh mempercayai output model jika mereka tidak dapat memeriksa data yang dipelajarinya? Kecenderungan tersembunyi, ketidaktepatan, atau kebimbangan etika yang tertanam dalam data latihan pasti akan termanifestasi dalam tingkah laku model, namun tanpa ketelusan, kelemahan ini sukar dikesan, didiagnosis, atau dikurangkan. Menggunakan kotak hitam sedemikian untuk penemuan saintifik memperkenalkan tahap ketidakpastian yang tidak boleh diterima.
- Inovasi Terbantut: Sains berkembang dengan membina kerja sebelumnya. Jika model asas dikeluarkan dengan sekatan atau tanpa ketelusan yang diperlukan (terutamanya mengenai data), ia menghalang keupayaan orang lain untuk berinovasi, bereksperimen dengan rejim latihan alternatif, atau menyesuaikan model untuk aplikasi saintifik baharu dengan cara yang mungkin tidak dibayangkan oleh pencipta asal. Kemajuan menjadi terhad oleh penyedia sistem separa legap ini.
Kebergantungan pada sistem korporat tertutup atau separa tertutup memaksa penyelidik ke dalam peranan pengguna pasif dan bukannya peserta aktif dan inovator. Ia berisiko mewujudkan masa depan di mana infrastruktur saintifik kritikal dikawal oleh beberapa entiti besar, yang berpotensi mengutamakan kepentingan komersial berbanding keperluan pertanyaan saintifik terbuka. Hakisan ketelusan ini secara langsung diterjemahkan kepada hakisan kepercayaan terhadap alat yang menyokong penyelidikan moden.
Penumpuan Pasaran dan Kesan Penyejukan terhadap Inovasi
Di luar kesan segera terhadap amalan saintifik, kelaziman sumber terbuka palsu dalam AI membawa implikasi ekonomi dan pasaran yang ketara. Pembangunan model asas yang besar memerlukan bukan sahaja kepakaran yang signifikan tetapi juga akses kepada set data yang luas dan kuasa pengkomputeran yang besar – sumber yang secara tidak seimbang dipegang oleh syarikat teknologi besar.
Apabila syarikat-syarikat ini mengeluarkan model di bawah panji ‘sumber terbuka’ tetapi mengekalkan kawalan ke atas data latihan penting atau mengenakan lesen yang ketat, ia mewujudkan medan permainan yang tidak sama rata.
- Halangan Kemasukan: Syarikat permulaan dan makmal penyelidikan yang lebih kecil kekurangan sumber untuk mencipta model asas yang setanding dari awal. Jika model ‘terbuka’ yang dikeluarkan oleh penyandang datang dengan syarat (seperti sekatan penggunaan komersial atau kelegapan data yang menghalang pengubahsuaian mendalam), ia mengehadkan keupayaan pemain yang lebih kecil ini untuk bersaing secara berkesan atau membina aplikasi yang benar-benar inovatif di atasnya.
- Mengukuhkan Penyandang: ‘Openwashing’ boleh berfungsi sebagai parit strategik. Dengan mengeluarkan model yang berguna tetapi tidak benar-benar terbuka, syarikat besar boleh memupuk ekosistem yang bergantung pada teknologi mereka sambil menghalang pesaing daripada meniru sepenuhnya atau meningkatkan aset teras mereka dengan ketara (data dan proses latihan yang diperhalusi). Ia kelihatan seperti keterbukaan tetapi berfungsi lebih dekat dengan strategi platform terkawal.
- Mengurangkan Kepelbagaian Pendekatan: Jika inovasi menjadi terlalu bergantung pada beberapa model asas yang dominan dan separa legap, ia boleh membawa kepada penyeragaman pembangunan AI, berpotensi mengabaikan seni bina alternatif, paradigma latihan, atau strategi data yang mungkin diterokai oleh kumpulan bebas yang lebih kecil jika bidang itu benar-benar terbuka.
Sumber terbuka tulen secara sejarahnya merupakan enjin yang kuat untuk persaingan dan inovasi teragih. Trend semasa dalam AI berisiko menumpukan kuasa dan menyekat kedinamikan yang sepatutnya dipupuk oleh kerjasama terbuka, berpotensi membawa kepada landskap AI yang kurang bersemangat dan lebih terkawal secara berpusat.
Titik Buta Kawal Selia dan Tali Rentangan Etika
Potensi ‘openwashing’ untuk mengeksploitasi kelemahan kawal selia, terutamanya mengenai rangka kerja seperti Akta AI EU, patut diteliti dengan lebih dekat. Akta ini bertujuan untuk mewujudkan peraturan berasaskan risiko untuk sistem AI, mengenakan keperluan yang lebih ketat pada aplikasi berisiko tinggi. Pengecualian atau kewajipan yang lebih ringan untuk AI sumber terbuka bertujuan untuk memupuk inovasi dan mengelak daripada membebankan komuniti sumber terbuka secara berlebihan.
Walau bagaimanapun, jika syarikat boleh berjaya menuntut mantel ‘sumber terbuka’ untuk model yang kekurangan ketelusan tulen (terutamanya mengenai data dan latihan), mereka mungkin memintas perlindungan penting. Ini menimbulkan persoalan kritikal:
- Penelitian Bermakna: Bolehkah pengawal selia menilai risiko model AI yang berkuasa dengan secukupnya jika data latihannya – penentu utama tingkah laku dan potensi kecenderungannya – tersembunyi daripada pandangan? Pelabelan yang salah boleh membenarkan sistem yang berpotensi berisiko tinggi beroperasi dengan kurang pengawasan daripada yang dimaksudkan.
- Jurang Akauntabiliti: Apabila berlaku kesilapan – jika model menunjukkan kecenderungan berbahaya atau menghasilkan output berbahaya – siapa yang bertanggungjawab jika data asas dan proses latihan adalah legap? Keterbukaan sebenar memudahkan penyiasatan dan akauntabiliti; ‘openwashing’ mengaburkannya.
- Tadbir Urus Etika: Menggunakan AI secara bertanggungjawab memerlukan pemahaman tentang batasan dan potensi kesan sosialnya. Pemahaman ini secara asasnya terjejas apabila komponen teras seperti data latihan dirahsiakan. Ia menjadikan audit bebas, penilaian kecenderungan, dan kajian etika jauh lebih mencabar, jika tidak mustahil.
Penggunaan strategik label ‘sumber terbuka’ untuk menavigasi peraturan bukan sekadar gerakan undang-undang; ia mempunyai implikasi etika yang mendalam. Ia berisiko menjejaskan kepercayaan awam dan menghalang usaha untuk memastikan pembangunan AI berjalan dengan cara yang selamat, adil dan bertanggungjawab. Memastikan definisi kawal selia ‘AI sumber terbuka’ sejajar dengan prinsip ketelusan tulen adalah amat penting.
Merangka Haluan Menuju Keterbukaan AI Sebenar
Mujurlah, loceng penggera berbunyi, dan usaha sedang dijalankan untuk menuntut semula makna ‘sumber terbuka’ dalam era AI. Open Source Initiative (OSI), penjaga definisi sumber terbuka yang telah lama wujud, telah menerajui proses perundingan global untuk mewujudkan standard yang jelas bagi AI Sumber Terbuka (menghasilkan definisi OSAID 1.0).
Inovasi utama dalam usaha ini ialah konsep ‘maklumat data’. Menyedari bahawa mengeluarkan set data mentah yang besar mungkin tidak dapat dilaksanakan secara sah atau logistik dalam sesetengah kes (kerana privasi, hak cipta, atau skala semata-mata), rangka kerja OSAID menekankan keperluan untuk pendedahan komprehensif mengenai data. Ini termasuk butiran mengenai:
- Sumber: Dari mana datangnya data?
- Ciri-ciri: Apakah jenis data itu (teks, imej, kod)? Apakah sifat statistiknya?
- Penyediaan: Bagaimana data dikumpul, ditapis, dibersihkan, dan dipraproses? Apakah langkah yang diambil untuk mengurangkan kecenderungan?
Tahap ketelusan ini, walaupun tanpa data mentah itu sendiri, menyediakan konteks penting bagi penyelidik untuk memahami kemungkinan keupayaan, batasan, dan potensi kecenderungan model. Ia mewakili kompromi pragmatik, mendorong ketelusan maksimum dalam kekangan sedia ada. Di samping OSI, organisasi seperti Open Future menyokong peralihan yang lebih luas ke arah model ‘data-commons’, meneroka cara untuk mencipta set data yang dikongsi, bersumberkan etika, dan boleh diakses secara terbuka untuk latihan AI, seterusnya menurunkan halangan kemasukan dan memupuk pembangunan kolaboratif. Menetapkan dan mematuhi standard yang jelas dan disemak oleh komuniti adalah langkah pertama yang penting ke arah menghilangkan kabus ‘openwashing’.
Keperluan Mendesak untuk Komuniti Penyelidikan
Para saintis dan penyelidik bukan sekadar pengguna alat AI; mereka adalah pihak berkepentingan penting dalam memastikan alat ini sejajar dengan nilai saintifik. Melibatkan diri secara aktif dengan definisi dan standard yang berkembang, seperti OSAID 1.0, adalah penting. Tetapi tindakan mesti melangkaui kesedaran semata-mata:
- Menuntut Ketelusan: Dalam penerbitan, cadangan geran, dan pemilihan alat, penyelidik harus mengutamakan dan menuntut ketelusan yang lebih besar mengenai model AI yang mereka gunakan. Ini termasuk mendesak kad ‘maklumat data’ terperinci atau lembaran data yang disertakan dengan keluaran model.
- Menyokong Keterbukaan Tulen: Secara aktif menyumbang kepada, menggunakan, dan memetik projek seperti OLMo atau inisiatif lain yang menunjukkan komitmen tulen untuk mengeluarkan kod, data, dan metodologi. Mengundi dengan muat turun dan petikan menghantar isyarat pasaran yang kuat.
- Membangunkan Standard Penilaian: Komuniti memerlukan kaedah dan senarai semak yang mantap untuk menilai tahap keterbukaan model AI, bergerak melangkaui label simplistik. Proses semakan rakan sebaya harus menggabungkan penelitian terhadap tuntutan ketelusan yang berkaitan dengan alat AI yang digunakan dalam penyelidikan.
- Menyokong Dalam Institusi: Menggalakkan universiti, institut penyelidikan, dan persatuan profesional untuk mengguna pakai dasar yang memihak atau memerlukan penggunaan alat dan platform AI yang benar-benar terbuka dan telus.
Komuniti saintifik mempunyai pengaruh yang besar. Dengan secara kolektif menegaskan standard yang menegakkan kebolehulangan, ketelusan, dan akses kolaboratif, penyelidik boleh menolak dakwaan yang mengelirukan dan membantu membentuk ekosistem AI yang kondusif untuk penemuan saintifik yang teliti.
Dasar, Pembiayaan, dan Laluan ke Hadapan
Kerajaan dan agensi pembiayaan awam juga mempunyai kuasa yang signifikan dalam membentuk landskap AI. Dasar mereka boleh sama ada secara tersirat menyokong ‘openwashing’ atau secara aktif mempromosikan keterbukaan tulen.
- Mandat untuk Keterbukaan: Institusi seperti National Institutes of Health (NIH) AS sudah mempunyai mandat yang memerlukan pelesenan terbuka dan perkongsian data untuk penyelidikan yang mereka biayai. Memperluaskan prinsip serupa kepada model dan set data AI yang dibangunkan dengan wang awam adalah langkah yang logik dan perlu. Jika dana awam menyokong pembangunan AI, hasilnya harus boleh diakses secara terbuka dan boleh disahkan setakat yang mungkin.
- Kuasa Perolehan: Agensi kerajaan adalah pengguna utama teknologi. Dengan menyatakan keperluan untuk AI sumber terbuka tulen (mematuhi standard seperti OSAID) dalam kontrak perolehan awam, kerajaan boleh mewujudkan insentif pasaran yang signifikan bagi syarikat untuk mengamalkan amalan yang lebih telus. Keperluan Itali untuk perisian sumber terbuka dalam pentadbiran awam menawarkan templat yang berpotensi.
- Melabur dalam Infrastruktur Terbuka: Di luar peraturan, pelaburan awam dalam inisiatif ‘data commons’, sumber pengkomputeran terbuka untuk penyelidik, dan platform yang didedikasikan untuk mengehos dan menilai model AI yang benar-benar terbuka boleh menjadi transformatif. Ini boleh membantu menyamaratakan medan permainan dan menyediakan alternatif yang berdaya maju kepada sistem proprietari atau separa terbuka.
- Kerjasama Global: Memandangkan sifat global pembangunan AI, kerjasama antarabangsa dalam mentakrifkan dan mempromosikan standard AI sumber terbuka adalah penting untuk mengelakkan pemecahan kawal selia dan memastikan garis dasar ketelusan dan akauntabiliti yang konsisten di seluruh dunia.
Tuas dasar, apabila digunakan dengan teliti, boleh mengalihkan insentif dengan ketara daripada pelabelan yang menipu ke arah amalan yang benar-benar menyokong integriti saintifik dan inovasi yang luas. Perjuangan menentang ilusi ‘sumber terbuka’ dalam AI memerlukan usaha bersepadu. Penyelidik mesti menjadi pengkritik yang berwaspada, menuntut ketelusan yang diperlukan untuk ketelitian saintifik. Badan penetapan standard seperti OSI mesti terus memperhalusi definisi yang mencerminkan sifat unik AI. Dan penggubal dasar mesti menggunakan pengaruh mereka untuk memberi insentif dan mewajibkan amalan yang sejajar dengan kepentingan awam dalam kecerdasan buatan yang boleh disahkan, boleh dipercayai dan boleh diakses. Trajektori masa depan AI dalam sains—sama ada ia menjadi sempadan terbuka sebenar untuk penemuan atau landskap yang dikuasai oleh sistem korporat yang legap—bergantung pada keseimbangan.