Topeng 'Open Source' AI: Ideal Luhur yang Dibajak

Istilah ‘open source’ pernah bergema dengan kejernihan tertentu, sebuah janji akan pengetahuan bersama dan kemajuan kolaboratif yang mendorong lompatan ilmiah dan teknologi yang tak terhitung jumlahnya. Istilah ini membangkitkan citra komunitas yang membangun bersama, meneliti pekerjaan satu sama lain, dan berdiri di atas pundak para raksasa karena cetak birunya tersedia secara bebas. Kini, saat menavigasi lanskap Kecerdasan Buatan (Artificial Intelligence), istilah itu terasa semakin… licin. Seperti yang disorot dalam halaman Nature dan dibisikkan di laboratorium serta ruang rapat, sejumlah pemain yang mengkhawatirkan dalam demam emas AI menyelubungi ciptaan mereka dengan jubah ‘open source’ sambil tetap mengunci komponen yang benar-benar krusial. Ini bukan sekadar perdebatan semantik; ini adalah praktik yang menggerogoti fondasi integritas ilmiah dan mengancam mengaburkan jalan inovasi di masa depan. Komunitas riset, kelompok yang paling diuntungkan atau dirugikan, perlu mengenali sandiwara ini apa adanya dan dengan tegas mengadvokasi sistem AI yang benar-benar mewujudkan prinsip transparansi dan reproduktifitas yang telah lama kita andalkan.

Zaman Keemasan Keterbukaan: Warisan yang Terancam

Selama beberapa dekade, gerakan open-source telah menjadi pahlawan tanpa tanda jasa dalam kemajuan ilmiah. Pikirkan lebih dari sekadar alat yang dikenal seperti R Studio untuk keajaiban statistik atau OpenFOAM untuk pemodelan dinamika fluida. Pertimbangkan sistem dasar seperti Linux, yang menggerakkan sebagian besar internet dan klaster komputasi ilmiah, atau server web Apache, sebuah bukti pengembangan perangkat lunak kolaboratif. Filosofinya sederhana: menyediakan akses ke kode sumber (source code), mengizinkan modifikasi dan redistribusi di bawah lisensi permisif, dan membina ekosistem global di mana perbaikan menguntungkan semua orang.

Ini bukan sekadar altruisme; ini adalah kejeniusan pragmatis. Keterbukaan mempercepat penemuan. Para peneliti dapat mereplikasi eksperimen, memvalidasi temuan, dan membangun di atas pekerjaan yang ada tanpa harus menemukan kembali roda atau menavigasi sistem kepemilikan yang buram. Ini menumbuhkan kepercayaan, karena cara kerja bagian dalam tersedia untuk diperiksa, memungkinkan bug ditemukan dan diperbaiki secara kolektif. Ini mendemokratisasi akses, memungkinkan para ilmuwan dan pengembang di seluruh dunia, terlepas dari afiliasi institusional atau anggaran, untuk berpartisipasi dalam pekerjaan mutakhir. Semangat kolaboratif ini, yang dibangun di atas akses bersama dan pengawasan timbal balik, menjadi tertanam kuat dalam metode ilmiah itu sendiri, memastikan ketahanan dan mendorong kemajuan pesat di berbagai bidang. Kemampuan untuk membedah, memahami, dan memodifikasi alat yang digunakan adalah hal yang terpenting. Ini bukan hanya tentang menggunakan perangkat lunak; ini tentang memahami bagaimana cara kerjanya, memastikan kesesuaiannya untuk tugas ilmiah tertentu, dan berkontribusi kembali ke kumpulan pengetahuan kolektif. Siklus bajik ini mendorong inovasi dengan kecepatan yang belum pernah terjadi sebelumnya.

Ketergantungan Data AI: Mengapa ‘Kode Adalah Raja’ Tidak Cukup

Masuki era Kecerdasan Buatan (Artificial Intelligence) skala besar, terutama model-model dasar (foundational models) yang menarik begitu banyak perhatian dan investasi. Di sini, paradigma open-source tradisional, yang berpusat terutama pada kode sumber, menghadapi ketidakcocokan mendasar. Meskipun algoritma dan kode yang digunakan untuk membangun model AI tentu saja merupakan bagian dari gambaran, itu jauh dari keseluruhan cerita. AI modern, terutama model deep learning, adalah konsumen data yang rakus. Data pelatihan bukan hanya input; bisa dibilang itu adalah penentu utama kemampuan, bias, dan keterbatasan model.

Merilis kode model, atau bahkan parameter terlatih akhirnya (‘weights’), tanpa memberikan akses yang berarti ke atau informasi terperinci tentang kumpulan data kolosal yang digunakan untuk pelatihan adalah seperti memberikan kunci mobil kepada seseorang tetapi menolak memberi tahu jenis bahan bakar apa yang dibutuhkannya, ke mana saja mobil itu dikendarai, atau bagaimana mesinnya sebenarnya dirakit. Anda mungkin bisa mengendarainya, tetapi Anda memiliki kemampuan terbatas untuk memahami keunikan kinerjanya, mendiagnosis potensi masalah, atau memodifikasinya secara andal untuk perjalanan baru.

Lebih jauh lagi, sumber daya komputasi (computational resources) yang diperlukan untuk melatih model-model ini dari awal sangat besar, seringkali mencapai jutaan dolar untuk satu kali proses pelatihan. Ini menciptakan penghalang lain. Bahkan jika kode dan data sepenuhnya tersedia, hanya segelintir organisasi yang memiliki infrastruktur untuk mereplikasi proses pelatihan. Realitas ini secara fundamental mengubah dinamika dibandingkan dengan perangkat lunak tradisional, di mana mengkompilasi kode biasanya dapat dijangkau oleh sebagian besar pengembang atau peneliti. Untuk AI, reproduktifitas sejati dan kemampuan untuk bereksperimen dengan melatih ulang (retraining) seringkali tetap sulit dipahami, bahkan ketika komponen diberi label ‘open’. Oleh karena itu, sekadar menerapkan definisi open-source lama yang dirancang untuk kode tidak menangkap kebutuhan domain baru yang berpusat pada data (data-centric) dan intensif komputasi (compute-intensive) ini.

‘Openwashing’: Serigala Berbulu Domba

Kesenjangan antara konsep open-source tradisional dan realitas pengembangan AI ini telah menciptakan lahan subur bagi fenomena yang dikenal sebagai ‘openwashing’. Perusahaan dengan penuh semangat menempelkan label ‘open source’ pada model AI mereka, menuai manfaat hubungan masyarakat (public relations) dan niat baik (goodwill) yang terkait dengan istilah tersebut, sambil menerapkan lisensi atau pembatasan akses yang mengkhianati semangat, jika bukan huruf yang ketat (dan bisa dibilang usang), dari keterbukaan sejati.

Seperti apa bentuknya dalam praktik?

  • Rilis Kode tanpa Data: Sebuah perusahaan mungkin merilis kode arsitektur model dan mungkin bahkan bobot yang telah dilatih sebelumnya (pre-trained weights), memungkinkan orang lain untuk menggunakan model “apa adanya” atau menyempurnakannya (fine-tune) pada kumpulan data yang lebih kecil. Namun, kumpulan data pelatihan dasar yang masif – saus rahasia yang mendefinisikan kemampuan inti model – tetap menjadi hak milik dan tersembunyi.
  • Lisensi Restriktif: Model mungkin dirilis di bawah lisensi yang tampak terbuka pada pandangan pertama tetapi berisi klausul yang membatasi penggunaan komersial (commercial use), membatasi penerapan dalam skenario tertentu, atau melarang jenis modifikasi atau analisis tertentu. Pembatasan ini bertentangan dengan kebebasan yang biasanya terkait dengan perangkat lunak open-source.
  • Pengungkapan Data yang Ambigu: Alih-alih informasi terperinci tentang sumber data, metode pengumpulan, proses pembersihan, dan potensi bias, perusahaan mungkin menawarkan deskripsi yang samar atau menghilangkan detail penting sama sekali. Kurangnya ‘transparansi data’ (data transparency) ini membuat mustahil untuk menilai sepenuhnya keandalan atau implikasi etis model.

Mengapa terlibat dalam praktik semacam itu? Motivasinya kemungkinan beragam. Konotasi positif ‘open source’ tidak dapat disangkal berharga untuk menarik talenta, membangun komunitas pengembang (bahkan jika dibatasi), dan menghasilkan pemberitaan yang baik. Secara lebih sinis, seperti yang disarankan Nature, mungkin ada insentif peraturan (regulatory incentives). Undang-Undang AI Uni Eropa 2024 yang komprehensif (EU AI Act), misalnya, mencakup potensi pengecualian atau persyaratan yang lebih ringan untuk sistem yang diklasifikasikan sebagai open source. Dengan menggunakan label secara strategis, beberapa perusahaan mungkin berharap dapat menavigasi lanskap peraturan yang kompleks dengan lebih sedikit gesekan, berpotensi menghindari pengawasan yang ditujukan untuk sistem AI serba guna yang kuat. Latihan branding strategis (strategic branding) ini mengeksploitasi niat baik historis gerakan open-source sambil berpotensi merusak upaya untuk memastikan penerapan AI yang bertanggung jawab.

Spektrum Keterbukaan: Menelaah Contoh-contoh

Penting untuk menyadari bahwa keterbukaan dalam AI belum tentu merupakan keadaan biner; ia ada dalam sebuah spektrum. Namun, praktik pelabelan saat ini seringkali mengaburkan di mana posisi sebenarnya suatu model tertentu pada spektrum tersebut.

Pertimbangkan beberapa contoh menonjol yang sering dibahas dalam konteks ini:

  • Seri Llama dari Meta: Meskipun Meta merilis bobot (weights) dan kode untuk model Llama, akses awalnya memerlukan aplikasi, dan lisensinya mencakup pembatasan, terutama terkait penggunaan oleh perusahaan yang sangat besar dan aplikasi spesifik. Secara kritis, data pelatihan yang mendasarinya tidak dirilis, membatasi reproduktifitas penuh dan analisis mendalam tentang karakteristiknya. Meskipun versi berikutnya telah menyesuaikan persyaratan, masalah inti opasitas data (data opacity) seringkali tetap ada.
  • Phi-2 dari Microsoft: Microsoft menyajikan Phi-2 sebagai model bahasa kecil ‘open-source’. Meskipun bobot model tersedia, lisensinya memiliki batasan penggunaan spesifik, dan informasi terperinci tentang data pelatihannya, yang krusial untuk memahami kemampuan dan potensi biasnya (terutama mengingat pelatihannya pada data “sintetis” / “synthetic” data), tidak sepenuhnya transparan.
  • Mixtral dari Mistral AI: Model ini, yang dirilis oleh startup AI Eropa terkemuka, menarik perhatian karena kinerjanya. Meskipun komponen dirilis di bawah lisensi Apache 2.0 yang permisif (lisensi yang benar-benar terbuka untuk kode/bobot), transparansi penuh mengenai komposisi data pelatihan dan proses kurasi (curation process) tetap terbatas, menghambat pengawasan ilmiah yang mendalam.

Bandingkan ini dengan inisiatif yang berupaya untuk penyelarasan yang lebih besar dengan prinsip-prinsip open-source tradisional:

  • OLMo dari Allen Institute for AI: Proyek ini secara eksplisit bertujuan untuk membangun model bahasa yang benar-benar terbuka, memprioritaskan rilis tidak hanya bobot model dan kode tetapi juga data pelatihan (kumpulan data Dolma) dan log pelatihan (training logs) yang terperinci. Komitmen ini memungkinkan tingkat reproduktifitas dan analisis yang belum pernah terjadi sebelumnya oleh komunitas riset yang lebih luas.
  • CrystalCoder dari LLM360: Upaya berbasis komunitas ini juga menekankan pelepasan semua komponen siklus hidup pengembangan model, termasuk pos pemeriksaan perantara (intermediate checkpoints) dan dokumentasi terperinci tentang data dan proses pelatihan, menumbuhkan tingkat transparansi yang sering hilang dalam rilis perusahaan.

Contoh-contoh yang kontras ini menyoroti bahwa keterbukaan sejati dalam AI adalah mungkin, tetapi membutuhkan komitmen yang disengaja di luar sekadar merilis kode atau bobot. Ini menuntut transparansi tentang data dan prosesnya, merangkul pengawasan yang menyertainya. Ambiguitas saat ini yang dipupuk oleh ‘openwashing’ mempersulit para peneliti untuk membedakan alat mana yang benar-benar mendukung penyelidikan ilmiah terbuka (scientific inquiry).

Korosi Kepercayaan: Integritas Ilmiah Dipertaruhkan

Implikasi dari ‘openwashing’ yang meluas ini jauh melampaui sekadar branding. Ketika peneliti mengandalkan model AI yang cara kerja bagian dalamnya, terutama data tempat mereka dilatih, buram, itu menyerang jantung metodologi ilmiah (scientific methodology).

  • Reproduktifitas Tergerus: Landasan validitas ilmiah adalah kemampuan peneliti independen untuk mereproduksi hasil. Jika data pelatihan dan metodologi pelatihan yang tepat tidak diketahui, replikasi sejati menjadi tidak mungkin. Peneliti mungkin menggunakan model yang telah dilatih sebelumnya, tetapi mereka tidak dapat memverifikasi konstruksinya atau menyelidiki sifat fundamentalnya yang berasal dari data tersembunyi.
  • Verifikasi Terhambat: Bagaimana ilmuwan dapat mempercayai output model jika mereka tidak dapat memeriksa data tempat model itu belajar? Bias tersembunyi (hidden biases), ketidakakuratan, atau masalah etika yang tertanam dalam data pelatihan pasti akan termanifestasi dalam perilaku model, namun tanpa transparansi, kekurangan ini sulit dideteksi, didiagnosis, atau dimitigasi. Menggunakan kotak hitam (black boxes) semacam itu untuk penemuan ilmiah memperkenalkan tingkat ketidakpastian yang tidak dapat diterima.
  • Inovasi Terhambat: Sains berkembang dengan membangun di atas pekerjaan sebelumnya. Jika model dasar (foundational models) dirilis dengan batasan atau tanpa transparansi yang diperlukan (terutama mengenai data), hal itu menghambat kemampuan orang lain untuk berinovasi, bereksperimen dengan rezim pelatihan alternatif, atau mengadaptasi model untuk aplikasi ilmiah baru dengan cara yang mungkin tidak dibayangkan oleh pencipta aslinya. Kemajuan menjadi dibatasi oleh penyedia sistem semi-buram ini.

Ketergantungan pada sistem korporat yang tertutup atau sebagian tertutup memaksa peneliti ke dalam peran konsumen pasif (passive consumer role) daripada partisipan aktif dan inovator. Ini berisiko menciptakan masa depan di mana infrastruktur ilmiah kritis dikendalikan oleh beberapa entitas besar, yang berpotensi memprioritaskan kepentingan komersial di atas kebutuhan penyelidikan ilmiah terbuka. Erosi transparansi ini secara langsung diterjemahkan menjadi erosi kepercayaan (erosion of trust) pada alat yang menopang penelitian modern.

Konsentrasi Pasar dan Efek Mendinginkan Inovasi

Di luar dampak langsung pada praktik ilmiah, prevalensi open source palsu di AI membawa implikasi ekonomi dan pasar (economic implications) yang signifikan. Pengembangan model dasar (foundational models) yang besar tidak hanya membutuhkan keahlian yang signifikan tetapi juga akses ke kumpulan data yang luas dan kekuatan komputasi (computational power) yang sangat besar – sumber daya yang secara tidak proporsional dimiliki oleh perusahaan teknologi besar.

Ketika perusahaan-perusahaan ini merilis model di bawah bendera ‘open source’ tetapi mempertahankan kontrol atas data pelatihan yang krusial atau memberlakukan lisensi restriktif, itu menciptakan lapangan bermain yang tidak setara (uneven playing field).

  • Hambatan Masuk (Barriers to Entry): Startup dan laboratorium riset yang lebih kecil kekurangan sumber daya untuk membuat model dasar yang sebanding dari awal. Jika model yang seharusnya ‘terbuka’ yang dirilis oleh pemain lama datang dengan ikatan (seperti pembatasan penggunaan komersial atau opasitas data yang mencegah modifikasi mendalam), itu membatasi kemampuan pemain yang lebih kecil ini untuk bersaing secara efektif atau membangun aplikasi yang benar-benar inovatif di atasnya.
  • Memperkuat Pemain Lama (Entrenching Incumbents): ‘Openwashing’ dapat berfungsi sebagai parit strategis (strategic moat). Dengan merilis model yang berguna tetapi tidak benar-benar terbuka, perusahaan besar dapat membina ekosistem yang bergantung pada teknologi mereka sambil mencegah pesaing mereplikasi sepenuhnya atau secara signifikan meningkatkan aset inti (core assets) mereka (data dan proses pelatihan yang disempurnakan). Ini terlihat seperti keterbukaan tetapi berfungsi lebih dekat dengan strategi platform terkontrol (controlled platform strategy).
  • Berkurangnya Keragaman Pendekatan: Jika inovasi menjadi terlalu bergantung pada beberapa model dasar yang dominan dan semi-buram, hal itu dapat menyebabkan homogenisasi (homogenization) pengembangan AI, berpotensi mengabaikan arsitektur alternatif, paradigma pelatihan, atau strategi data yang mungkin dieksplorasi oleh kelompok independen yang lebih kecil jika bidang tersebut benar-benar terbuka.

Open source sejati secara historis telah menjadi mesin yang kuat untuk kompetisi dan inovasi terdistribusi (distributed innovation). Tren saat ini di AI berisiko memusatkan kekuatan dan menahan dinamisme yang seharusnya dipupuk oleh kolaborasi terbuka, berpotensi mengarah pada lanskap AI yang kurang bersemangat dan lebih terkontrol secara terpusat.

Celah Regulasi dan Dilema Etis

Potensi ‘openwashing’ untuk mengeksploitasi celah peraturan (regulatory loopholes), terutama terkait kerangka kerja seperti EU AI Act, patut dicermati lebih dekat. Undang-undang ini bertujuan untuk menetapkan peraturan berbasis risiko (risk-based regulations) untuk sistem AI, memberlakukan persyaratan yang lebih ketat pada aplikasi berisiko tinggi (high-risk applications). Pengecualian atau kewajiban yang lebih ringan (lighter obligations) untuk AI open-source dimaksudkan untuk mendorong inovasi dan menghindari membebani komunitas open-source secara berlebihan.

Namun, jika perusahaan dapat berhasil mengklaim mantel ‘open source’ untuk model yang kurang transparansi sejati (terutama mengenai data dan pelatihan), mereka mungkin melewati perlindungan penting. Ini menimbulkan pertanyaan kritis:

  • Pengawasan Bermakna (Meaningful Scrutiny): Dapatkah regulator menilai risiko model AI yang kuat secara memadai jika data pelatihannya – penentu utama perilaku dan potensi biasnya – disembunyikan dari pandangan? Pelabelan yang salah dapat memungkinkan sistem yang berpotensi berisiko tinggi beroperasi dengan pengawasan yang lebih sedikit dari yang dimaksudkan.
  • Kesenjangan Akuntabilitas (Accountability Gaps): Ketika terjadi kesalahan – jika model menunjukkan bias berbahaya (harmful bias) atau menghasilkan output berbahaya – siapa yang bertanggung jawab jika data dan proses pelatihan yang mendasarinya buram? Keterbukaan sejati memfasilitasi investigasi dan akuntabilitas; ‘openwashing’ mengaburkannya.
  • Tata Kelola Etis (Ethical Governance): Menerapkan AI secara bertanggung jawab membutuhkan pemahaman tentang keterbatasan dan potensi dampak sosialnya (societal impacts). Pemahaman ini secara fundamental terganggu ketika komponen inti seperti data pelatihan dirahasiakan. Ini membuat audit independen (independent audits), penilaian bias, dan tinjauan etis secara signifikan lebih menantang, jika bukan tidak mungkin.

Penggunaan strategis label ‘open source’ untuk menavigasi regulasi bukan hanya manuver hukum; ia memiliki implikasi etis yang mendalam. Ini berisiko merusak kepercayaan publik (public trust) dan menghambat upaya untuk memastikan bahwa pengembangan AI berjalan dengan cara yang aman, adil, dan akuntabel. Memastikan bahwa definisi peraturan tentang ‘AI open source’ selaras dengan prinsip-prinsip transparansi sejati karenanya sangat penting.

Merintis Jalan Menuju Keterbukaan AI Sejati

Untungnya, lonceng alarm berbunyi, dan upaya sedang dilakukan untuk merebut kembali makna ‘open source’ di era AI. Open Source Initiative (OSI), pengelola definisi open-source yang sudah lama berdiri, telah mempelopori proses konsultasi global untuk menetapkan standar yang jelas untuk Open Source AI (menghasilkan definisi OSAID 1.0).

Inovasi kunci dalam upaya ini adalah konsep ‘informasi data’ (data information). Menyadari bahwa merilis kumpulan data mentah yang masif mungkin tidak layak secara hukum atau logistik dalam beberapa kasus (karena privasi, hak cipta, atau skala semata), kerangka kerja OSAID menekankan perlunya pengungkapan komprehensif (comprehensive disclosure) tentang data tersebut. Ini mencakup detail tentang:

  • Sumber (Sources): Dari mana data berasal?
  • Karakteristik (Characteristics): Jenis data apa itu (teks, gambar, kode)? Apa properti statistiknya?
  • Persiapan (Preparation): Bagaimana data dikumpulkan, difilter, dibersihkan, dan dipra-proses? Langkah apa yang diambil untuk mengurangi bias (mitigate bias)?

Tingkat transparansi ini, bahkan tanpa data mentah itu sendiri, memberikan konteks krusial bagi para peneliti untuk memahami kemungkinan kemampuan, keterbatasan, dan potensi bias suatu model. Ini mewakili kompromi pragmatis (pragmatic compromise), mendorong transparansi maksimal dalam batasan yang ada. Bersama OSI, organisasi seperti Open Future mengadvokasi pergeseran yang lebih luas menuju model ‘data-commons’, mengeksplorasi cara untuk menciptakan kumpulan data bersama yang bersumber secara etis (ethically sourced) dan dapat diakses secara terbuka untuk pelatihan AI, lebih lanjut menurunkan hambatan masuk dan membina pengembangan kolaboratif. Menetapkan dan mematuhi standar yang jelas dan divalidasi komunitas (community-vetted standards) seperti itu adalah langkah pertama yang penting untuk menghilangkan kabut ‘openwashing’.

Kewajiban bagi Komunitas Riset

Ilmuwan dan peneliti bukan hanya konsumen alat AI; mereka adalah pemangku kepentingan (stakeholders) krusial dalam memastikan alat ini selaras dengan nilai-nilai ilmiah (scientific values). Terlibat aktif dengan definisi dan standar yang berkembang, seperti OSAID 1.0, sangat penting. Tetapi tindakan harus melampaui kesadaran belaka:

  • Tuntut Transparansi: Dalam publikasi, proposal hibah, dan pemilihan alat, peneliti harus memprioritaskan dan menuntut transparansi yang lebih besar mengenai model AI yang mereka gunakan. Ini termasuk mendorong kartu ‘informasi data’ (data information cards) atau lembar data (datasheets) terperinci yang menyertai rilis model.
  • Dukung Keterbukaan Sejati: Secara aktif berkontribusi, memanfaatkan, dan mengutip proyek seperti OLMo atau inisiatif lain yang menunjukkan komitmen tulus untuk merilis kode, data, dan metodologi. Memilih dengan unduhan dan kutipan (voting with downloads and citations) mengirimkan sinyal pasar yang kuat.
  • Kembangkan Standar Evaluasi: Komunitas membutuhkan metode dan daftar periksa yang kuat untuk mengevaluasi tingkat keterbukaan (degree of openness) model AI, melampaui label yang simplistis. Proses tinjauan sejawat (peer review processes) harus memasukkan pengawasan terhadap klaim transparansi yang terkait dengan alat AI yang digunakan dalam penelitian.
  • Advokasi di Dalam Institusi: Mendorong universitas, lembaga penelitian, dan perkumpulan profesional untuk mengadopsi kebijakan yang mendukung atau mensyaratkan penggunaan alat dan platform AI yang benar-benar terbuka dan transparan.

Komunitas ilmiah memiliki pengaruh yang cukup besar. Dengan secara kolektif (collective influence) bersikeras pada standar yang menjunjung tinggi reproduktifitas, transparansi, dan akses kolaboratif, para peneliti dapat melawan klaim yang menyesatkan dan membantu membentuk ekosistem AI yang kondusif untuk penemuan ilmiah yang ketat.

Kebijakan, Pendanaan, dan Jalan ke Depan

Pemerintah dan lembaga pendanaan publik (public funding agencies) juga memegang kekuasaan signifikan dalam membentuk lanskap AI. Kebijakan mereka dapat secara implisit mendukung ‘openwashing’ atau secara aktif mempromosikan keterbukaan sejati.

  • Mandat untuk Keterbukaan: Institusi seperti National Institutes of Health (NIH) AS sudah memiliki mandat yang mewajibkan lisensi terbuka (open licensing) dan berbagi data (data sharing) untuk penelitian yang mereka danai. Memperluas prinsip serupa ke model dan kumpulan data AI yang dikembangkan dengan uang publik (public money) adalah langkah logis dan perlu. Jika dana publik mendukung pengembangan AI, hasilnya harus dapat diakses dan diverifikasi oleh publik sejauh mungkin.
  • Kekuatan Pengadaan (Procurement Power): Badan pemerintah adalah konsumen utama teknologi. Dengan menetapkan persyaratan untuk AI open-source sejati (mematuhi standar seperti OSAID) dalam kontrak pengadaan publik (public procurement contracts), pemerintah dapat menciptakan insentif pasar yang signifikan bagi perusahaan untuk mengadopsi praktik yang lebih transparan. Persyaratan Italia untuk perangkat lunak open-source dalam administrasi publik menawarkan templat potensial.
  • Berinvestasi dalam Infrastruktur Terbuka: Di luar regulasi, investasi publik dalam inisiatif ‘data commons’, sumber daya komputasi (computational resources) terbuka untuk peneliti, dan platform yang didedikasikan untuk hosting dan mengevaluasi model AI yang benar-benar terbuka dapat bersifat transformatif. Ini dapat membantu menyamakan kedudukan (level the playing field) dan menyediakan alternatif yang layak untuk sistem kepemilikan atau semi-terbuka.
  • Kolaborasi Global: Mengingat sifat global pengembangan AI, kerja sama internasional dalam mendefinisikan dan mempromosikan standar AI open-source sangat penting untuk menghindari fragmentasi peraturan (regulatory fragmentation) dan memastikan dasar transparansi dan akuntabilitas yang konsisten di seluruh dunia.

Pengungkit kebijakan (policy levers), ketika diterapkan dengan bijaksana, dapat secara signifikan menggeser insentif dari pelabelan yang menipu menuju praktik yang benar-benar mendukung integritas ilmiah dan inovasi luas. Perjuangan melawan ilusi ‘open source’ di AI membutuhkan upaya bersama. Peneliti harus menjadi kritikus yang waspada, menuntut transparansi yang diperlukan untuk ketelitian ilmiah. Badan penetapan standar seperti OSI harus terus menyempurnakan definisi yang mencerminkan sifat unik AI. Dan pembuat kebijakan harus menggunakan pengaruh mereka untuk memberi insentif dan mengamanatkan praktik yang selaras dengan kepentingan publik (public interest) dalam kecerdasan buatan yang dapat diverifikasi, dapat dipercaya, dan dapat diakses. Lintasan masa depan AI dalam sains—apakah itu menjadi perbatasan yang benar-benar terbuka untuk penemuan atau lanskap yang didominasi oleh sistem korporat yang buram—bergantung pada keseimbangan.