Meta Platforms, gergasi teknologi di sebalik Facebook, Instagram, dan WhatsApp, telah memajukan kedudukannya secara signifikan dalam arena kecerdasan buatan dengan pengenalan siri Llama 4 miliknya. Pelancaran ini menandakan lelaran seterusnya bagi keluarga model terbuka Llama syarikat yang berpengaruh, memberi isyarat komitmen berterusan untuk bersaing di barisan hadapan pembangunan AI dan berpotensi membentuk semula dinamik persaingan dalam industri. Keluaran ini memperkenalkan trio model yang berbeza, masing-masing direka dengan keupayaan khusus dan seni bina pengkomputeran, bertujuan untuk memenuhi pelbagai aplikasi daripada fungsi sembang umum kepada tugas pemprosesan data yang kompleks.
Memperkenalkan Keluarga Llama 4: Scout, Maverick, dan Behemoth
Pelancaran awal generasi Llama 4 merangkumi tiga model yang dinamakan secara khusus: Llama 4 Scout, Llama 4 Maverick, dan Llama 4 Behemoth yang masih dalam pembangunan. Meta telah menunjukkan bahawa asas untuk model-model ini terletak pada set data latihan yang luas yang terdiri daripada kuantiti besar teks, imejan, dan kandungan video yang tidak berlabel. Pendekatan latihan pelbagai mod ini bertujuan untuk menerapkan model dengan ‘pemahaman visual yang luas’ dan canggih, memperluaskan keupayaan mereka melangkaui interaksi berasaskan teks semata-mata.
Trajektori pembangunan Llama 4 nampaknya dipengaruhi oleh tekanan persaingan dalam sektor AI yang berkembang pesat. Laporan mencadangkan bahawa kemunculan dan kecekapan ketara model terbuka dari makmal AI antarabangsa, terutamanya memetik makmal China DeepSeek, mendorong Meta untuk mempercepatkan usaha pembangunannya sendiri. Difahamkan bahawa Meta mendedikasikan sumber yang signifikan, berpotensi menubuhkan pasukan khusus atau ‘bilik perang’, untuk menganalisis dan memahami metodologi yang digunakan oleh pesaing seperti DeepSeek, khususnya memberi tumpuan kepada teknik yang berjaya mengurangkan kos pengkomputeran yang berkaitan dengan menjalankan dan menggunakan model AI lanjutan. Arus bawah persaingan ini menonjolkan perlumbaan sengit di kalangan pemain teknologi utama dan institusi penyelidikan untuk mencapai kejayaan dalam prestasi AI dan kecekapan operasi.
Kebolehcapaian berbeza-beza merentasi barisan Llama 4 baharu. Scout dan Maverick disediakan secara terbuka kepada komuniti pembangun dan orang ramai melalui saluran yang mantap, termasuk portal Llama.com Meta sendiri dan platform rakan kongsi seperti hab pembangunan AI yang digunakan secara meluas, Hugging Face. Ketersediaan terbuka ini menggariskan strategi Meta untuk memupuk ekosistem yang lebih luas di sekitar model Llama miliknya. Walau bagaimanapun, Behemoth, yang diletakkan sebagai model paling berkuasa dalam siri semasa, masih dalam pembangunan dan belum dikeluarkan untuk kegunaan umum. Pada masa yang sama, Meta sedang mengintegrasikan keupayaan baharu ini ke dalam produk yang menghadap pengguna. Syarikat itu mengumumkan bahawa pembantu AI proprietarinya, Meta AI, yang beroperasi merentasi rangkaian aplikasinya seperti WhatsApp, Messenger, dan Instagram, telah dinaik taraf untuk memanfaatkan kuasa Llama 4. Integrasi ini sedang dilancarkan di empat puluh negara, walaupun ciri multimodal lanjutan (menggabungkan teks, imej, dan berpotensi jenis data lain) pada mulanya terhad kepada pengguna berbahasa Inggeris di Amerika Syarikat.
Mengemudi Landskap Pelesenan
Walaupun penekanan pada keterbukaan untuk sesetengah model, penggunaan dan penggunaan Llama 4 dikawal oleh terma pelesenan khusus yang mungkin menimbulkan halangan bagi pembangun dan organisasi tertentu. Sekatan ketara secara eksplisit melarang pengguna dan syarikat yang berpangkalan di atau mempunyai tempat perniagaan utama mereka di dalam Kesatuan Eropah (European Union) daripada menggunakan atau mengedarkan model Llama 4. Had geografi ini kemungkinan besar merupakan akibat langsung daripada keperluan tadbir urus yang ketat yang dimandatkan oleh Akta AI (AI Act) komprehensif EU dan peraturan privasi data sedia ada seperti GDPR. Mengemudi rangka kerja kawal selia yang kompleks ini nampaknya menjadi pertimbangan penting yang membentuk strategi penggunaan Meta di rantau ini.
Tambahan pula, mengulangi struktur pelesenan lelaran Llama sebelumnya, Meta mengenakan syarat ke atas perusahaan berskala besar. Syarikat yang mempunyai pangkalan pengguna melebihi 700 juta pengguna aktif bulanan dikehendaki meminta lesen khas secara rasmi terus daripada Meta. Yang penting, keputusan untuk memberikan atau menolak lesen ini terletak sepenuhnya dalam ‘budi bicara mutlak’ Meta. Klausa ini secara berkesan memberikan Meta kawalan ke atas bagaimana model paling canggihnya dimanfaatkan oleh firma teknologi besar yang berpotensi bersaing, mengekalkan tahap pengawasan strategik walaupun sifat ‘terbuka’ sebahagian daripada ekosistem Llama. Nuansa pelesenan ini menggariskan interaksi kompleks antara mempromosikan inovasi terbuka dan mengekalkan kawalan strategik dalam domain AI yang berisiko tinggi.
Dalam komunikasi rasminya yang mengiringi pelancaran itu, Meta membingkai keluaran Llama 4 sebagai detik penting. ‘Model Llama 4 ini menandakan permulaan era baharu untuk ekosistem Llama,’ kata syarikat itu dalam catatan blog, sambil menambah, ‘Ini hanyalah permulaan untuk koleksi Llama 4.’ Kenyataan berpandangan ke hadapan ini mencadangkan peta jalan untuk pembangunan dan pengembangan berterusan dalam generasi Llama 4, meletakkan pelancaran ini bukan sebagai destinasi akhir tetapi sebagai peristiwa penting dalam perjalanan kemajuan AI yang berterusan.
Inovasi Seni Bina: Pendekatan Campuran Pakar (Mixture of Experts - MoE)
Ciri teknikal utama yang membezakan siri Llama 4 ialah penggunaan seni bina Mixture of Experts (MoE). Meta menekankan bahawa ini adalah kohort pertama dalam keluarga Llama yang menggunakan paradigma reka bentuk khusus ini. Pendekatan MoE mewakili anjakan ketara dalam cara model bahasa besar distrukturkan dan dilatih, menawarkan kelebihan ketara dari segi kecekapan pengkomputeran, baik semasa fasa latihan yang intensif sumber mahupun semasa fasa operasi apabila bertindak balas terhadap pertanyaan pengguna.
Pada terasnya, seni bina MoE berfungsi dengan menguraikan tugas pemprosesan data yang kompleks kepada subtugas yang lebih kecil dan lebih mudah diurus. Subtugas ini kemudiannya dihalakan atau diwakilkan secara bijak kepada koleksi komponen rangkaian neural yang lebih kecil dan khusus, yang dirujuk sebagai ‘pakar’. Setiap pakar biasanya dilatih untuk cemerlang dalam jenis data atau tugas tertentu. Mekanisme ‘gating’ dalam seni bina menentukan pakar atau gabungan pakar mana yang paling sesuai untuk mengendalikan bahagian tertentu data input atau pertanyaan. Ini berbeza dengan seni bina model padat tradisional di mana keseluruhan model memproses setiap bahagian input.
Peningkatan kecekapan berpunca daripada fakta bahawa hanya subset daripada jumlah parameter model (‘parameter aktif’ milik pakar terpilih) yang terlibat untuk sebarang tugas tertentu. Pengaktifan terpilih ini mengurangkan beban pengkomputeran dengan ketara berbanding dengan mengaktifkan keseluruhan model padat yang besar.
Meta memberikan butiran khusus yang menggambarkan seni bina ini dalam tindakan:
- Maverick: Model ini mempunyai jumlah kiraan parameter yang besar sebanyak 400 bilion. Walau bagaimanapun, terima kasih kepada reka bentuk MoE yang menggabungkan 128 ‘pakar’ yang berbeza, hanya 17 bilion parameter yang terlibat secara aktif pada bila-bila masa semasa pemprosesan. Parameter sering dianggap sebagai proksi kasar untuk kapasiti model untuk pembelajaran dan kerumitan penyelesaian masalah.
- Scout: Distrukturkan serupa, Scout menampilkan 109 bilion jumlah parameter yang diedarkan merentasi 16 ‘pakar’, menghasilkan 17 bilion parameter aktif yang sama seperti Maverick.
Pilihan seni bina ini membolehkan Meta membina model dengan kapasiti keseluruhan yang luas (jumlah kiraan parameter yang tinggi) sambil mengekalkan permintaan pengkomputeran yang boleh diurus untuk inferens (pemprosesan pertanyaan), menjadikannya berpotensi lebih praktikal untuk digunakan dan dikendalikan pada skala.
Penanda Aras Prestasi dan Pengkhususan Model
Meta telah meletakkan model baharunya secara kompetitif, mengeluarkan hasil penanda aras dalaman yang membandingkan Llama 4 dengan model terkemuka daripada pesaing seperti OpenAI, Google, dan Anthropic.
Maverick, yang ditetapkan oleh Meta sebagai optimum untuk aplikasi ‘pembantu umum dan sembang’, termasuk tugas seperti penulisan kreatif dan penjanaan kod, dilaporkan menunjukkan prestasi unggul berbanding model seperti GPT-4o OpenAI dan Gemini 2.0 Google pada penanda aras tertentu. Penanda aras ini meliputi bidang seperti kecekapan pengekodan, penaakulan logik, keupayaan pelbagai bahasa, pengendalian jujukan teks yang panjang (konteks panjang), dan pemahaman imej. Walau bagaimanapun, data Meta sendiri menunjukkan bahawa Maverick tidak secara konsisten mengatasi keupayaan model terkini dan paling berkuasa yang tersedia pada masa ini, seperti Gemini 2.5 Pro Google, Claude 3.7 Sonnet Anthropic, atau GPT-4.5 OpenAI yang dijangkakan. Ini menunjukkan Maverick menyasarkan kedudukan yang kukuh dalam peringkat prestasi tinggi tetapi mungkin tidak menuntut tempat teratas mutlak merentasi semua metrik berbanding model perdana terbaharu daripada pesaing.
Scout, sebaliknya, disesuaikan untuk kekuatan yang berbeza. Keupayaannya diserlahkan dalam tugas yang melibatkan peringkasan dokumen yang luas dan penaakulan ke atas pangkalan kod yang besar dan kompleks. Ciri yang sangat unik dan menentukan Scout ialah tingkap konteks (context window) yang sangat besar, mampu mengendalikan sehingga 10 juta token. Token ialah unit asas teks atau kod yang diproses oleh model bahasa (cth., satu perkataan mungkin dipecahkan kepada beberapa token seperti ‘pe-ma-ham-an’). Tingkap konteks 10 juta token diterjemahkan, dalam istilah praktikal, kepada keupayaan untuk menyerap dan memproses sejumlah besar maklumat secara serentak – berpotensi setara dengan berjuta-juta perkataan atau keseluruhan perpustakaan kod. Ini membolehkan Scout mengekalkan koheren dan pemahaman merentasi dokumen yang sangat panjang atau projek pengaturcaraan yang kompleks, satu pencapaian yang mencabar bagi model dengan tingkap konteks yang lebih kecil. Ia juga boleh memproses imej bersama input teks yang luas ini.
Keperluan perkakasan untuk menjalankan model ini mencerminkan skala dan seni binanya. Menurut anggaran Meta:
- Scout agak cekap, mampu berjalan pada satu GPU Nvidia H100 mewah.
- Maverick, dengan jumlah kiraan parameternya yang lebih besar walaupun kecekapan MoE, menuntut sumber yang lebih besar, memerlukan sistem Nvidia H100 DGX (yang biasanya mengandungi berbilang GPU H100) atau kuasa pengkomputeran yang setara.
Model Behemoth yang akan datang dijangka memerlukan infrastruktur perkakasan yang lebih hebat. Meta mendedahkan bahawa Behemoth direka dengan 288 bilion parameter aktif (daripada hampir dua trilion jumlah parameter, tersebar di 16 pakar). Penanda aras dalaman awal meletakkan Behemoth sebagai mengatasi model seperti GPT-4.5, Claude 3.7 Sonnet, dan Gemini 2.0 Pro (walaupun perlu diperhatikan, bukan Gemini 2.5 Pro yang lebih maju) pada beberapa penilaian yang tertumpu pada kemahiran STEM (Sains, Teknologi, Kejuruteraan, dan Matematik), terutamanya dalam bidang seperti penyelesaian masalah matematik yang kompleks.
Walau bagaimanapun, perlu diingat bahawa tiada satu pun daripada model Llama 4 yang diumumkan pada masa ini direka bentuk secara eksplisit sebagai model ‘penaakulan’ mengikut konsep pembangunan o1 dan o3-mini OpenAI. Model penaakulan khusus ini biasanya menggabungkan mekanisme untuk penyemakan fakta dalaman dan penghalusan lelaran jawapan mereka, yang membawa kepada respons yang berpotensi lebih dipercayai dan tepat, terutamanya untuk pertanyaan fakta. Pertukaran selalunya adalah kependaman yang meningkat, bermakna ia mengambil masa lebih lama untuk menjana respons berbanding model bahasa besar yang lebih tradisional seperti yang terdapat dalam keluarga Llama 4, yang mengutamakan penjanaan yang lebih pantas.
Menyelaraskan Sempadan Perbualan: Topik Kontroversi
Aspek menarik pelancaran Llama 4 melibatkan penalaan sengaja Meta terhadap tingkah laku respons model, terutamanya mengenai subjek sensitif atau kontroversi. Syarikat itu secara eksplisit menyatakan bahawa ia telah melaraskan model Llama 4 untuk menjadi kurang berkemungkinan menolak untuk menjawab soalan ‘kontroversi’ berbanding pendahulunya dalam keluarga Llama 3.
Menurut Meta, Llama 4 kini lebih cenderung untuk terlibat dengan topik politik dan sosial yang ‘diperdebatkan’ di mana versi sebelumnya mungkin menolak atau memberikan penolakan generik. Tambahan pula, syarikat itu mendakwa bahawa Llama 4 menunjukkan pendekatan yang ‘secara dramatik lebih seimbang’ mengenai jenis gesaan yang akan ditolaknya sama sekali. Matlamat yang dinyatakan adalah untuk memberikan respons yang membantu dan fakta tanpa mengenakan penghakiman.
Seorang jurucakap Meta menghuraikan peralihan ini, menyatakan kepada TechCrunch: ‘[A]nda boleh bergantung pada [Llama 4] untuk memberikan respons yang membantu dan fakta tanpa penghakiman… [K]ami terus menjadikan Llama lebih responsif supaya ia menjawab lebih banyak soalan, boleh bertindak balas terhadap pelbagai pandangan yang berbeza […] dan tidak memihak kepada sesetengah pandangan berbanding yang lain.’
Pelarasan ini berlaku di tengah-tengah perdebatan awam dan politik yang berterusan mengenai tanggapan berat sebelah dalam sistem kecerdasan buatan. Sesetengah puak politik dan pengulas, termasuk tokoh terkemuka yang dikaitkan dengan pentadbiran Trump seperti Elon Musk dan pemodal teroka David Sacks, telah menyuarakan tuduhan bahawa chatbot AI popular menunjukkan kecenderungan politik, sering digambarkan sebagai ‘woke’, didakwa menapis pandangan konservatif atau membentangkan maklumat yang condong ke arah perspektif liberal. Sacks, misalnya, secara khusus mengkritik ChatGPT OpenAI pada masa lalu, mendakwa ia ‘diprogramkan untuk menjadi woke’ dan tidak boleh dipercayai dalam hal politik.
Walau bagaimanapun, cabaran untuk mencapai neutraliti sebenar dan menghapuskan berat sebelah dalam AI diakui secara meluas dalam komuniti teknikal sebagai masalah yang sangat kompleks dan berterusan (‘intractable’). Model AI mempelajari corak dan perkaitan daripada set data luas yang dilatih, dan set data ini tidak dapat tidak mencerminkan bias yang terdapat dalam teks dan imej janaan manusia yang terkandung di dalamnya. Usaha untuk mencipta AI yang tidak berat sebelah atau neutral dari segi politik, walaupun oleh syarikat yang secara eksplisit menyasarkannya, telah terbukti sukar. Usaha niaga AI Elon Musk sendiri, xAI, dilaporkan menghadapi cabaran dalam membangunkan chatbot yang mengelak daripada menyokong pendirian politik tertentu berbanding yang lain.
Walaupun terdapat kesukaran teknikal yang wujud, trend di kalangan pembangun AI utama, termasuk Meta dan OpenAI, nampaknya bergerak ke arah melaraskan model agar kurang mengelak topik kontroversi. Ini melibatkan penentukuran penapis keselamatan dan garis panduan respons dengan teliti untuk membolehkan penglibatan dengan rangkaian soalan yang lebih luas daripada yang dibenarkan sebelum ini, sambil masih cuba mengurangkan penjanaan kandungan berbahaya atau berat sebelah secara terang-terangan. Penalaan halus ini mencerminkan tindakan pengimbangan halus yang mesti dilakukan oleh syarikat AI antara mempromosikan wacana terbuka, memastikan keselamatan pengguna, dan mengemudi jangkaan sosio-politik yang kompleks yang mengelilingi teknologi berkuasa mereka. Keluaran Llama 4, dengan pelarasan yang dinyatakan secara eksplisit dalam mengendalikan pertanyaan kontroversi, mewakili langkah terkini Meta dalam mengemudi landskap yang rumit ini.