Meta Llama 4 di OCI Generative AI: Pelancaran Hebat

Perkhidmatan Oracle Cloud Infrastructure (OCI) Generative AI menyambut ahli baharu yang menarik: siri model Meta Llama 4, termasuk Scout dan Maverick. Model-model ini menggabungkan seni bina campuran pakar (MoE) yang unik, dengan ketara meningkatkan pemprosesan dan kecekapan. Ia dioptimumkan secara khusus untuk menunjukkan prestasi cemerlang dalam pelbagai bidang seperti pemahaman multimodal, tugas berbilang bahasa, penjanaan kod dan panggilan alat serta berupaya memacu sistem ejen termaju.

Pada masa ini, model ini tersedia dalam versi keluaran am (GA) di rantau berikut:

  • Atas permintaan: ORD (Chicago)
  • Kelompok AI khusus: ORD (Chicago), GRU (Guarulhos), LHR (London), KIK (Kikuyu)

Sorotan Utama Siri Llama 4

Keupayaan Multimodal: Memecahkan Sempadan Jenis Data

Llama 4 Scout dan Maverick bukan sekadar model bahasa; model-model ini adalah penguasa multimodal yang sebenar. Model-model ini berupaya memproses dan menyepadukan secara natif pelbagai jenis data, termasuk teks dan imej, sekali gus membolehkan aplikasi AI yang lebih kaya dan lebih komprehensif. Anda boleh membayangkan sistem AI yang mampu memahami perihalan teks dan imej yang berkaitan secara serentak, sekali gus memahami konteks dengan lebih baik dan membuat keputusan yang lebih termaklum. Keupayaan multimodal ini membuka kemungkinan baharu untuk tugas seperti penjanaan sari kata imej, penyoalan visual dan banyak lagi.

Sokongan Berbilang Bahasa: Komunikasi Tanpa Sempadan

Satu lagi sorotan utama siri Llama 4 ialah sokongan berbilang bahasa yang mantap. Model ini dilatih pada set data yang mengandungi 200 bahasa dan diperhalusi untuk 12 bahasa utama (Arab, Inggeris, Perancis, Jerman, Hindi, Indonesia, Itali, Portugis, Sepanyol, Tagalog, Thai dan Vietnam). Ini bermakna model ini berupaya memahami dan menjana teks dalam pelbagai bahasa, sekali gus membuka pintu kepada aplikasi di seluruh dunia. Perlu dinyatakan bahawa fungsi pemahaman imej pada masa ini hanya menyokong bahasa Inggeris.

Pembangunan Cekap: Ruang GPU yang Lebih Kecil

Bagi pembangun, Llama 4 Scout direka bentuk pada mulanya untuk mencapai kebolehcapaian yang lebih tinggi. Ia boleh berjalan dengan cekap pada ruang GPU yang lebih kecil, menjadikannya pilihan ideal untuk persekitaran dengan sumber terhad. Ini bermakna walaupun tanpa peralatan perkakasan yang berkuasa, pembangun boleh memanfaatkan kefungsian berkuasa Llama 4 Scout untuk mempercepatkan pembangunan dan penggunaan aplikasi AI.

Model Sumber Terbuka: Memperkasakan Komuniti

Meta telah memilih pendirian terbuka, mengeluarkan kedua-dua model di bawah Lesen Komuniti Llama 4. Ini bermakna pembangun bebas untuk memperhalusi dan menggunakan model tersebut, tertakluk kepada syarat lesen tertentu. Model terbuka ini menggalakkan inovasi dan kerjasama dalam komuniti AI, membolehkan lebih ramai orang mengambil bahagian dalam pembangunan dan penggunaan teknologi AI.

Tarikh Akhir Pengetahuan

Perlu diingat bahawa tarikh akhir pengetahuan untuk model Llama 4 ialah Ogos 2024. Ini bermakna model ini mungkin tidak memberikan maklumat terkini tentang peristiwa atau maklumat yang berlaku selepas tarikh ini.

Peringatan Penting: Dasar Penggunaan Boleh Diterima Llama mengehadkan penggunaannya di dalam Kesatuan Eropah (EU).

Llama 4 Scout: Juara Ringan

Seni Bina: Reka Bentuk Parameter yang Bijak

Llama 4 Scout menggunakan reka bentuk seni bina yang bijak. Ia hanya mengaktifkan 17 bilion parameter daripada kira-kira 109 bilion parameter secara keseluruhan. Reka bentuk ini menggunakan campuran 16 pakar, sekali gus mencapai keseimbangan yang baik antara prestasi dan kecekapan. Dengan hanya mengaktifkan sebahagian parameter, Scout dapat mengurangkan keperluan pengiraan dengan ketara, membolehkannya beroperasi dalam persekitaran dengan sumber terhad.

Tetingkap Konteks: Keupayaan untuk Memproses Teks Panjang

Llama 4 Scout menyokong panjang konteks sehingga 10 juta token (memerlukan berbilang GPU). Walau bagaimanapun, Perkhidmatan OCI Generative AI akan menyokong panjang konteks 192k token pada keluaran am (GA). Malah tetingkap konteks 192k sudah memadai untuk memproses teks yang agak panjang, seperti bab buku atau laporan terperinci.

Penggunaan: Padat dan Berkuasa

Salah satu matlamat reka bentuk Llama 4 Scout adalah untuk beroperasi dengan cekap pada ruang GPU yang lebih kecil. Ini menjadikannya pilihan ideal untuk pelbagai senario penggunaan, termasuk peranti tepi dan persekitaran awan dengan sumber terhad.

Prestasi: Melepasi Pesaing

Llama 4 Scout menunjukkan prestasi yang sangat baik dalam pelbagai penanda aras, melepasi model seperti Gemma 3 Google dan Mistral 3.1. Ini membuktikan keupayaan cemerlang Scout dalam prestasi, menjadikannya alat yang berkuasa untuk pelbagai tugas AI.

Llama 4 Maverick: Pemain Berat

Seni Bina: Skala yang Lebih Besar, Kuasa yang Lebih Tinggi

Berbanding dengan Scout, Llama 4 Maverick menggunakan skala seni bina yang lebih besar. Ia juga mengaktifkan 17 bilion parameter, tetapi ini dicapai dalam rangka kerja yang lebih besar dengan kira-kira 400 bilion parameter secara keseluruhan dan menggunakan 128 pakar. Skala yang lebih besar ini memberi Maverick keupayaan yang lebih berkuasa, membolehkannya menunjukkan prestasi yang cemerlang dalam tugas AI yang lebih rumit.

Tetingkap Konteks: Memori Sangat Panjang

Llama 4 Maverick menyokong panjang konteks sehingga 1 juta token. Penggunaan OCI akan menyokong panjang konteks 512k token pada keluaran am (GA). Tetingkap konteks yang sangat panjang ini membolehkan Maverick untuk memproses teks yang sangat kompleks, seperti buku penuh atau koleksi berbilang dokumen.

Penggunaan: Memerlukan Ruang yang Lebih Besar

Oleh kerana skalanya yang lebih besar, Llama 4 Maverick memerlukan ruang penggunaan yang lebih besar daripada Scout. Pada GA, penggunaan Maverick pada OCI memerlukan kira-kira dua kali ruang Scout.

Prestasi: Setanding dengan Model Terkemuka

Dalam penjanaan kod dan tugas penaakulan, prestasi Llama 4 Maverick boleh dibandingkan dengan model terkemuka seperti GPT-4o OpenAI dan DeepSeek-V3. Ini membuktikan kedudukan utama Maverick dalam bidang AI.

Kesimpulannya, siri Llama 4 mewakili kemajuan ketara dalam pembangunan model AI. Model ini telah menunjukkan peningkatan yang ketara dalam prestasi, serba boleh dan kebolehcapaian, menyediakan sokongan yang kukuh untuk pelbagai senario aplikasi.

Pelanggan OCI kini boleh memanfaatkan model berkuasa ini dengan mudah tanpa perlu risau tentang kerumitan pengurusan infrastruktur. Mereka boleh mengakses model ini melalui antara muka sembang, API atau titik akhir khusus, dengan itu memudahkan pembangunan dan penggunaan aplikasi AI.

Pelancaran model Llama 4 menandakan era baharu untuk Perkhidmatan OCI Generative AI. Dengan menyediakan model termaju ini, OCI membantu pelanggan untuk memanfaatkan potensi penuh AI dan memacu inovasi merentas pelbagai industri.