Kebangkitan Llama Nemotron: Penaakulan Dipertingkat untuk AI Lebih Pintar
Teras kepada strategi Nvidia ialah pelancaran keluarga model AI Llama Nemotron. Model-model ini mempunyai keupayaan penaakulan yang dipertingkatkan dengan ketara, menandakan satu langkah ke hadapan dalam usaha untuk AI yang lebih canggih. Dibina berdasarkan model Llama sumber terbuka Meta Platforms Inc., siri Nemotron direka untuk menyediakan pembangun asas yang kukuh untuk mencipta agen AI termaju. Agen-agen ini dibayangkan untuk melaksanakan tugas dengan pengawasan manusia yang minimum, mewakili kemajuan ketara dalam autonomi AI.
Nvidia mencapai penambahbaikan ini melalui peningkatan pasca latihan yang teliti. Anggaplah ia seperti mengambil pelajar yang sudah mahir dan memberi mereka tunjuk ajar khusus. ‘Tunjuk ajar’ ini memfokuskan pada peningkatan keupayaan model dalam matematik berbilang langkah, pengekodan, membuat keputusan yang kompleks, dan penaakulan keseluruhan. Hasilnya, menurut Nvidia, ialah peningkatan 20% dalam ketepatan berbanding model Llama asal. Tetapi peningkatan itu tidak berhenti pada ketepatan. Kelajuan inferens – pada asasnya, seberapa cepat model boleh memproses maklumat dan memberikan jawapan – telah menyaksikan peningkatan lima kali ganda. Ini diterjemahkan kepada pengendalian tugas yang lebih kompleks dengan kos operasi yang dikurangkan, faktor penting untuk penggunaan dunia sebenar.
Model Llama Nemotron ditawarkan dalam tiga saiz berbeza melalui platform perkhidmatan mikro NIM Nvidia:
- Nano: Disesuaikan untuk digunakan pada peranti dengan kuasa pemprosesan terhad, seperti komputer peribadi dan peranti edge. Ini membuka kemungkinan untuk agen AI beroperasi dalam persekitaran yang terhad sumber.
- Super: Dioptimumkan untuk pelaksanaan pada satu unit pemprosesan grafik (GPU). Ini memberikan keseimbangan antara prestasi dan keperluan sumber.
- Ultra: Direka untuk prestasi maksimum, memerlukan berbilang pelayan GPU. Ini memenuhi aplikasi yang menuntut tahap keupayaan AI tertinggi.
Proses penapisan itu sendiri memanfaatkan platform Nvidia DGX Cloud, menggunakan data sintetik berkualiti tinggi daripada Nvidia Nemotron, bersama-sama dengan set data pilihan Nvidia sendiri. Dalam satu langkah yang menggalakkan ketelusan dan kerjasama, Nvidia sedang menyediakan set data ini, alatan yang digunakan, dan butiran teknik pengoptimumannya secara terbuka. Pendekatan terbuka ini menggalakkan komuniti AI yang lebih luas untuk membina di atas kerja Nvidia dan membangunkan model penaakulan asas mereka sendiri.
Kesan Llama Nemotron sudah terbukti dalam perkongsian yang telah dijalin oleh Nvidia. Pemain utama seperti Microsoft Corp. menyepadukan model ini ke dalam perkhidmatan berasaskan awan mereka.
- Microsoft menjadikannya tersedia pada perkhidmatan Azure AI Foundry.
- Ia juga akan ditawarkan sebagai pilihan untuk pelanggan yang mencipta agen baharu menggunakan Perkhidmatan Agen Azure AI untuk Microsoft 365.
- SAP SE sedang memanfaatkan Llama Nemotron untuk meningkatkan pembantu AI-nya, Joule, dan portfolio penyelesaian AI Perniagaan SAP yang lebih luas.
- Syarikat terkemuka lain, termasuk Accenture Plc, Atlassian Corp., Box Inc., dan ServiceNow Inc., juga bekerjasama dengan Nvidia untuk menyediakan pelanggan mereka akses kepada model ini.
Melangkaui Model: Ekosistem Komprehensif untuk AI Agentik
Nvidia memahami bahawa membina agen AI memerlukan lebih daripada sekadar model bahasa yang berkuasa. Ekosistem yang lengkap diperlukan, merangkumi infrastruktur, alatan, saluran paip data dan banyak lagi. Syarikat itu menangani keperluan ini dengan set blok binaan AI agentik tambahan, yang turut diumumkan di GTC 2025.
Rangka Tindakan Nvidia AI-Q: Menghubungkan Pengetahuan kepada Tindakan
Rangka kerja ini direka untuk memudahkan sambungan antara pangkalan pengetahuan dan agen AI, membolehkan mereka bertindak secara autonomi. Dibina menggunakan perkhidmatan mikro Nvidia NIM dan disepadukan dengan Nvidia NeMo Retriever, rangka tindakan itu memudahkan proses mendapatkan semula data multimodal – maklumat dalam pelbagai format seperti teks, imej dan audio – untuk agen AI.
Platform Data AI Nvidia: Mengoptimumkan Aliran Data untuk Penaakulan
Reka bentuk rujukan yang boleh disesuaikan ini sedang disediakan kepada penyedia storan utama. Matlamatnya adalah untuk membantu syarikat seperti Dell Technologies Inc., Hewlett Packard Enterprise Co., Hitachi Vantara, IBM Corp., NetApp Inc.. Nutanix Inc., Vast Data Inc. dan Pure Storage Inc. dalam membangunkan platform data yang lebih cekap khusus untuk beban kerja inferens AI agentik. Dengan menggabungkan sumber storan yang dioptimumkan dengan perkakasan pengkomputeran dipercepatkan Nvidia, pembangun boleh menjangkakan peningkatan prestasi yang ketara dalam penaakulan AI. Ini dicapai dengan memastikan aliran maklumat yang lancar dan pantas dari pangkalan data ke model AI.
Perkhidmatan Mikro Nvidia NIM Dipertingkat: Pembelajaran dan Kebolehsuaian Berterusan
Perkhidmatan mikro NIM Nvidia telah dikemas kini untuk mengoptimumkan inferens AI agentik, menyokong pembelajaran dan kebolehsuaian berterusan. Perkhidmatan mikro ini membolehkan pelanggan menggunakan model AI agentik terkini dan paling berkuasa dengan pasti, termasuk Llama Nemotron Nvidia dan alternatif daripada syarikat seperti Meta, Microsoft dan Mistral AI.
Perkhidmatan Mikro Nvidia NeMo: Membina Roda Tenaga Data yang Teguh
Nvidia juga meningkatkan perkhidmatan mikro NeMo, yang menyediakan rangka kerja untuk pembangun mencipta roda tenaga data yang teguh dan cekap. Ini penting untuk memastikan agen AI boleh terus belajar dan bertambah baik berdasarkan maklum balas yang dijana oleh manusia dan AI.
Perkongsian Strategik: Memacu Inovasi Merentasi Landskap AI
Komitmen Nvidia terhadap AI agentik meluas kepada kerjasamanya dengan pemimpin industri lain.
Memperluas Perkongsian Oracle: AI Agentik pada Oracle Cloud Infrastructure
Nvidia sedang meluaskan kerjasamanya dengan Oracle Corp. untuk membawa keupayaan AI agentik ke Oracle Cloud Infrastructure (OCI). Perkongsian ini melibatkan penyepaduan GPU dipercepatkan dan perisian inferens Nvidia ke dalam infrastruktur awan Oracle, menjadikannya serasi dengan perkhidmatan AI generatif Oracle. Ini akan mempercepatkan pembangunan agen AI pada OCI. Nvidia kini menawarkan lebih 160 alatan AI dan perkhidmatan mikro NIM secara asli melalui konsol OCI. Kedua-dua syarikat itu juga sedang berusaha untuk mempercepatkan carian vektor pada platform Oracle Database 23ai.
Memperdalam Kerjasama dengan Google: Meningkatkan Akses dan Integriti AI
Nvidia juga menyediakan kemas kini mengenai kerjasama yang diperluaskan dengan Google LLC, mendedahkan beberapa inisiatif yang bertujuan untuk meningkatkan akses kepada AI dan alat asasnya.
Sorotan utama ialah Nvidia menjadi organisasi pertama yang memanfaatkan SynthID Google DeepMind. Teknologi ini secara langsung membenamkan tera air digital ke dalam kandungan yang dijana AI, termasuk imej, video dan teks. Ini membantu mengekalkan integriti output AI dan memerangi maklumat yang salah. SynthID pada mulanya disepadukan dengan model asas Cosmos World Nvidia.
Selain itu, Nvidia telah bekerjasama dengan penyelidik DeepMind Google untuk mengoptimumkan Gemma, keluarga model AI sumber terbuka dan ringan, untuk GPU Nvidia. Kedua-dua syarikat itu juga bekerjasama dalam inisiatif untuk membina robot berkuasa AI dengan kemahiran menggenggam, antara projek lain.
Kerjasama antara penyelidik dan jurutera Google dan Nvidia menangani pelbagai cabaran. Daripada penemuan ubat kepada robotik, menyerlahkan potensi transformatif.