Lompatan Nvidia: AI Agen Canggih

Kebangkitan Llama Nemotron: Penalaran yang Ditingkatkan untuk AI yang Lebih Cerdas

Inti dari strategi Nvidia adalah pengungkapan keluarga model AI Llama Nemotron. Model-model ini menawarkan kemampuan penalaran yang ditingkatkan secara signifikan, menandai langkah maju dalam pencarian AI yang lebih canggih. Dibangun di atas model Llama open-source Meta Platforms Inc., seri Nemotron direkayasa untuk memberikan pengembang dasar yang kuat untuk menciptakan agen AI tingkat lanjut. Agen-agen ini dibayangkan untuk melakukan tugas dengan pengawasan manusia yang minimal, mewakili kemajuan signifikan dalam otonomi AI.

Nvidia mencapai peningkatan ini melalui peningkatan pasca-pelatihan yang cermat. Anggap saja seperti mengambil siswa yang sudah terampil dan memberi mereka bimbingan belajar khusus. ‘Bimbingan belajar’ ini berfokus pada peningkatan kemampuan model dalam matematika multi-langkah, pengkodean, pengambilan keputusan yang kompleks, dan penalaran secara keseluruhan. Hasilnya, menurut Nvidia, adalah peningkatan akurasi 20% dibandingkan dengan model Llama asli. Tetapi peningkatannya tidak berhenti pada akurasi. Kecepatan inferensi – pada dasarnya, seberapa cepat model dapat memproses informasi dan memberikan jawaban – telah mengalami peningkatan lima kali lipat. Ini berarti menangani tugas yang lebih kompleks dengan biaya operasional yang lebih rendah, faktor penting untuk penerapan di dunia nyata.

Model Llama Nemotron ditawarkan dalam tiga ukuran berbeda melalui platform microservice NIM Nvidia:

  • Nano: Disesuaikan untuk penerapan pada perangkat dengan daya pemrosesan terbatas, seperti komputer pribadi dan perangkat edge. Ini membuka kemungkinan bagi agen AI untuk beroperasi di lingkungan dengan sumber daya terbatas.
  • Super: Dioptimalkan untuk eksekusi pada satu unit pemrosesan grafis (GPU). Ini memberikan keseimbangan antara kinerja dan kebutuhan sumber daya.
  • Ultra: Dirancang untuk kinerja maksimum, membutuhkan beberapa server GPU. Ini melayani aplikasi yang menuntut tingkat kemampuan AI tertinggi.

Proses penyempurnaan itu sendiri memanfaatkan platform Nvidia DGX Cloud, menggunakan data sintetis berkualitas tinggi dari Nvidia Nemotron, bersama dengan kumpulan data yang dikuratori sendiri oleh Nvidia. Dalam sebuah langkah yang mempromosikan transparansi dan kolaborasi, Nvidia membuat kumpulan data ini, alat yang digunakan, dan detail teknik optimasinya tersedia untuk umum. Pendekatan terbuka ini mendorong komunitas AI yang lebih luas untuk membangun di atas karya Nvidia dan mengembangkan model penalaran dasar mereka sendiri.

Dampak Llama Nemotron sudah terbukti dalam kemitraan yang telah dijalin Nvidia. Pemain utama seperti Microsoft Corp. mengintegrasikan model-model ini ke dalam layanan berbasis cloud mereka.

  • Microsoft menyediakannya di layanan Azure AI Foundry.
  • Mereka juga akan ditawarkan sebagai opsi bagi pelanggan yang membuat agen baru menggunakan Azure AI Agent Service untuk Microsoft 365.
  • SAP SE memanfaatkan Llama Nemotron untuk meningkatkan asisten AI-nya, Joule, dan portofolio solusi SAP Business AI yang lebih luas.
  • Perusahaan terkemuka lainnya, termasuk Accenture Plc, Atlassian Corp., Box Inc., dan ServiceNow Inc., juga berkolaborasi dengan Nvidia untuk memberi pelanggan mereka akses ke model-model ini.

Di Luar Model: Ekosistem Komprehensif untuk AI Agentik

Nvidia memahami bahwa membangun agen AI membutuhkan lebih dari sekadar model bahasa yang kuat. Ekosistem yang lengkap diperlukan, yang mencakup infrastruktur, alat, saluran data, dan banyak lagi. Perusahaan ini mengatasi kebutuhan ini dengan serangkaian blok bangunan AI agentik tambahan, yang juga diumumkan di GTC 2025.

Cetak Biru Nvidia AI-Q: Menghubungkan Pengetahuan dengan Tindakan

Kerangka kerja ini dirancang untuk memfasilitasi koneksi antara basis pengetahuan dan agen AI, memungkinkan mereka untuk bertindak secara mandiri. Dibangun menggunakan microservice Nvidia NIM dan terintegrasi dengan Nvidia NeMo Retriever, cetak biru ini menyederhanakan proses pengambilan data multimodal – informasi dalam berbagai format seperti teks, gambar, dan audio – untuk agen AI.

Platform Data AI Nvidia: Mengoptimalkan Aliran Data untuk Penalaran

Desain referensi yang dapat disesuaikan ini disediakan untuk penyedia penyimpanan utama. Tujuannya adalah untuk membantu perusahaan seperti Dell Technologies Inc., Hewlett Packard Enterprise Co., Hitachi Vantara, IBM Corp., NetApp Inc.. Nutanix Inc., Vast Data Inc. dan Pure Storage Inc. dalam mengembangkan platform data yang lebih efisien khusus untuk beban kerja inferensi AI agentik. Dengan menggabungkan sumber daya penyimpanan yang dioptimalkan dengan perangkat keras komputasi terakselerasi Nvidia, pengembang dapat mengharapkan peningkatan kinerja yang signifikan dalam penalaran AI. Ini dicapai dengan memastikan aliran informasi yang lancar dan cepat dari basis data ke model AI.

Microservice Nvidia NIM yang Ditingkatkan: Pembelajaran dan Adaptasi Berkelanjutan

Microservice NIM Nvidia telah diperbarui untuk mengoptimalkan inferensi AI agentik, mendukung pembelajaran dan adaptasi berkelanjutan. Microservice ini memungkinkan pelanggan untuk menerapkan model AI agentik terbaru dan terkuat secara andal, termasuk Llama Nemotron Nvidia dan alternatif dari perusahaan seperti Meta, Microsoft, dan Mistral AI.

Microservice Nvidia NeMo: Membangun Data Flywheel yang Kuat

Nvidia juga meningkatkan microservice NeMo-nya, yang menyediakan kerangka kerja bagi pengembang untuk membuat data flywheel yang kuat dan efisien. Ini sangat penting untuk memastikan bahwa agen AI dapat terus belajar dan meningkatkan berdasarkan umpan balik yang dihasilkan manusia dan AI.

Kemitraan Strategis: Mendorong Inovasi di Seluruh Lanskap AI

Komitmen Nvidia terhadap AI agentik meluas ke kolaborasinya dengan para pemimpin industri lainnya.

Memperluas Kemitraan Oracle: AI Agentik di Oracle Cloud Infrastructure

Nvidia memperluas kolaborasinya dengan Oracle Corp. untuk menghadirkan kemampuan AI agentik ke Oracle Cloud Infrastructure (OCI). Kemitraan ini melibatkan integrasi GPU terakselerasi dan perangkat lunak inferensi Nvidia ke dalam infrastruktur cloud Oracle, membuatnya kompatibel dengan layanan AI generatif Oracle. Ini akan mempercepat pengembangan agen AI di OCI. Nvidia sekarang menawarkan lebih dari 160 alat AI dan microservice NIM secara native melalui konsol OCI. Kedua perusahaan juga berupaya mempercepat pencarian vektor pada platform Oracle Database 23ai.

Memperdalam Kolaborasi dengan Google: Meningkatkan Akses dan Integritas AI

Nvidia juga memberikan pembaruan tentang kolaborasi yang diperluas dengan Google LLC, mengungkapkan beberapa inisiatif yang bertujuan untuk meningkatkan akses ke AI dan alat-alat yang mendasarinya.

Sorotan utama adalah Nvidia menjadi organisasi pertama yang memanfaatkan SynthID Google DeepMind. Teknologi ini secara langsung menyematkan watermark digital ke dalam konten yang dihasilkan AI, termasuk gambar, video, dan teks. Ini membantu menjaga integritas output AI dan memerangi misinformasi. SynthID awalnya diintegrasikan dengan model dasar Cosmos World Nvidia.

Selain itu, Nvidia telah berkolaborasi dengan peneliti DeepMind Google untuk mengoptimalkan Gemma, keluarga model AI open-source dan ringan, untuk GPU Nvidia. Kedua perusahaan juga berkolaborasi dalam sebuah inisiatif untuk membangun robot bertenaga AI dengan keterampilan menggenggam, di antara proyek-proyek lainnya.

Kolaborasi antara peneliti dan insinyur Google dan Nvidia menangani berbagai tantangan. Dari penemuan obat hingga robotika, menyoroti potensi transformatif.