Revolusi yang dibawa oleh Large Language Models (LLM) tak dapat disangkal telah mengubah lanskap kecerdasan buatan. Namun, satu tantangan tetap ada: bagaimana cara mengintegrasikan model-model ini dengan data proprietari secara efektif. Meskipun LLM mahir dalam memproses informasi yang luas dari internet, potensi sebenarnya terletak pada kemampuannya untuk berfungsi sebagai antarmuka bahasa alami untuk aplikasi dan data kita, memungkinkan kita memanfaatkan kemampuan prediktif dan generatifnya dalam lingkungan yang terkontrol.
Untuk memastikan keandalan dan relevansi output LLM, berbagai strategi telah muncul, masing-masing dirancang untuk menjembatani kesenjangan antara model-model ini dan dataset tertentu. Strategi-strategi ini berkisar dari pembuatan embedding khusus dan penggunaan teknik retrieval-augmented generation (RAG) – memanfaatkan database grafik untuk mengungkap hubungan rumit dalam data – hingga penggunaan LLM untuk menyaring dan menyajikan data yang diperoleh melalui panggilan OpenAPI yang dipicu oleh perintah pengguna. Selain itu, model plug-in yang dipopulerkan oleh ChatGPT OpenAI menawarkan jalan lain untuk integrasi data. Di antara berbagai pendekatan ini, Model Context Protocol (MCP) menonjol sebagai solusi yang menjanjikan untuk standarisasi koneksi antara LLM dan sumber data eksternal.
Membongkar Model Context Protocol
Model Context Protocol, yang diumumkan oleh Anthropic pada akhir tahun 2024, mewakili langkah signifikan menuju penyederhanaan interaksi antara LLM dan data khusus pengguna. Protokol ini menggarisbawahi peran penting konteks dalam aplikasi AI, mengakui bahwa kemampuan AI untuk menghasilkan output yang koheren dan bermakna bergantung pada ketersediaan informasi kontekstual yang relevan. Mengandalkan hanya pada perintah obrolan untuk mendapatkan respons yang masuk akal, paling banter, adalah latihan dalam optimisme dan, paling buruk, resep untuk hasil yang tidak akurat atau menyesatkan. Untuk membangun agen semi-otonom yang kuat yang mampu mengatur alur kerja di sekitar data kita, mekanisme yang dapat diandalkan untuk mengirimkan data tersebut ke agen ini sangat penting.
Sebagai inisiatif sumber terbuka, MCP menyediakan implementasi SDK untuk berbagai macam bahasa pemrograman, disertai dengan dokumentasi komprehensif di dalam repositori GitHub-nya. Dokumentasi ini memberdayakan pengembang untuk mengimplementasikan atau memanfaatkan server MCP secara efektif. Deskripsi proyek tentang MCP sebagai ‘port USB-C untuk aplikasi AI’ secara tepat menangkap esensinya, menyoroti kemampuannya untuk menstandarisasi koneksi ke berbagai sumber data. Dibangun di atas fondasi yang terstandarisasi, MCP mudah berintegrasi dengan proyek yang ada, berinteraksi secara mulus dengan berbagai LLM dan penyedia inferensi.
Arsitektur MCP mengikuti model klien/server yang mapan, di mana broker memikul tanggung jawab untuk menerjemahkan permintaan MCP menjadi permintaan lokal atau jarak jauh. Desain ini mencerminkan fungsionalitas bahasa definisi antarmuka seperti CORBA, mengubah MCP menjadi lapisan interoperabilitas serbaguna yang memfasilitasi peralihan mulus antara sumber informasi dan aplikasi LLM. Dengan memanfaatkan koneksi JSON RPC, MCP memungkinkan kontrol terperinci di tingkat pengguna individu melalui alat seperti Azure API Management.
MCP mendorong pengembangan antarmuka generik untuk kode berbasis AI, yang dibuktikan dengan meningkatnya adopsi di seluruh platform pengembangan AI Microsoft. Dari integrasinya dalam alat orkestrasi model Semantic Kernel hingga penyebarannya sebagai server MCP yang kompatibel dengan Azure OpenAI dan Azure AI Foundry, MCP dengan cepat mendapatkan daya tarik. Microsoft juga meningkatkan Azure API Management dengan fitur untuk mengontrol akses data berdasarkan kredensial pengguna, yang semakin memperkuat peran MCP dalam penerapan AI yang aman dan terkelola.
Azure MCP Server: Implementasi Awal
Azure MCP Server sumber terbuka, yang baru-baru ini dirilis dalam pratinjau publik, mencontohkan implementasi awal MCP pada platform Microsoft. Server ini berfungsi sebagai broker umum untuk akses AI ke layanan Azure utama, mengikuti prinsip sumber terbuka yang dianut oleh banyak proyek Azure baru-baru ini. Kodenya mudah diakses di GitHub. Azure MCP Server menyediakan akses ke sebagian besar platform Azure, termasuk database, solusi penyimpanan, dan layanan seperti Azure CLI.
Pencantuman dukungan untuk Azure CLI (dan Developer CLI) sangat penting, karena memberdayakan agen yang digerakkan oleh MCP untuk berinteraksi dengan Azure secara langsung, memperlakukan panggilan MCP sebagai operator. Kemampuan ini membuka jalan untuk membangun agen yang menawarkan antarmuka layanan mandiri bahasa alami ke Azure. Misalnya, seorang agen dapat mengambil deskripsi infrastruktur dan secara otomatis menghasilkan template ARM yang diperlukan untuk penyebarannya. Memperluas konsep ini lebih lanjut, orang dapat membayangkan agen multimodal yang menganalisis sketsa papan tulis, memperoleh deskripsi sumber daya yang diperlukan, dan kemudian menyebarkan infrastruktur, memungkinkan pengembangan kode segera. Layanan administrasi sistem tambahan yang dapat diakses melalui Azure MCP Server mencakup daftar grup sumber daya saat ini dan memanfaatkan KQL untuk membuat kueri log Azure Monitoring.
Mengintegrasikan Azure MCP Server dengan GitHub Copilot Chat
Karena sesuai dengan standar MCP, Azure MCP Server terintegrasi secara mulus dengan alat AI apa pun yang mendukung MCP, seperti Mode Agen GitHub Copilot. Hanya dengan menambahkan server ke penyewa Anda, Anda dapat mulai mengajukan pertanyaan melalui Copilot, baik secara langsung maupun melalui integrasi Visual Studio Code. Opsi terakhir ini menyediakan cara yang efektif untuk mempelajari cara memanfaatkan MCP dan membuat perintah untuk aplikasi AI berbasis MCP Anda sendiri.
Saat ini, Microsoft belum merilis alat MCP khusus untuk bahasa pemrogramannya, yang mengharuskan penggunaan SDK resmi untuk mengembangkan kode khusus. Dengan dukungan untuk TypeScript, C#, dan Python, pengembang memiliki akses ke alat yang diperlukan untuk membuat agen Azure MCP mereka sendiri. Percobaan dapat dilakukan di dalam Visual Studio Code, dengan memanfaatkan kredensial Azure yang ada.
Server beroperasi di PC pengembangan Anda dan membutuhkan Node.js. Instalasi diselesaikan langsung dari repositori GitHub proyek ke VS Code. Setelah diinstal, pastikan bahwa ekstensi GitHub Copilot dan GitHub Copilot Chat dikonfigurasi untuk menggunakan mode agen eksperimental (dapat diakses melalui alat pengaturan VS Code). Selanjutnya, buka panel obrolan GitHub Copilot dan beralih ke mode agen. Verifikasi bahwa Azure MCP Server diinstal di dalam dropdown alat. Anda sekarang dapat mengirimkan kueri, seperti ‘Daftar langganan Azure saya’.
Alat yang dihasilkan terbukti sangat berharga bagi siapa pun yang bekerja dengan Azure dan melampaui integrasi Copilot. Azure MCP Server dapat diinstal di mana pun Node.js didukung, memungkinkan integrasinya ke dalam agen khusus.
Peran MCP di Azure AI Foundry
Microsoft dengan cepat memperluas portofolio alat MCP-nya, mengekspos fungsionalitas yang ada melalui MCP atau memungkinkan konsumsinya dalam aplikasi agentik. Peluncuran cepat ini mencakup alat untuk pengembangan agen tanpa kode Copilot Studio, yang diumumkan selama penulisan artikel ini.
Azure AI Foundry, platform pengembangan utama Microsoft untuk pengembangan aplikasi AI skala besar, juga secara aktif mengembangkan MCP Server untuk melengkapi Layanan Agen AI Azure. Integrasi ini bertujuan untuk menghubungkan agen yang berjalan di dalam Azure AI Foundry dengan klien yang beroperasi sebagai bagian dari aplikasi AI lainnya.
Layanan ini memungkinkan Anda dengan cepat menggunakan kembali kode dan layanan AI yang ada dan menautkannya ke aplikasi baru. Layanan seperti Fabric mengekspos fitur agen mereka sebagai titik akhir Layanan Agen AI, memungkinkan aplikasi AI untuk terhubung secara mulus ke data lini bisnis inti, memberikan landasan penting untuk mengurangi risiko halusinasi dan kesalahan.
Setelah instalasi, server menyediakan serangkaian tindakan MCP untuk menghubungkan ke agen dan mengirimkan kueri kepada mereka. Itu juga dapat mencantumkan agen yang tersedia atau menggunakan agen default untuk tugas-tugas tertentu. Dukungan untuk utas percakapan disertakan, memberi agen memori semantik dasar untuk percakapan kontekstual. Anda akan memerlukan ID agen Azure AI Agent Service untuk memanggilnya menggunakan MCP.
Server diimplementasikan dalam Python dan dapat diinstal menggunakan Azure CLI melalui pip
. Atau, versi TypeScript tersedia untuk mereka yang lebih menyukainya. Mirip dengan Azure MCP Server, server ini beroperasi di luar lingkungan AI Foundry, memungkinkannya untuk diinstal di PC pengembangan atau sebagai bagian dari aplikasi yang dihosting di cloud di dalam wadah atau VM-nya sendiri, dengan dukungan untuk Windows, macOS, dan Linux.
Memanfaatkan Server MCP dari Aplikasi Semantic Kernel AI
Sebagai standar terbuka, MCP memungkinkan kompatibilitas server dengan klien mana pun. Repositori GitHub menyediakan instruksi tentang cara membuat koneksi menggunakan Claude Desktop Anthropic, tetapi nilai sebenarnya terletak pada pembangunan alur kerja agen khusus di dalam Semantic Kernel.
Microsoft menyediakan contoh kode yang menunjukkan cara mengintegrasikan dukungan MCP ke dalam orkestrasi Semantic Kernel, memperlakukannya sebagai plug-in kernel yang terintegrasi dengan panggilan fungsi yang familier. Integrasi ini dapat dibungkus sebagai agen dan diakses sesuai kebutuhan. Sementara integrasi MCP di dalam Semantic Kernel masih dalam pengembangan, itu terintegrasi secara mulus dengan set fitur yang ada, membutuhkan kode tambahan minimal untuk mengekspos alat MCP dari server ke aplikasi AI.
Alat seperti MCP adalah komponen penting dari tumpukan AI modern, menyediakan pendekatan standar untuk membangun antarmuka yang dapat ditemukan untuk aplikasi lokal dan jarak jauh. Setelah didefinisikan, alat MCP mudah dipanggil, dengan server menyediakan daftar alat yang tersedia dan MCP menyediakan LLM dengan cara standar untuk memanggil alat tersebut dan memanfaatkan outputnya. Pendekatan ini secara signifikan berkontribusi untuk menyediakan alat landasan universal untuk aplikasi AI, bekerja dengan API standar, kueri database, dan agen AI.