Navigasi Protokol Konteks Model: Era AI Baharu

Kemunculan Model Bahasa Besar (LLM) sememangnya telah merevolusikan landskap kecerdasan buatan. Walau bagaimanapun, satu cabaran yang berterusan kekal: menyepadukan model ini dengan berkesan dengan data proprietari. Walaupun LLM mahir dalam memproses sejumlah besar maklumat daripada internet, potensi sebenar mereka terletak pada bertindak sebagai antara muka bahasa semula jadi untuk aplikasi dan data kita, membolehkan kita memanfaatkan keupayaan ramalan dan generatif mereka dalam persekitaran yang terkawal.

Untuk memastikan kebolehpercayaan dan kerelevanan output LLM, pelbagai strategi telah muncul, setiap satu direka untuk merapatkan jurang antara model ini dan set data tertentu. Strategi ini terdiri daripada mencipta pembenaman tersuai dan menggunakan teknik penjanaan tambahan perolehan (RAG) – memanfaatkan pangkalan data graf untuk membongkar hubungan rumit dalam data – kepada menggunakan LLM untuk menyuling dan membentangkan data yang diperoleh melalui panggilan OpenAPI yang dicetuskan oleh gesaan pengguna. Tambahan pula, model pemalam yang dipopularkan oleh ChatGPT OpenAI menawarkan satu lagi jalan untuk penyepaduan data. Antara pendekatan yang pelbagai ini, Protokol Konteks Model (MCP) menonjol sebagai penyelesaian yang menjanjikan untuk menyeragamkan sambungan antara LLM dan sumber data luaran.

Mendedahkan Protokol Konteks Model

Protokol Konteks Model, yang didedahkan oleh Anthropic pada akhir tahun 2024, mewakili langkah penting ke arah memperkemas interaksi antara LLM dan data khusus pengguna. Protokol ini menggariskan peranan penting konteks dalam aplikasi AI, mengakui bahawa keupayaan AI untuk menyampaikan output yang koheren dan bermakna bergantung pada ketersediaan maklumat kontekstual yang relevan. Bergantung semata-mata pada gesaan sembang untuk mendapatkan respons yang munasabah adalah, pada tahap terbaik, senaman dalam keyakinan dan, pada tahap terburuk, resipi untuk hasil yang tidak tepat atau mengelirukan. Untuk membina ejen separa autonomi yang teguh yang mampu mengatur aliran kerja di sekitar data kita, mekanisme yang boleh dipercayai untuk menyampaikan data itu kepada ejen ini adalah penting.

Sebagai inisiatif sumber terbuka, MCP menyediakan pelaksanaan SDK untuk pelbagai bahasa pengaturcaraan, disertai dengan dokumentasi yang komprehensif dalam repositori GitHubnya. Dokumentasi ini memperkasakan pembangun untuk melaksanakan atau menggunakan pelayan MCP dengan berkesan. Penerangan projek tentang MCP sebagai “port USB-C untuk aplikasi AI” dengan tepat menangkap intipatinya, menyerlahkan keupayaannya untuk menyeragamkan sambungan kepada pelbagai sumber data. Dibina berdasarkan asas yang diseragamkan, MCP mudah disepadukan dengan projek sedia ada, berinteraksi dengan lancar dengan pelbagai LLM dan penyedia inferens.

Seni bina MCP mengikuti model klien/pelayan yang mantap, di mana broker memikul tanggungjawab untuk menterjemahkan permintaan MCP kepada permintaan tempatan atau jauh. Reka bentuk ini mencerminkan kefungsian bahasa definisi antara muka seperti CORBA, mengubah MCP menjadi lapisan saling kendalian serba boleh yang memudahkan penukaran lancar antara sumber maklumat dan aplikasi LLM. Memanfaatkan sambungan JSON RPC, MCP membolehkan kawalan terperinci di peringkat pengguna individu melalui alatan seperti Pengurusan API Azure.

MCP memupuk pembangunan antara muka generik untuk kod pacuan AI, dibuktikan dengan peningkatan penggunaannya di seluruh platform pembangunan AI Microsoft. Daripada penyepaduan dalam alat orkestrasi model Kernel Semantik kepada penggunaan sebagai pelayan MCP yang serasi dengan Azure OpenAI dan Azure AI Foundry, MCP semakin mendapat daya tarikan. Microsoft juga sedang meningkatkan Pengurusan API Azure dengan ciri untuk mengawal akses data berdasarkan kelayakan pengguna, seterusnya mengukuhkan peranan MCP dalam penggunaan AI yang selamat dan terkawal.

Pelayan Azure MCP: Pelaksanaan Awal

Pelayan Azure MCP sumber terbuka, yang baru-baru ini dikeluarkan dalam pratonton awam, mencontohi pelaksanaan awal MCP pada platform Microsoft. Pelayan ini berfungsi sebagai broker biasa untuk akses AI kepada perkhidmatan Azure utama, mematuhi prinsip sumber terbuka yang diterima pakai oleh banyak projek Azure baru-baru ini. Kodnya mudah diakses di GitHub. Pelayan Azure MCP menyediakan akses kepada sebahagian besar platform Azure, termasuk pangkalan data, penyelesaian storan dan perkhidmatan seperti Azure CLI.

Penyertaan sokongan untuk Azure CLI (dan CLI Pembangun) adalah amat ketara, kerana ia memperkasakan ejen yang dipacu MCP untuk berinteraksi dengan Azure secara langsung, menganggap panggilan MCP sebagai pengendali. Keupayaan ini membuka jalan untuk membina ejen yang menawarkan antara muka layan diri bahasa semula jadi kepada Azure. Contohnya, ejen boleh mengambil penerangan tentang infrastruktur dan menjana secara automatik templat ARM yang diperlukan untuk penggunaannya. Melanjutkan konsep ini lebih jauh, seseorang boleh membayangkan ejen multimodal yang menganalisis lakaran papan putih, memperoleh penerangan tentang sumber yang diperlukan, dan kemudian menggunakan infrastruktur, membolehkan pembangunan kod segera. Perkhidmatan pentadbiran sistem tambahan yang boleh diakses melalui Pelayan Azure MCP merangkumi penyenaraian kumpulan sumber semasa dan memanfaatkan KQL untuk menanyakan log Pemantauan Azure.

Mengintegrasikan Pelayan Azure MCP dengan Sembang GitHub Copilot

Oleh kerana ia mematuhi standard MCP, Pelayan Azure MCP disepadukan dengan lancar dengan mana-mana alat AI yang menyokong MCP, seperti Mod Ejen GitHub Copilot. Dengan hanya menambah pelayan pada penyewa anda, anda boleh mula mengemukakan soalan melalui Copilot, sama ada secara terus atau melalui penyepaduan Visual Studio Code. Pilihan kedua ini menyediakan cara yang berkesan untuk mempelajari cara memanfaatkan MCP dan membina gesaan untuk aplikasi AI berasaskan MCP anda sendiri.

Pada masa ini, Microsoft belum lagi mengeluarkan alat MCP khusus untuk bahasa pengaturcaraan, yang memerlukan penggunaan SDK rasmi untuk membangunkan kod tersuai. Dengan sokongan untuk TypeScript, C# dan Python, pembangun mempunyai akses kepada alatan yang diperlukan untuk mencipta ejen Azure MCP mereka sendiri. Percubaan boleh dijalankan dalam Visual Studio Code, menggunakan kelayakan Azure sedia ada.

Pelayan beroperasi pada PC pembangunan anda dan memerlukan Node.js. Pemasangan dicapai terus daripada repositori GitHub projek ke dalam VS Code. Setelah dipasang, pastikan kedua-dua sambungan GitHub Copilot dan GitHub Copilot Chat dikonfigurasikan untuk menggunakan mod ejen eksperimen (boleh diakses melalui alat tetapan VS Code). Selepas itu, buka anak tetingkap sembang GitHub Copilot dan tukar kepada mod ejen. Sahkan bahawa Pelayan Azure MCP dipasang dalam lungsur turun alatan. Anda kini boleh menghantar pertanyaan, seperti “Senaraikan langganan Azure saya.”

Alat yang terhasil terbukti tidak ternilai bagi sesiapa sahaja yang bekerja dengan Azure dan melangkaui penyepaduan Copilot. Pelayan Azure MCP boleh dipasang di mana-mana Node.js disokong, membolehkan penyepaduan ke dalam ejen tersuai.

Peranan MCP dalam Azure AI Foundry

Microsoft sedang mengembangkan portfolio alat MCPnya dengan pesat, mendedahkan fungsi sedia ada melalui MCP atau membolehkan penggunaannya dalam aplikasi ejen. Pelancaran pantas ini termasuk alatan untuk pembangunan ejen tanpa kod Copilot Studio, yang diumumkan semasa penulisan artikel ini.

Azure AI Foundry, platform pembangunan utama Microsoft untuk pembangunan aplikasi AI berskala besar, juga secara aktif membangunkan Pelayan MCP untuk melengkapkan Perkhidmatan Ejen AI Azure. Penyepaduan ini bertujuan untuk menghubungkan ejen yang berjalan dalam Azure AI Foundry dengan pelanggan yang beroperasi sebagai sebahagian daripada aplikasi AI lain.

Perkhidmatan ini membolehkan anda menggunakan semula kod dan perkhidmatan AI sedia ada dengan cepat serta menghubungkannya kepada aplikasi baharu. Perkhidmatan seperti Fabric mendedahkan ciri ejen mereka sebagai titik akhir Perkhidmatan Ejen AI, membolehkan aplikasi AI untuk menyambung dengan lancar kepada data barisan perniagaan teras, menyediakan asas penting untuk mengurangkan risiko halusinasi dan ralat.

Selepas pemasangan, pelayan menyediakan satu set tindakan MCP untuk menyambung kepada ejen dan menghantar pertanyaan kepada mereka. Ia juga boleh menyenaraikan ejen yang tersedia atau menggunakan ejen lalai untuk tugas tertentu. Sokongan untuk bebenang perbualan disertakan, memberikan ejen dengan memori semantik asas untuk perbualan kontekstual. Anda memerlukan ID ejen Perkhidmatan Ejen AI Azure untuk menyerunya menggunakan MCP.

Pelayan dilaksanakan dalam Python dan boleh dipasang menggunakan Azure CLI melalui pip. Sebagai alternatif, versi TypeScript tersedia untuk mereka yang lebih suka. Sama seperti Pelayan Azure MCP, pelayan ini beroperasi di luar persekitaran AI Foundry, membenarkannya dipasang pada PC pembangunan atau sebagai sebahagian daripada aplikasi yang dihoskan awan dalam kontena atau VM sendiri, dengan sokongan untuk Windows, macOS dan Linux.

Memanfaatkan Pelayan MCP daripada Aplikasi AI Kernel Semantik

Sebagai standard terbuka, MCP membolehkan keserasian pelayan dengan mana-mana pelanggan. Repositori GitHub menyediakan arahan tentang cara mewujudkan sambungan menggunakan Claude Desktop Anthropic, tetapi nilai sebenar terletak pada membina aliran kerja ejen tersuai dalam Kernel Semantik.

Microsoft menyediakan contoh kod yang menunjukkan cara menyepadukan sokongan MCP ke dalam orkestrasi Kernel Semantik, menganggapnya sebagai pemalam kernel yang disepadukan dengan panggilan fungsi yang biasa. Penyepaduan ini boleh dibungkus sebagai ejen dan diakses seperti yang diperlukan. Walaupun penyepaduan MCP dalam Kernel Semantik masih dalam pembangunan, ia disepadukan dengan lancar dengan set ciri sedia ada, memerlukan kod tambahan yang minimum untuk mendedahkan alatan MCP daripada pelayan kepada aplikasi AI.

Alat seperti MCP ialah komponen penting bagi tindanan AI moden, menyediakan pendekatan yang diseragamkan untuk membina antara muka yang boleh ditemui untuk kedua-dua aplikasi tempatan dan jauh. Setelah ditakrifkan, alatan MCP mudah dipanggil, dengan pelayan menyediakan senarai alatan yang tersedia dan MCP menyediakan LLM dengan cara yang diseragamkan untuk memanggil alatan tersebut dan menggunakan outputnya. Pendekatan ini menyumbang dengan ketara kepada menyediakan alat asas sejagat untuk aplikasi AI, berfungsi dengan API standard, pertanyaan pangkalan data dan ejen AI.