Model Context Protocol: เปลี่ยน AI ใน Search

ทำความเข้าใจ Model Context Protocol

Model Context Protocol (MCP) ทำหน้าที่เป็นเฟรมเวิร์กโปรโตคอลแบบเปิด ซึ่งอำนวยความสะดวกในการเชื่อมต่อโดยตรงระหว่างระบบ AI และเซิร์ฟเวอร์ข้อมูล การทำให้การแลกเปลี่ยนข้อมูลเป็นมาตรฐานนี้ให้บริบทที่จำเป็นสำหรับ LLM การเปิดใช้งานนักพัฒนาเพื่อสร้างเครื่องมือและแอปพลิเคชันที่ผสานรวมกับ LLM ได้อย่างราบรื่น MCP ให้การเข้าถึงข้อมูลภายนอกและเวิร์กโฟลว์ผ่านกระบวนการรวมที่คล่องตัว

เพื่อแสดงให้เห็นถึงแนวคิดนี้ ให้จินตนาการถึง LLM ในฐานะบรรณารักษ์ที่มีความรู้ความสามารถในเรื่องการถือครองห้องสมุดในท้องถิ่นของตน บรรณารักษ์เหล่านี้มีความรู้ที่ครอบคลุมเกี่ยวกับฐานข้อมูลของห้องสมุดและสามารถค้นหาข้อมูลภายในขอบเขตของห้องสมุดได้อย่างมีประสิทธิภาพ อย่างไรก็ตาม ความเชี่ยวชาญของพวกเขามีจำกัดเฉพาะทรัพยากรที่มีอยู่ในห้องสมุดในท้องถิ่น ซึ่งป้องกันการเข้าถึงเนื้อหาหรือข้อมูลที่อยู่นอกเหนือจากนั้น

ด้วยเหตุนี้ ผู้เยี่ยมชมห้องสมุดที่ต้องการข้อมูลจึงถูกจำกัดอยู่เฉพาะหนังสือและทรัพยากรที่มีอยู่ในฐานข้อมูลของห้องสมุดในท้องถิ่น ซึ่งอาจรวมถึงข้อมูลที่ล้าสมัยหากคอลเลกชันของห้องสมุดส่วนใหญ่ประกอบด้วยสิ่งพิมพ์ที่เก่ากว่า

MCP ช่วยให้บรรณารักษ์ (LLM) สามารถเข้าถึงหนังสือใดๆ ได้ทันทีทั่วโลก โดยให้ข้อมูลที่เป็นปัจจุบันเกี่ยวกับหัวข้อเฉพาะโดยตรงจากแหล่งข้อมูลหลัก

MCP ช่วยให้ LLM สามารถ:

  • เข้าถึงข้อมูลและเครื่องมือได้อย่างง่ายดายโดยตรงจากแหล่งที่กำหนด
  • ดึงข้อมูลที่เป็นปัจจุบันได้ทันทีจากเซิร์ฟเวอร์ โดยไม่จำเป็นต้องพึ่งพาความรู้ที่ได้รับการฝึกฝนมาล่วงหน้าเพียงอย่างเดียว
  • ควบคุมความสามารถเชิงตัวแทน เช่น การนำเวิร์กโฟลว์อัตโนมัติและการค้นหาฐานข้อมูลมาใช้
  • ดำเนินการโดยเชื่อมต่อกับเครื่องมือที่กำหนดเองที่สร้างโดยบุคคลที่สาม นักพัฒนา หรือองค์กร
  • ให้การอ้างอิงที่แม่นยำสำหรับแหล่งข้อมูลทั้งหมด
  • ขยายออกไปนอกเหนือจากการดึงข้อมูลเพียงอย่างเดียว เพื่อครอบคลุมความสามารถต่างๆ เช่น การผสานรวมกับ Shopping API ซึ่งอำนวยความสะดวกในการซื้อโดยตรงโดย LLM

พิจารณาสถานการณ์ธุรกิจอีคอมเมิร์ซที่ LLM สามารถ:

  • เข้าถึงระบบสินค้าคงคลังภายในอย่างปลอดภัยเพื่อดึงข้อมูลแบบเรียลไทม์ รวมถึงราคาผลิตภัณฑ์
  • จัดเตรียมรายการข้อกำหนดผลิตภัณฑ์โดยละเอียดโดยตรงจากฐานข้อมูลสินค้าคงคลัง

LLM ไม่เพียงแต่กำหนดเป้าหมายผู้ใช้ที่ค้นหารองเท้าวิ่งตามฤดูกาลล่าสุดเท่านั้น แต่ยังอำนวยความสะดวกในการซื้อรองเท้าโดยตรงในนามของผู้ใช้

MCP กับ Retrieval-Augmented Generation (RAG)

แม้ว่าทั้ง MCP และ Retrieval-Augmented Generation (RAG) ต่างก็มีเป้าหมายที่จะปรับปรุง LLM โดยการรวมข้อมูลแบบไดนามิกและปัจจุบันที่อยู่นอกเหนือการฝึกอบรมล่วงหน้าแบบคงที่ แต่แนวทางพื้นฐานในการเข้าถึงและการโต้ตอบข้อมูลของพวกเขานั้นแตกต่างกันอย่างมาก

RAG อธิบาย

RAG ช่วยให้ LLM สามารถดึงข้อมูลผ่านชุดของขั้นตอน:

  1. การจัดทำดัชนี: LLM แปลงข้อมูลภายนอกเป็นฐานข้อมูลเวกเตอร์ฝังตัว ซึ่งใช้ในระหว่างกระบวนการดึงข้อมูล
  2. Vectorization: คิวรีการค้นหาที่ส่งมาจะถูกแปลงเป็นเวกเตอร์ฝังตัว
  3. กระบวนการดึงข้อมูล: ตัวดึงข้อมูลจะค้นหาฐานข้อมูลเวกเตอร์เพื่อระบุข้อมูลที่เกี่ยวข้องมากที่สุดตามความคล้ายคลึงกันระหว่างเวกเตอร์ฝังตัวของคิวรีกับเวกเตอร์ในฐานข้อมูลที่มีอยู่
  4. การจัดเตรียมบริบท: ข้อมูลที่ดึงมาจะถูกรวมเข้ากับคิวรีการค้นหาเพื่อให้บริบทเพิ่มเติมผ่านข้อความแจ้ง
  5. การสร้างเอาต์พุต: LLM สร้างเอาต์พุตตามข้อมูลที่ดึงมาและความรู้การฝึกอบรมที่มีอยู่ก่อนแล้ว

ฟังก์ชันการทำงานของ MCP

MCP ทำหน้าที่เป็นอินเทอร์เฟซสากลสำหรับระบบ AI ซึ่งปรับมาตรฐานการเชื่อมต่อข้อมูลกับ LLM ตรงกันข้ามกับ RAG MCP ใช้สถาปัตยกรรมไคลเอนต์-เซิร์ฟเวอร์ โดยนำเสนอแนวทางที่ครอบคลุมและราบรื่นยิ่งขึ้นในการเข้าถึงข้อมูลผ่านกระบวนการต่อไปนี้:

  1. การเชื่อมต่อไคลเอนต์-เซิร์ฟเวอร์: แอปพลิเคชัน LLM ทำหน้าที่เป็นโฮสต์ โดยเริ่มต้นการเชื่อมต่อ ผ่านแอปพลิเคชันโฮสต์ ไคลเอนต์สร้างการเชื่อมต่อโดยตรงกับเซิร์ฟเวอร์ข้อมูล ซึ่งจัดเตรียมเครื่องมือและบริบทที่จำเป็นสำหรับไคลเอนต์
  2. เครื่องมือ: นักพัฒนาสร้างเครื่องมือที่เข้ากันได้กับ MCP ซึ่งใช้ประโยชน์จากโปรโตคอลแบบเปิดเพื่อดำเนินการฟังก์ชันต่างๆ เช่น การโทร API หรือการเข้าถึงฐานข้อมูลภายนอก ทำให้ LLM สามารถทำงานเฉพาะเจาะจงได้
  3. คำขอของผู้ใช้: ผู้ใช้สามารถส่งคำขอเฉพาะได้ เช่น “ราคารองเท้าวิ่ง Nike รุ่นใหม่ล่าสุดคือเท่าไหร่”
  4. คำขอของระบบ AI: หากระบบ AI หรือ LLM เชื่อมต่อกับเครื่องมือที่สามารถเข้าถึงฐานข้อมูลการกำหนดราคาสินค้าคงคลังที่ Nike ดูแลรักษาได้ ก็สามารถขอราคารองเท้าใหม่ล่าสุดได้
  5. เอาต์พุตพร้อมข้อมูลสด: ฐานข้อมูลที่เชื่อมต่อจะให้ข้อมูลสดแก่ LLM ซึ่งมาจากฐานข้อมูลของ Nike โดยตรง เพื่อให้มั่นใจว่าเป็นข้อมูลที่เป็นปัจจุบัน
RAG MCP
สถาปัตยกรรม ระบบดึงข้อมูล ความสัมพันธ์ไคลเอนต์-เซิร์ฟเวอร์
วิธีเข้าถึงข้อมูล การดึงข้อมูลผ่านฐานข้อมูลเวกเตอร์ การเชื่อมต่อกับเครื่องมือที่กำหนดเองที่สร้างโดยบุคคล
ความสามารถในการส่งออก ข้อมูลที่เกี่ยวข้องที่ดึงมาจากฐานข้อมูล เอาต์พุตและฟังก์ชันที่กำหนดเอง รวมถึงความสามารถเชิงตัวแทน ตามเครื่องมือ
ความทันสมัยของข้อมูล ขึ้นอยู่กับเวลาที่จัดทำดัชนีเนื้อหาครั้งล่าสุด ข้อมูลที่เป็นปัจจุบันจากแหล่งข้อมูลสด
ข้อกำหนดข้อมูล ต้องเข้ารหัสเวกเตอร์และจัดทำดัชนี ต้องเข้ากันได้กับ MCP
ความถูกต้องของข้อมูล ลดภาพหลอนผ่านเอกสารที่ดึงมา ลดภาพหลอนผ่านการเข้าถึงข้อมูลสดจากแหล่งที่มา
การใช้เครื่องมือและการดำเนินการอัตโนมัติ ไม่สามารถทำได้ สามารถผสานรวมกับขั้นตอนเครื่องมือใดก็ได้ที่ให้ไว้บนเซิร์ฟเวอร์และดำเนินการใดๆ ที่ให้ไว้
ความสามารถในการปรับขนาด ขึ้นอยู่กับดัชนีและขีดจำกัดหน้าต่าง สามารถปรับขนาดได้อย่างง่ายดายขึ้นอยู่กับเครื่องมือที่เข้ากันได้กับ MCP
ความสอดคล้องของแบรนด์ ไม่สอดคล้องกันเนื่องจากข้อมูลถูกดึงมาจากแหล่งต่างๆ สอดคล้องและแข็งแกร่ง เนื่องจากสามารถดึงข้อมูลที่ได้รับการอนุมัติจากแบรนด์ได้โดยตรงจากแหล่งที่มา

ในขณะที่ Anthropic บุกเบิกแนวคิด MCP ในเดือนพฤศจิกายน บริษัทจำนวนมาก รวมถึง Google, OpenAI และ Microsoft กำลังวางแผนที่จะรวมแนวคิด MCP ของ Anthropic เข้ากับระบบ AI ของตน ดังนั้น นักการตลาด Search ควรจัดลำดับความสำคัญของการปรับปรุงการมองเห็นเนื้อหาผ่านเครื่องมือ MCP และพิจารณากลยุทธ์ต่อไปนี้:

การทำงานร่วมกันกับนักพัฒนาเพื่อการผสานรวม

ร่วมมือกับนักพัฒนาเพื่อสำรวจกลยุทธ์ในการส่งมอบเนื้อหาที่มีมูลค่าสูงให้กับผู้ใช้ ในขณะเดียวกันก็ให้บริบทที่มีความหมายแก่ LLM ผ่านเครื่องมือที่เข้ากันได้กับ MCP วิเคราะห์วิธีการใช้ประโยชน์จากความสามารถเชิงตัวแทนที่ดำเนินการผ่านเฟรมเวิร์ก MCP

การนำข้อมูลที่มีโครงสร้างไปใช้

ข้อมูลที่มีโครงสร้างและ Schema จะยังคงเป็นจุดอ้างอิงที่จำเป็นสำหรับ LLM ใช้เพื่อสนับสนุนความสามารถในการอ่านด้วยเครื่องสำหรับเนื้อหาที่ส่งมอบผ่านเครื่องมือที่กำหนดเอง แนวทางนี้ยังช่วยเพิ่มการมองเห็นภายในประสบการณ์การค้นหาที่สร้างโดย AI ทำให้มั่นใจได้ถึงความเข้าใจที่ถูกต้องและการแสดงเนื้อหา

การรักษาข้อมูลให้เป็นปัจจุบันและถูกต้อง

ในขณะที่ LLM เชื่อมต่อโดยตรงกับแหล่งข้อมูล ให้ตรวจสอบว่าเนื้อหาทั้งหมดให้ข้อมูลที่เกี่ยวข้อง เป็นปัจจุบัน และถูกต้อง เพื่อส่งเสริมความน่าเชื่อถือและปรับปรุงประสบการณ์ของผู้ใช้ สำหรับธุรกิจอีคอมเมิร์ซ ซึ่งรวมถึงการตรวจสอบจุดราคา ข้อกำหนดผลิตภัณฑ์ ข้อมูลการจัดส่ง และรายละเอียดที่จำเป็นอื่นๆ โดยเฉพาะอย่างยิ่งเนื่องจากข้อมูลนี้อาจถูกนำเสนอโดยตรงในการตอบสนองการค้นหา AI

การเน้นเสียงและความสอดคล้องของแบรนด์

ข้อได้เปรียบที่โดดเด่นของการปรับแต่งเครื่องมือสำหรับ MCP คือความสามารถในการสร้างเสียงของแบรนด์ที่แข็งแกร่งและสอดคล้องกันสำหรับ LLM แทนที่จะต้องพึ่งพาข้อมูลที่เป็นส่วนๆ จากแหล่งต่างๆ เครื่องมือที่เข้ากันได้กับ MCP ช่วยให้สามารถรักษาสียงของแบรนด์ที่สอดคล้องกันได้โดยการส่งมอบเนื้อหาที่เชื่อถือได้โดยตรงไปยัง LLM

การรวมเครื่องมือ MCP เข้ากับกลยุทธ์การตลาดของคุณ

ในขณะที่ระบบ AI ปรับตัวเข้ากับ MCP นักการตลาดที่มองการณ์ไกลควรผสมผสานเฟรมเวิร์กที่เกิดขึ้นใหม่นี้เข้ากับกลยุทธ์ของตน และส่งเสริมการทำงานร่วมกันข้ามสายงานเพื่อพัฒนาเครื่องมือที่ส่งมอบเนื้อหาที่มีมูลค่าสูงให้กับ LLM และดึงดูดผู้ใช้ได้อย่างมีประสิทธิภาพ เครื่องมือเหล่านี้ไม่เพียงแต่ช่วยอำนวยความสะดวกในด้านระบบอัตโนมัติเท่านั้น แต่ยังมีบทบาทสำคัญในการสร้างรูปลักษณ์ของแบรนด์ในสภาพแวดล้อมการค้นหาที่ขับเคลื่อนด้วย AI

โดยพื้นฐานแล้ว Model Context Protocol ไม่ใช่แค่การปรับปรุงทีละน้อย แต่เป็นการเปลี่ยนแปลงพื้นฐานในวิธีที่ AI โต้ตอบและเผยแพร่ข้อมูล การทำความเข้าใจและการใช้ประโยชน์จาก MCP ช่วยให้นักการตลาดมั่นใจได้ว่าเนื้อหาของตนยังคงมีความเกี่ยวข้อง ถูกต้อง และค้นพบได้ในภูมิทัศน์ที่พัฒนาไปอย่างรวดเร็วของการค้นหาที่ขับเคลื่อนด้วย AI การเน้นที่ข้อมูลที่มีโครงสร้าง ข้อมูลที่เป็นปัจจุบัน และความสอดคล้องของแบรนด์จะเป็นสิ่งสำคัญยิ่งในยุคใหม่นี้ ซึ่งต้องใช้แนวทางเชิงรุกและปรับตัวได้สำหรับกลยุทธ์เนื้อหาและการผสานรวม AI เมื่อ MCP ได้รับการยอมรับอย่างกว้างขวางมากขึ้น ความได้เปรียบในการแข่งขันจะอยู่ที่ผู้ที่ยอมรับความสามารถและผสานรวมเข้ากับการดำเนินงานด้านการตลาดของตนได้อย่างราบรื่น