Trong bối cảnh công nghệ phát triển nhanh chóng ngày nay, các mô hình ngôn ngữ lớn (LLMs) đã nổi lên như những công cụ mạnh mẽ cho xử lý ngôn ngữ tự nhiên. Tuy nhiên, sự phụ thuộc của chúng vào dữ liệu đào tạo tĩnh hạn chế khả năng thích ứng với các tình huống thực tế. Khi các ngành công nghiệp ngày càng yêu cầu các giải pháp AI có khả năng đưa ra các quyết định sáng suốt, việc tích hợp các công cụ và API bên ngoài đã trở nên tối quan trọng. Độ chính xác mà các công cụ này được sử dụng là rất quan trọng để nâng cao khả năng ra quyết định và hiệu quả hoạt động của các tác nhân tự động, cuối cùng mở đường cho sự phát triển của các quy trình làm việc phức tạp.
Bài viết này đi sâu vào các khía cạnh kỹ thuật của việc gọi công cụ bằng cách sử dụng các mô hình Amazon Nova thông qua Amazon Bedrock. Hơn nữa, nó khám phá các phương pháp khác nhau để tùy chỉnh các mô hình này để đạt được độ chính xác cao hơn trong việc sử dụng công cụ.
Mở Rộng Khả Năng của LLM với Sử Dụng Công Cụ
LLMs đã thể hiện sự thành thạo đáng kể trong một loạt các nhiệm vụ ngôn ngữ tự nhiên. Tuy nhiên, tiềm năng thực sự của chúng được mở khóa thông qua tích hợp liền mạch với các công cụ bên ngoài như API và khung tính toán. Các công cụ này trao quyền cho LLMs khả năng truy cập dữ liệu thời gian thực, thực hiện các tính toán cụ thể theo miền và truy xuất thông tin chính xác, do đó nâng cao độ tin cậy và tính linh hoạt của chúng.
Hãy xem xét việc tích hợp API thời tiết, cho phép LLMs cung cấp dự báo thời tiết chính xác và cập nhật. Tương tự, một API Wikipedia có thể trang bị cho LLMs khả năng truy cập một kho thông tin rộng lớn, cho phép chúng trả lời các truy vấn phức tạp với độ chính xác cao hơn. Trong các bối cảnh khoa học, các công cụ như máy tính và công cụ tượng trưng có thể giúp LLMs khắc phục những sai sót về số, làm cho chúng đáng tin cậy hơn cho các phép tính phức tạp.
Bằng cách tích hợp liền mạch với các công cụ này, LLMs phát triển thành các hệ thống mạnh mẽ, nhận biết miền có khả năng xử lý các tác vụ động và chuyên biệt với tiện ích thực tế.
Mô Hình Amazon Nova và Amazon Bedrock
Các mô hình Amazon Nova, được giới thiệu tại AWS re:Invent vào tháng 12 năm 2024, được thiết kế để mang lại giá trị hiệu suất trên giá đặc biệt. Các mô hình này cung cấp hiệu suất hiện đại trên các điểm chuẩn hiểu văn bản chính đồng thời duy trì tính hiệu quả về chi phí. Loạt bài này bao gồm ba biến thể:
- Micro: Một mô hình chỉ có văn bản được tối ưu hóa cho sử dụng ở biên, cung cấp hiệu suất cực kỳ hiệu quả.
- Lite: Một mô hình đa phương thức đạt được sự cân bằng giữa tính linh hoạt và hiệu suất.
- Pro: Một mô hình đa phương thức hiệu suất cao được thiết kế để giải quyết các tác vụ phức tạp.
Các mô hình Amazon Nova có thể được sử dụng cho một loạt các tác vụ, bao gồm tạo và phát triển các quy trình làm việc đại diện. Các mô hình này có khả năng tương tác với các công cụ hoặc dịch vụ bên ngoài thông qua một quy trình được gọi là gọi công cụ. Chức năng này có thể được truy cập thông qua bảng điều khiển Amazon Bedrock và các API như Converse và Invoke.
Ngoài việc sử dụng các mô hình được đào tạo trước, các nhà phát triển có tùy chọn tinh chỉnh các mô hình này bằng dữ liệu đa phương thức (Pro và Lite) hoặc dữ liệu văn bản (Pro, Lite và Micro). Tính linh hoạt này cho phép các nhà phát triển đạt được mức độ chính xác, độ trễ và hiệu quả chi phí mong muốn. Hơn nữa, các nhà phát triển có thể tận dụng bảng điều khiển Amazon Bedrock và API để thực hiện tinh chỉnh tùy chỉnh tự phục vụ và chưng cất các mô hình lớn hơn thành các mô hình nhỏ hơn.
Tổng Quan về Giải Pháp
Giải pháp bao gồm việc chuẩn bị một tập dữ liệu tùy chỉnh được thiết kế đặc biệt để sử dụng công cụ. Tập dữ liệu này sau đó được sử dụng để đánh giá hiệu suất của các mô hình Amazon Nova thông qua Amazon Bedrock, sử dụng các API Converse và Invoke. Sau đó, các mô hình AmazonNova Micro và Amazon Nova Lite được tinh chỉnh bằng cách sử dụng tập dữ liệu đã chuẩn bị thông qua Amazon Bedrock. Sau khi hoàn thành quy trình tinh chỉnh, các mô hình tùy chỉnh này được đánh giá thông qua thông lượng được cung cấp.
Công Cụ
Việc sử dụng công cụ trong LLMs bao gồm hai hoạt động thiết yếu: lựa chọn công cụ và trích xuất hoặc tạo đối số. Ví dụ: hãy xem xét một công cụ được thiết kế để truy xuất thông tin thời tiết cho một vị trí cụ thể. Khi được trình bày với một truy vấn như, “Thời tiết ở London hiện tại như thế nào?”, LLM đánh giá các công cụ có sẵn của nó để xác định xem có công cụ thích hợp hay không. Nếu một công cụ phù hợp được xác định, mô hình sẽ chọn nó và trích xuất các đối số cần thiết – trong trường hợp này, “London” – để xây dựng lệnh gọi công cụ.
Mỗi công cụ được xác định tỉ mỉ với một đặc tả chính thức phác thảo chức năng dự định của nó, các đối số bắt buộc và tùy chọn và các loại dữ liệu liên quan. Các định nghĩa chính xác này, được gọi là cấu hình công cụ, đảm bảo rằng các lệnh gọi công cụ được thực thi chính xác và việc phân tích cú pháp đối số phù hợp với các yêu cầu hoạt động của công cụ. Tuân thủ yêu cầu này, tập dữ liệu được sử dụng trong ví dụ này xác định tám công cụ riêng biệt, mỗi công cụ có các đối số và cấu hình riêng, tất cả đều được cấu trúc ở định dạng JSON. Tám công cụ được xác định như sau:
- weather_api_call: Một công cụ tùy chỉnh được thiết kế để truy xuất thông tin thời tiết.
- stat_pull: Một công cụ tùy chỉnh để xác định số liệu thống kê.
- text_to_sql: Một công cụ tùy chỉnh để chuyển đổi văn bản thành các truy vấn SQL.
- terminal: Một công cụ để thực thi các tập lệnh trong một môi trường terminal.
- wikipedia: Một công cụ API Wikipedia để tìm kiếm qua các trang Wikipedia.
- duckduckgo_results_json: Một công cụ tìm kiếm trên internet sử dụng DuckDuckGo để thực hiện tìm kiếm.
- youtube_search: Một công cụ tìm kiếm API YouTube để tìm kiếm danh sách video.
- pubmed_search: Một công cụ tìm kiếm PubMed để tìm kiếm các tóm tắt PubMed.
Tập Dữ Liệu
Tập dữ liệu được sử dụng trong giải pháp này là một tập dữ liệu gọi công cụ tổng hợp, được tạo với sự hỗ trợ của một mô hình nền tảng (FM) từ Amazon Bedrock và sau đó được xác thực và điều chỉnh thủ công. Tập dữ liệu này được phát triển cho tập hợp tám công cụ đã thảo luận trước đó, với mục đích tạo ra một bộ sưu tập đa dạng các câu hỏi và lệnh gọi công cụ cho phép một mô hình khác học hỏi từ các ví dụ này và khái quát hóa cho các lệnh gọi công cụ chưa thấy.
Mỗi mục trong tập dữ liệu được cấu trúc dưới dạng một đối tượng JSON, chứa các cặp khóa-giá trị xác định câu hỏi (một truy vấn người dùng ngôn ngữ tự nhiên cho mô hình), công cụ chân lý cơ bản cần thiết để trả lời truy vấn người dùng, các đối số của nó (một từ điển chứa các tham số cần thiết để thực thi công cụ) và các ràng buộc bổ sung như order_matters: boolean
, cho biết liệu thứ tự của các đối số có quan trọng hay không và arg_pattern: optional
, một biểu thức chính quy (regex) để xác thực hoặc định dạng đối số. Các nhãn chân lý cơ bản này được sử dụng để giám sát việc đào tạo các mô hình Amazon Nova được đào tạo trước, điều chỉnh chúng để sử dụng công cụ. Quá trình này, được gọi là tinh chỉnh được giám sát, được khám phá thêm trong các phần sau.
Bộ đào tạo bao gồm 560 câu hỏi, trong khi bộ thử nghiệm chứa 120 câu hỏi. Bộ thử nghiệm được cấu trúc để bao gồm 15 câu hỏi trên mỗi danh mục công cụ, tổng cộng 120 câu hỏi.
Chuẩn Bị Tập Dữ Liệu cho Amazon Nova
Để sử dụng hiệu quả tập dữ liệu này với các mô hình Amazon Nova, cần phải định dạng dữ liệu theo một mẫu trò chuyện cụ thể. Gọi công cụ gốc kết hợp một lớp dịch thuật định dạng các đầu vào thành định dạng thích hợp trước khi chuyển chúng cho mô hình. Trong giải pháp này, một phương pháp sử dụng công cụ DIY được áp dụng, sử dụng một mẫu dấu nhắc tùy chỉnh. Cụ thể, dấu nhắc hệ thống, thông báo người dùng được nhúng với cấu hình công cụ và nhãn chân lý cơ bản phải được thêm vào làm thông báo trợ lý.
Tải Tập Dữ Liệu lên Amazon S3
Bước này rất cần thiết để cho phép Amazon Bedrock truy cập dữ liệu đào tạo trong quá trình tinh chỉnh. Tập dữ liệu có thể được tải lên thông qua bảng điều khiển Amazon Simple Storage Service (Amazon S3) hoặc theo chương trình.
Gọi Công Cụ với Mô Hình Cơ Sở Thông Qua API Amazon Bedrock
Với tập dữ liệu sử dụng công cụ được tạo và định dạng theo yêu cầu, nó có thể được sử dụng để kiểm tra các mô hình Amazon Nova. Cả hai API Converse và Invoke đều có thể được sử dụng để sử dụng công cụ trong Amazon Bedrock. API Converse cho phép các cuộc hội thoại động, nhận biết ngữ cảnh, cho phép các mô hình tham gia vào các cuộc đối thoại nhiều lượt, trong khi API Invoke cho phép người dùng gọi và tương tác với các mô hình cơ bản trong Amazon Bedrock.
Để sử dụng API Converse, các thông báo, dấu nhắc hệ thống (nếu có) và cấu hình công cụ được gửi trực tiếp đến API.
Để phân tích cú pháp công cụ và các đối số từ phản hồi LLM, hãy xem xét câu hỏi: “Chào, nhiệt độ ở Paris hiện tại là bao nhiêu?”. Đầu ra sẽ được phân tích cú pháp để xác định công cụ và các đối số cần thiết để trả lời câu hỏi.
Tinh Chỉnh Mô Hình Amazon Nova để Sử Dụng Công Cụ Nâng Cao
Tinh chỉnh là một bước quan trọng trong việc điều chỉnh các mô hình ngôn ngữ được đào tạo trước như Amazon Nova cho các tác vụ cụ thể. Bằng cách đào tạo mô hình trên một tập dữ liệu được điều chỉnh cho ứng dụng mong muốn, mô hình có thể học cách thực hiện tác vụ với độ chính xác và hiệu quả cao hơn. Trong bối cảnh sử dụng công cụ, tinh chỉnh có thể cải thiện đáng kể khả năng của mô hình để chọn công cụ thích hợp và trích xuất các đối số chính xác.
Quá trình tinh chỉnh liên quan đến việc điều chỉnh các tham số bên trong của mô hình để giảm thiểu sự khác biệt giữa các dự đoán của nó và các nhãn chân lý cơ bản trong tập dữ liệu đào tạo. Điều này thường đạt được thông qua một quá trình lặp đi lặp lại, trong đó mô hình liên tục tiếp xúc với dữ liệu đào tạo và các tham số của nó được điều chỉnh dựa trên các lỗi quan sát được.
Chuẩn Bị Tập Dữ Liệu Tinh Chỉnh
Tập dữ liệu tinh chỉnh nên được tuyển chọn cẩn thận để phản ánh các loại câu hỏi và lệnh gọi công cụ mà mô hình dự kiến sẽ xử lý trong các tình huống thực tế. Tập dữ liệu nên bao gồm một loạt các ví dụ đa dạng, bao gồm các danh mục công cụ và mẫu đối số khác nhau.
Mỗi ví dụ trong tập dữ liệu nên bao gồm một câu hỏi, công cụ tương ứng sẽ được gọi và các đối số cần thiết để thực thi công cụ. Các đối số nên được định dạng theo một cách có cấu trúc, thường là một đối tượng JSON.
Quy Trình Tinh Chỉnh
Quy trình tinh chỉnh có thể được thực hiện bằng cách sử dụng bảng điều khiển Amazon Bedrock hoặc API. Quy trình này bao gồm việc chỉ định mô hình sẽ được tinh chỉnh, tập dữ liệu tinh chỉnh và các tham số đào tạo mong muốn.
Các tham số đào tạo kiểm soát các khía cạnh khác nhau của quy trình tinh chỉnh, chẳng hạn như tốc độ học, kích thước lô và số lượng kỷ nguyên. Tốc độ học xác định độ lớn của các điều chỉnh tham số được thực hiện trong mỗi lần lặp. Kích thước lô xác định số lượng ví dụ được xử lý trong mỗi lần lặp. Số lượng kỷ nguyên xác định số lần mô hình tiếp xúc với toàn bộ tập dữ liệu đào tạo.
Đánh Giá Mô Hình Tinh Chỉnh
Sau khi quy trình tinh chỉnh hoàn tất, điều cần thiết là phải đánh giá hiệu suất của mô hình tinh chỉnh. Điều này có thể được thực hiện bằng cách kiểm tra mô hình trên một tập dữ liệu thử nghiệm riêng biệt không được sử dụng trong quy trình tinh chỉnh.
Tập dữ liệu thử nghiệm nên đại diện cho các loại câu hỏi và lệnh gọi công cụ mà mô hình dự kiến sẽ xử lý trong các tình huống thực tế. Hiệu suất của mô hình có thể được đánh giá bằng cách đo lường các chỉ số như độ chính xác, độ chính xác, độ thu hồi và điểm F1.
Lợi Ích của Việc Tùy Chỉnh Mô Hình Amazon Nova để Sử Dụng Công Cụ
Việc tùy chỉnh các mô hình Amazon Nova để sử dụng công cụ mang lại một số lợi ích:
- Độ Chính Xác Cải Thiện: Tinh chỉnh mô hình trên một tập dữ liệu dành riêng cho tác vụ có thể cải thiện đáng kể độ chính xác của việc lựa chọn công cụ và trích xuất đối số.
- Hiệu Quả Tăng Lên: Các mô hình tinh chỉnh thường có thể thực hiện các tác vụ sử dụng công cụ hiệu quả hơn các mô hình được đào tạo trước.
- Khả Năng Thích Ứng Nâng Cao: Tinh chỉnh cho phép mô hình thích ứng với các miền và trường hợp sử dụng cụ thể.
- Giảm Chi Phí: Trong một số trường hợp, tinh chỉnh có thể giảm tài nguyên tính toán cần thiết để thực hiện các tác vụ sử dụng công cụ.
Kết Luận
Việc tùy chỉnh các mô hình Amazon Nova để sử dụng công cụ là một kỹ thuật có giá trị để nâng cao hiệu suất và khả năng thích ứng của LLMs. Bằng cách tinh chỉnh mô hình trên một tập dữ liệu dành riêng cho tác vụ, các nhà phát triển có thể cải thiện đáng kể độ chính xác, hiệu quả và khả năng thích ứng của các ứng dụng sử dụng công cụ. Khi các ngành công nghiệp ngày càng yêu cầu các giải pháp AI có khả năng đưa ra các quyết định sáng suốt, việc tùy chỉnh LLMs để sử dụng công cụ sẽ ngày càng trở nên quan trọng.