Asset 15

Cách vận hành các ứng dụng GenAI với Apigee

Asset 15

Generative AI đã vượt qua giai đoạn “hype” và được áp dụng thực tế, nhưng các doanh nghiệp thường gặp phải thách thức trong việc quản lý, bảo mật và mở rộng các triển khai LLM, đặc biệt là API. Các câu hỏi thường gặp bao gồm: làm thế nào để bảo vệ tổ chức, kiểm soát chi phí khi mở rộng LLM, theo dõi việc sử dụng và cung cấp trải nghiệm người dùng tốt nhất? Dưới đây là cách Apigee giúp giải quyết các vấn đề liên quan đến LLM APIs và cung cấp bộ giải pháp tham khảo để triển khai. Cùng Cloud Ace tìm hiểu nhé

Apigee - nền tảng quản lý API của Google Cloud, giúp giải quyết các thách thức này bằng cách bảo mật, mở rộng và quản lý các GenAI Agent và LLM thông qua tính năng xác thực, kiểm soát lưu lượng và thực thi chính sách. Apigee cũng hỗ trợ tích hợp với hệ thống bên ngoài để đáp ứng yêu cầu người dùng. 

Apigee as a proxy for agents

AI Agent khai thác sức mạnh của LLM để thực hiện nhiệm vụ cho end user. Các agent này có thể được xây dựng bằng nhiều công cụ khác nhau, từ nền tảng no-code, low-code đến các framework như LangChain hoặc LlamaIndex. Apigee đóng vai trò là cầu nối giữa các ứng dụng AI và các agent, giúp tăng cường bảo mật bằng cách bảo vệ API LLM khỏi các rủi ro hàng đầu theo OWASP, quản lý xác thực và ủy quyền người dùng, đồng thời tối ưu hóa hiệu suất với bộ nhớ đệm ngữ nghĩa (semantic caching). Bên cạnh đó, Apigee còn kiểm soát chi phí thông qua giới hạn token và điều phối các tương tác giữa nhiều agent AI trong các trường hợp sử dụng nâng cao.

Apigee as a gateway between LLM application and models

AI Agent có thể cần sử dụng nhiều LLM khác nhau tùy vào nhiệm vụ. Apigee tối ưu hóa quá trình này bằng cách định tuyến thông minh, quản lý chuyển đổi dự phòng và kiểm soát quyền truy cập. Ngoài LLM, các agent còn cần kết nối với cơ sở dữ liệu và hệ thống bên ngoài để đáp ứng nhu cầu người dùng. Apigee giúp quản lý, bảo mật các API này thông qua API. Đối với các tích hợp phức tạp, người dùng có thể tận dụng Google Cloud’s Application Integration platform để mở rộng khả năng kết nối và xử lý dữ liệu.

Không có mô hình cố định cho mọi trường hợp, kiến trúc tương tác giữa agent và LLM phụ thuộc vào nhu cầu cụ thể. Không phải lúc nào cũng cần định tuyến yêu cầu đến nhiều LLM - trong một số trường hợp, có thể kết nối trực tiếp với cơ sở dữ liệu và hệ thống bên ngoài từ Apigee agent proxy layer. Apigee cung cấp sự linh hoạt để tùy chỉnh kiến trúc theo yêu cầu.

Dưới đây là các lĩnh vực Apigee hỗ trợ:

AI safety

Đối với bất kỳ API nào được quản lý bằng Apigee, người dùng đều có thể sử dụng Model Armor, giải pháp bảo mật của Google Cloud giúp kiểm tra các yêu cầu và phản hồi để ngăn chặn các cuộc tấn công tiềm ẩn, đảm bảo LLM hoạt động trong phạm vi bảo vệ được thiết lập.

VD: hạn chế phản hồi các thông tin tài chính, chính trị

Latency & cost

Độ trễ phản hồi là thách thức khi xây dựng ứng dụng LLM. Apigee giảm thiểu thời gian chờ bằng semantic cache, lưu trữ và truy xuất phản hồi cho các câu hỏi tương tự.

Giải pháp sử dụng Vertex AI Vector SearchVertex AI Embeddings API để xử lý các yêu cầu, nhận diện câu hỏi tương tự và truy xuất phản hồi từ bộ nhớ đệm.

Performance

Mỗi mô hình phù hợp với những nhiệm vụ khác nhau. Gemini Pro mang lại câu trả lời chất lượng cao, trong khi Gemini Flash tối ưu về tốc độ và hiệu quả. Người dùng có thể định tuyến yêu cầu đến mô hình phù hợp qua API call, và Apigee sẽ tự động chuyển đến mô hình mong muốn, đảm bảo hợp đồng API luôn nhất quán.

Distribution & usage limits

Với Apigee, người dùng có thể tạo cổng thông tin thống nhất để truy cập vào tất cả các mô hình trong doanh nghiệp và thiết lập giới hạn sử dụng theo từng ứng dụng, developer để kiểm soát chi phí.

Availability

Do suy luận LLM yêu cầu tính toán cao, các nhà cung cấp mô hình giới hạn số lượng token trong một khoảng thời gian. Khi đạt giới hạn, yêu cầu từ ứng dụng sẽ bị hạn chế. Để tránh điều này, người dùng có thể triển khai bộ ngắt mạch trong Apigee, định tuyến yêu cầu đến mô hình có dung lượng khả dụng.

Reporting

Với vai trò nhóm nền tảng, người dùng cần theo dõi cách các mô hình được sử dụng và ứng dụng tiêu thụ bao nhiêu token.

Apigee cho phép xây dựng trang tổng quan để theo dõi mức sử dụng token, giúp báo cáo chi phí hoặc tối ưu hóa.

Auditing & troubleshooting

Với Apigee, người dùng có thể ghi lại mọi tương tác với LLM (các yêu cầu, phản hồi, dữ liệu RAG) qua Cloud Logging, hủy nhận dạng và kiểm tra từ giao diện quen thuộc, để tuân thủ yêu cầu hoặc khắc phục sự cố, phân tích chất lượng phản hồi để cải thiện ứng dụng LLM.

Security

Apigee bảo vệ API LLM bằng cách kiểm soát quyền truy cập qua API keys, OAuth 2.0 và xác thực JWT, áp dụng giới hạn tỷ lệ và hạn mức, tạo chính sách kiểm soát mô hình sử dụng.

Advanced API Security nâng cao giúp bảo vệ khỏi các lỗ hổng bảo mật OWASP Top 10, tạo môi trường an toàn cho ứng dụng AI.

Asset 15

Cloud Ace - Managed Service Partner của Google Cloud

  • Trụ sở: Tòa Nhà H3, Lầu 1, 384 Hoàng Diệu, Phường 6, Quận 4, TP. HCM.
  • Văn phòng đại diện: Tầng 2, 25t2 Hoàng Đạo Thúy, Phường Trung Hoà, Quận Cầu Giấy, Thành phố Hà Nội.
  • Email: sales.vn@cloud-ace.com
  • Hotline: 028 6686 3323
  • Website: https://vn.cloud-ace.com/

Tin tức liên quan

Shopping Basket
viVietnamese