sơ khai Các mô hình ngôn ngữ lớn (LLM) sẽ hỗ trợ các ứng dụng của tương lai như thế nào - Unite.AI
Kết nối với chúng tôi

Lãnh đạo tư tưởng

Các mô hình ngôn ngữ lớn (LLM) sẽ cung cấp năng lượng cho các ứng dụng của tương lai như thế nào

mm

Được phát hành

 on

AI sáng tạo và đặc biệt là hương vị ngôn ngữ của nó – ChatGPT ở khắp mọi nơi. Công nghệ Mô hình Ngôn ngữ Lớn (LLM) sẽ đóng một vai trò quan trọng trong việc phát triển các ứng dụng trong tương lai. Các LLM hiểu ngôn ngữ rất tốt do đã được đào tạo trước rộng rãi cho các mô hình nền tảng trên hàng nghìn tỷ dòng văn bản thuộc phạm vi công cộng, bao gồm cả mã. Các phương pháp như tinh chỉnh có giám sát và học tăng cường với phản hồi của con người (RLHF) làm cho các LLM này trở nên hiệu quả hơn trong việc trả lời các câu hỏi cụ thể và trò chuyện với người dùng. Khi chúng ta bước vào giai đoạn tiếp theo của các ứng dụng AI do LLM cung cấp – các thành phần chính sau đây sẽ rất quan trọng đối với các ứng dụng thế hệ tiếp theo này. Hình dưới đây cho thấy tiến trình này và khi bạn tiến lên trong chuỗi, bạn xây dựng thêm trí thông minh và quyền tự chủ trong các ứng dụng của mình. Hãy xem xét các cấp độ khác nhau này.

cuộc gọi LLM:

Đây là các cuộc gọi trực tiếp để hoàn thành hoặc các mô hình trò chuyện của nhà cung cấp LLM như Azure OpenAI hoặc Google PaLM hoặc Amazon Bedrock. Các cuộc gọi này có một lời nhắc rất cơ bản và chủ yếu sử dụng bộ nhớ trong của LLM để tạo đầu ra.

Ví dụ: Yêu cầu một mô hình cơ bản như “text-davinci” để “kể một câu chuyện cười”. Bạn cung cấp rất ít bối cảnh và mô hình dựa vào bộ nhớ được đào tạo trước bên trong để đưa ra câu trả lời (được đánh dấu bằng màu xanh lục trong hình bên dưới – sử dụng Azure OpenAI).

Nhắc nhở:

Mức độ thông minh tiếp theo là thêm ngày càng nhiều ngữ cảnh vào lời nhắc. Có những kỹ thuật dành cho kỹ thuật nhanh chóng có thể được áp dụng cho các LLM có thể khiến chúng đưa ra phản hồi tùy chỉnh. Ví dụ: khi tạo email cho người dùng, một số ngữ cảnh về người dùng, các giao dịch mua trước đây và mẫu hành vi có thể đóng vai trò là lời nhắc để tùy chỉnh email tốt hơn. Người dùng quen thuộc với ChatGPT sẽ biết các phương pháp nhắc nhở khác nhau như đưa ra các ví dụ được LLM sử dụng để xây dựng phản hồi. Nhắc tăng cường bộ nhớ trong của LLM với ngữ cảnh bổ sung. Ví dụ dưới đây.

nhúng:

Tính năng nhúng đưa lời nhắc lên cấp độ tiếp theo bằng cách tìm kiếm ngữ cảnh trong kho kiến ​​thức và lấy ngữ cảnh đó cũng như nối thêm vào lời nhắc. Ở đây, bước đầu tiên là tạo một kho lưu trữ tài liệu lớn với văn bản phi cấu trúc có thể tìm kiếm được bằng cách lập chỉ mục văn bản và điền vào cơ sở dữ liệu vectơ. Đối với điều này, một mô hình nhúng như 'ada' của OpenAI được sử dụng để lấy một đoạn văn bản và chuyển đổi nó thành một vectơ n chiều. Các phần nhúng này nắm bắt ngữ cảnh của văn bản, vì vậy các câu tương tự sẽ có các phần nhúng gần nhau trong không gian vectơ. Khi người dùng nhập một truy vấn, truy vấn đó cũng được chuyển đổi thành nhúng và vectơ đó được so khớp với các vectơ trong cơ sở dữ liệu. Do đó, chúng tôi nhận được 5 hoặc 10 đoạn văn bản phù hợp hàng đầu cho truy vấn tạo thành ngữ cảnh. Truy vấn và bối cảnh được chuyển đến LLM để trả lời câu hỏi theo cách giống như con người.

Chuỗi:

Ngày nay, Chains là công nghệ hoàn thiện và tiên tiến nhất hiện có đang được sử dụng rộng rãi để xây dựng các ứng dụng LLM. Các chuỗi có tính xác định trong đó một chuỗi các cuộc gọi LLM được kết hợp với nhau với đầu ra từ một dòng chảy vào một trong nhiều LLM. Ví dụ: chúng tôi có thể yêu cầu cuộc gọi LLM truy vấn cơ sở dữ liệu SQL và nhận danh sách email của khách hàng và gửi danh sách đó đến một LLM khác sẽ tạo email được cá nhân hóa cho Khách hàng. Các chuỗi LLM này có thể được tích hợp trong các luồng ứng dụng hiện có để tạo ra các kết quả có giá trị hơn. Bằng cách sử dụng chuỗi, chúng tôi có thể tăng cường các lệnh gọi LLM bằng các đầu vào bên ngoài như lệnh gọi API và tích hợp với biểu đồ tri thức để cung cấp ngữ cảnh. Hơn nữa, ngày nay với nhiều nhà cung cấp LLM có sẵn như OpenAI, AWS Bedrock, Google PaLM, MosaicML, v.v., chúng tôi có thể kết hợp và kết hợp các cuộc gọi LLM thành chuỗi. Đối với các phần tử chuỗi có trí thông minh hạn chế, có thể sử dụng LLM thấp hơn như 'gpt3.5-turbo' trong khi đối với các tác vụ nâng cao hơn, 'gpt4' có thể được sử dụng. Chuỗi cung cấp một bản tóm tắt cho dữ liệu, ứng dụng và cuộc gọi LLM.

Đại lý:

Đặc vụ là một chủ đề của nhiều cuộc tranh luận trực tuyến, đặc biệt liên quan đến trí tuệ nhân tạo chung (AGI). Nhân viên hỗ trợ sử dụng LLM nâng cao như 'gpt4' hoặc 'PaLM2' để lập kế hoạch cho các tác vụ thay vì có các chuỗi được xác định trước. Vì vậy, bây giờ khi có yêu cầu của người dùng, dựa trên truy vấn, tác nhân quyết định nhóm nhiệm vụ nào sẽ gọi và tự động xây dựng chuỗi. Ví dụ: khi chúng tôi định cấu hình một tác nhân có lệnh như “thông báo cho khách hàng khi APR của khoản vay thay đổi do cập nhật quy định của chính phủ”. Khung đại lý thực hiện cuộc gọi LLM để quyết định các bước cần thực hiện hoặc xây dựng chuỗi. Ở đây, nó sẽ liên quan đến việc gọi một ứng dụng loại bỏ các trang web theo quy định và trích xuất tỷ lệ APR mới nhất, sau đó cuộc gọi LLM tìm kiếm cơ sở dữ liệu và trích xuất các email của khách hàng bị ảnh hưởng và cuối cùng là một email được tạo để thông báo cho mọi người.

Kết luận:

LLM là một công nghệ đang phát triển cao và các mô hình và ứng dụng tốt hơn đang được tung ra hàng tuần. LLM đến Đại lý là bậc thang thông minh và khi chúng tôi tiến lên, chúng tôi xây dựng các ứng dụng tự trị phức tạp. Các mô hình tốt hơn sẽ có nghĩa là các tác nhân hiệu quả hơn và các ứng dụng thế hệ tiếp theo sẽ được cung cấp bởi các tác nhân này. Thời gian sẽ cho biết các ứng dụng thế hệ tiếp theo sẽ tiên tiến đến mức nào và chúng sẽ được hỗ trợ bởi những mẫu nào.

Dattaraj Rao, Nhà khoa học dữ liệu trưởng tại Hệ thống liên tục, là tác giả của cuốn sách “Keras to Kubernetes: The Journey of a Machine Learning Model to Production.” Tại Persistent Systems, Dattaraj lãnh đạo Phòng thí nghiệm nghiên cứu AI khám phá các thuật toán tiên tiến nhất trong Thị giác máy tính, Hiểu ngôn ngữ tự nhiên, Lập trình xác suất, Học tăng cường, AI có thể giải thích, v.v. và chứng minh khả năng ứng dụng trong các lĩnh vực Chăm sóc sức khỏe, Ngân hàng và Công nghiệp. Dattaraj có 11 bằng sáng chế về Machine Learning và Computer Vision.