Connect with us

Kỹ thuật prompt

Hướng Dẫn Cơ Bản Về Kỹ Thuật Lập Prompt Trong ChatGPT

mm

Kể từ khi ra mắt, ChatGPT đã tạo ra sóng gió trong lĩnh vực AI, thu hút hơn 100 triệu người dùng trong thời gian ngắn. Bí quyết thành công và tính linh hoạt của ChatGPT nằm ở một nghệ thuật tinh tế được lồng ghép trong lập trình của nó – kỹ thuật lập prompt.

Ra mắt vào năm 2022, DALL-E, MidJourney và StableDiffusion đã nhấn mạnh tiềm năng phá vỡ của Trí tuệ nhân tạo sinh (Generative AI). Nhưng chính Open AI với ChatGPT đã thực sự chiếm lĩnh sân khấu vào cuối năm 2022. Và động lực này không có dấu hiệu chậm lại.

Thông báo của Google về Bardđáp ứng của Meta với Lamma 2 đối với ChatGPT của OpenAI đã tăng cường đáng kể động lực của cuộc đua AI. Bằng cách cung cấp các mô hình này với đầu vào, chúng ta đang hướng dẫn hành vi và phản hồi của chúng. Điều này khiến chúng ta đều trở thành kỹ sư lập prompt ở một mức độ nhất định. Ngành công nghệ đã chú ý đến điều này. Các nhà đầu tư mạo hiểm đang đổ tiền vào các công ty khởi nghiệp tập trung vào kỹ thuật lập prompt, như Vellum AI. Hơn nữa, Forbes báo cáo rằng các kỹ sư lập prompt kiếm lương vượt quá 300.000 đô la, cho thấy một thị trường việc làm đầy triển vọng và có giá trị.

Trong bài viết này, chúng ta sẽ làm sáng tỏ thế giới của kỹ thuật lập prompt trong bối cảnh ChatGPT. Chúng ta sẽ khám phá các nguyên tắc và kỹ thuật cốt lõi, và kiểm tra các ứng dụng thương mại của chúng.

Hãy bắt đầu bằng cách hiểu cách ChatGPT hoạt động và vai trò quan trọng của kỹ thuật lập prompt trong quá trình này.

Cơ Chế Đằng Sau Kỹ Thuật Lập Prompt ChatGPT

Bí quyết thành công của ChatGPT là khả năng hiểu và bắt chước sự tinh tế của cuộc trò chuyện con người. Mô hình này được đào tạo trên một loạt các văn bản internet đa dạng, nhưng quan trọng là, nó không biết các tài liệu hoặc nguồn cụ thể trong tập dữ liệu đào tạo, đảm bảo sự tổng quát hóa hơn là sự cụ thể. Cách tiếp cận đào tạo này cho phép ChatGPT tạo ra các phản hồi sáng tạo, điều hướng các cuộc đối thoại phức tạp, và thậm chí thể hiện một cảm giác về幽默. Tuy nhiên, điều quan trọng cần nhớ là ChatGPT không thực sự hiểu hoặc có niềm tin; nó tạo ra phản hồi dựa trên các mẫu nó đã học được trong quá trình đào tạo.

Khả năng của ChatGPT để hiểu và phản hồi ngôn ngữ con người một cách tinh tế và nhận thức về bối cảnh làm cho nó trở thành một công cụ cực kỳ linh hoạt.

Cơ chế của các mô hình này dựa trên khái niệm ‘tokens’ – các khối ngôn ngữ rời rạc có thể dao động từ một ký tự đơn đến một từ hoàn chỉnh. Các mô hình này làm việc với một số lượng tokens cụ thể tại một thời điểm (4096 cho GPT-3.5-Turbo hoặc 8192 hoặc 32768 cho GPT-4), dự đoán chuỗi tokens tiếp theo có khả năng xảy ra. Các mô hình xử lý tokens bằng cách sử dụng đại số tuyến tính phức tạp, dự đoán token tiếp theo có khả năng xảy ra nhất.


ChatGPT Tokenizer - Kỹ Thuật Lập Prompt - Unite AI

Ví dụ, một câu đơn giản gồm chín từ có thể trở thành mười tokens. Thậm chí một từ phức tạp đơn giản cũng có thể trở thành nhiều tokens, giúp mô hình hiểu và tạo ra ngôn ngữ tốt hơn. Ngay cả các ngôn ngữ có cấu trúc từ phức tạp, như tiếng Đức, cũng được quản lý thông qua quá trình tạo token.

kỹ thuật lập prompt - Hình minh họa mô hình ngôn ngữ lớn và dự đoán token

 

Mô hình GPT (Generative Pre-trained Transformer) hoạt động bằng cách tạo ra một token tại một thời điểm, bắt đầu từ token đầu tiên và tiếp tục cho đến token cuối cùng. Sau khi tạo ra mỗi token, mô hình quay lại toàn bộ chuỗi và xử lý lại để tạo ra token tiếp theo. Quá trình lặp này tiếp tục cho đến khi token cuối cùng được tạo ra, làm cho việc tạo văn bản tương tự như một vòng lặp lớn.

Nhưng đây là điều quan trọng – chất lượng của các phản hồi này phụ thuộc rất nhiều vào các prompt nó nhận được. Giống như việc điều khiển một cuộc trò chuyện với con người, việc hướng dẫn một cuộc đối thoại với ChatGPT đòi hỏi một mức độ kỹ năng và hiểu biết nhất định. Đó là nơi kỹ thuật lập prompt phát huy tác dụng.

Kỹ Thuật Lập Prompt Là Gì?

Kỹ thuật lập prompt là nghệ thuật tạo ra các prompt/input chính xác, hiệu quả để hướng dẫn các mô hình AI (NLP/Vision) như ChatGPT tạo ra các đầu ra hữu ích, chính xác, hữu ích và an toàn.

Kỹ thuật lập prompt không chỉ giới hạn ở việc tạo văn bản mà còn có ứng dụng rộng rãi trong lĩnh vực AI. Nó đang ngày càng được sử dụng trong các lĩnh vực như tự động hóa quy trình robot, tài sản 3D, kịch bản, hướng dẫn robot và các loại nội dung và phương tiện kỹ thuật số khác. Nó cung cấp một sự kết hợp độc đáo của logic, mã hóa, nghệ thuật và trong một số trường hợp, các bộ điều chỉnh đặc biệt.

Trong khi một prompt có thể bao gồm văn bản ngôn ngữ tự nhiên, hình ảnh hoặc các loại dữ liệu đầu vào khác, đầu ra có thể thay đổi đáng kể trên các dịch vụ và công cụ AI. Mỗi công cụ có các bộ điều chỉnh đặc biệt mô tả trọng lượng của từ, phong cách, quan điểm, bố cục hoặc các thuộc tính khác của phản hồi mong muốn.

Lĩnh vực này là rất quan trọng để tạo ra các dịch vụ AI tốt hơn và đạt được kết quả vượt trội từ các công cụ AI sinh (Generative AI) hiện có. Các nhà phát triển doanh nghiệp, ví dụ, thường sử dụng kỹ thuật lập prompt để tùy chỉnh các Mô hình Ngôn ngữ Lớn (LLM) như GPT-3 để cung cấp năng lượng cho một rô-bốt trò chuyện hướng đến khách hàng hoặc xử lý các nhiệm vụ như tạo hợp đồng ngành cụ thể.

Quá trình lặp này của việc tinh chỉnh prompt và đo lường hiệu suất AI là một yếu tố quan trọng trong việc cho phép các mô hình AI tạo ra các phản hồi mục tiêu, hữu ích trong các bối cảnh khác nhau.

Trở Thành Một Kỹ Sư Lập Prompt

Mô hình GPT-4 có khả năng hiểu và giải quyết các hướng dẫn phức tạp và chính xác, làm cho nó trở thành một tài nguyên vô giá. Tuy nhiên, có các phương pháp khác nhau để truy cập khả năng của mô hình này, và việc hiểu các phương pháp này có thể là rất quan trọng đối với vai trò của kỹ sư lập prompt trong việc tối ưu hóa cả hiệu quả và chi phí.

Có hai cách cơ bản để tương tác với các mô hình GPT như GPT-4. Một cách là thông qua API của OpenAI, nơi chi phí được tính theo từng token đầu vào và đầu ra. Trong kịch bản này, chi phí cho mỗi 1K tokens có thể thay đổi dựa trên kích thước bối cảnh. Ví dụ, trong một bối cảnh lớn hơn 32K, chi phí có thể lên tới 0,06 đô la cho tokens đầu vào và 0,12 đô la cho tokens đầu ra. Do đó, khi xử lý một lượng lớn yêu cầu, chi phí sử dụng có thể nhanh chóng tích lũy.

Một cách khác, ChatGPT, tận dụng mô hình GPT-4, hoạt động trên một mô hình đăng ký.

Một nhiệm vụ quan trọng khác trong kỹ thuật lập prompt liên quan đến việc điều chỉnh tham số mô hình. Quá trình này bao gồm việc điều chỉnh các biến mà mô hình sử dụng để đưa ra dự đoán. Bằng cách tinh chỉnh các tham số này, các kỹ sư lập prompt có thể cải thiện chất lượng và độ chính xác của phản hồi của mô hình, làm cho chúng trở nên phù hợp và hữu ích hơn.

Mặc dù nhiều kỹ sư lập prompt đến từ một nền tảng công nghệ, nhưng bản chất đa ngành của lĩnh vực này làm cho nó có thể tiếp cận được với các cá nhân từ nhiều nền tảng chuyên môn khác nhau. Ngày càng nhiều, các nhà văn, nhà nghiên cứu và thậm chí các nghệ sĩ đang tận dụng các kỹ năng độc đáo của họ để tăng cường hiệu quả của các mô hình AI. Sự thay đổi này được phản ánh trong thị trường việc làm cũng như, với số lượng ngày càng tăng các công ty đang tìm kiếm các kỹ sư lập prompt với một loạt các kỹ năng và nền tảng.

Thiết Kế Và Kỹ Thuật Lập Prompt Trong ChatGPT

Thiết kế và kỹ thuật lập prompt đóng vai trò quan trọng trong việc tối ưu hóa hiệu suất của các mô hình ngôn ngữ và bao gồm nhiều hơn là chỉ việc tạo ra các câu hỏi; chúng đòi hỏi một sự hiểu biết sâu sắc về mô hình AI và một cách tiếp cận tinh chỉnh và lặp lại.

Ví dụ về prompt trong ChatGPT - Kỹ Thuật Lập Prompt - Unite AI

Thiết Kế Prompt

Thiết kế prompt, ở cốt lõi, là nghệ thuật và khoa học tạo ra prompt hoàn hảo cho một mô hình ngôn ngữ lớn (LLM) nhất định, như ChatGPT, để đạt được một mục tiêu rõ ràng. Đó là sự kết hợp của:

  • Hiểu biết về LLM: Các mô hình ngôn ngữ khác nhau có thể phản hồi khác nhau với cùng một prompt. Hơn nữa, một số mô hình ngôn ngữ có thể có các từ khóa hoặc kích hoạt cụ thể mà chúng giải thích theo một cách cụ thể.
  • Kiến thức về lĩnh vực: Chuyên môn trong lĩnh vực liên quan là rất quan trọng khi thiết kế các prompt. Ví dụ, tạo ra một prompt để suy luận một chẩn đoán y tế sẽ đòi hỏi kiến thức y tế.
  • Quy trình lặp và đo lường chất lượng: Quá trình tạo ra prompt lý tưởng thường bao gồm thử nghiệm và sai sót. Do đó, việc có một cách để đánh giá chất lượng đầu ra ngoài việc chỉ dựa vào phán đoán chủ quan là rất quan trọng, đặc biệt khi sử dụng prompt ở quy mô lớn.

Kỹ Thuật Lập Prompt

Kỹ thuật lập prompt là một lĩnh vực mở rộng của thiết kế prompt, bao gồm một số quá trình quan trọng:

  • Thiết kế các prompt ở quy mô lớn: Quá trình này bao gồm thiết kế các prompt siêu cấp (các prompt tạo ra các prompt khác) và các mẫu prompt, là các prompt được tham số hóa có thể được khởi tạo tại thời điểm chạy.
  • Thiết kế công cụ và tích hợp: Các prompt đôi khi có thể bao gồm kết quả từ các công cụ bên ngoài, và việc tích hợp các công cụ này một cách liền mạch vào hệ thống là rất quan trọng.
  • Quy trình làm việc, lập kế hoạch và quản lý prompt: Triển khai một ứng dụng LLM, như một rô-bốt trò chuyện, thường đòi hỏi quản lý các thư viện prompt, lập kế hoạch và chọn các prompt phù hợp, và tích hợp hiệu quả các công cụ khác nhau.
  • Đánh giá và đảm bảo chất lượng của các prompt: Khía cạnh này bao gồm việc xác định các chỉ số và quy trình để đánh giá các prompt cả tự động và với sự tham gia của con người.
  • Tối ưu hóa prompt: Chi phí và độ trễ của mô hình AI có thể phụ thuộc vào việc chọn mô hình và độ dài của prompt (số tokens).

Nhiều cách tiếp cận thiết kế prompt tự động, công cụ và khuôn khổ đã được phát triển để quản lý các prompt ở quy mô lớn. Tuy nhiên, điều quan trọng là cần hiểu rằng không có công cụ nào có thể thay thế sự hiểu biết tinh tế, phán đoán và kinh nghiệm của một kỹ sư lập prompt có kinh nghiệm.

Kỹ Thuật Lập Prompt: Kỹ Thuật Và Thực Hành Tốt Nhất

1) Vị Trí Và Mô Tả Prompt

Việc đặt các hướng dẫn ở đầu prompt có thể ảnh hưởng đáng kể đến sự hiểu biết và phản hồi của AI. Hãy xem xét nhiệm vụ tóm tắt một văn bản dưới dạng danh sách các điểm chính.

Một cách tiếp cận ít hiệu quả hơn sẽ là:

Người dùng: Tóm tắt văn bản dưới đây dưới dạng danh sách các điểm chính.
{text input ở đây}

Mặt khác, một kỹ thuật hiệu quả hơn có thể là:

Người dùng: Tóm tắt văn bản dưới đây dưới dạng danh sách các điểm chính.
Văn bản: “””
{text input ở đây}
“””

Bằng cách tách biệt rõ ràng các hướng dẫn và bối cảnh với các ký hiệu như ### hoặc “”, mô hình AI có thể phân biệt rõ ràng nhiệm vụ của nó và văn bản nó cần xử lý, từ đó đưa ra phản hồi chính xác và phù hợp hơn.

Thứ hai, việc cụ thể, mô tả và chi tiết về bối cảnh, kết quả mong muốn, độ dài, định dạng, phong cách và như vậy có thể tăng cường đáng kể độ chính xác của phản hồi AI.

Giả sử bạn cần tạo một bản tóm tắt ngắn gọn về một bài báo khoa học trong một phong cách hấp dẫn và dễ hiểu. Một hướng dẫn mơ hồ như “Tóm tắt bài báo khoa học” sẽ mang lại kết quả kém hiệu quả hơn so với một hướng dẫn cụ thể, chi tiết:

Người dùng: Tạo một bản tóm tắt ngắn gọn (khoảng 200 từ) về bài báo khoa học dưới đây. Bản tóm tắt nên dễ hiểu đối với người không có nền tảng khoa học, đồng thời phản ánh chính xác các phát hiện chính của bài báo.
Bài báo: “””
{văn bản bài báo khoa học ở đây}
“””

2) Mẫu Persona

Mẫu Persona là một chiến lược đặt AI hoạt động từ một quan điểm nhất định, chẳng hạn như một vai trò chuyên nghiệp hoặc một nhân vật hư cấu. Chiến lược này cho phép mô hình cung cấp đầu ra liên quan đến các vai trò cụ thể mà nhân vật đó sẽ xử lý.

Lấy ví dụ:

Người dùng: “Hãy giả định vai trò của một nhà sử học cao cấp chuyên về Cách mạng Pháp. Với vai trò đó, hãy giải thích các sự kiện và lý do chính dẫn đến sự sụp đổ của chế độ quân chủ Pháp.”

Trong kịch bản này, AI được yêu cầu phản hồi với một phân tích sâu sắc về Cách mạng Pháp, tập trung vào sự sụp đổ của chế độ quân chủ, như một nhà sử học sẽ làm.

Giới Thiệu Thông Tin Mới

ChatGPT không có kiến thức vượt quá thời điểm đào tạo, do đó nó không thể cung cấp thông tin về các sự kiện gần đây hoặc cập nhật sau thời điểm đào tạo. Tuy nhiên, bạn có thể giới thiệu thông tin mới cho mô hình thông qua các prompt của mình.

Người dùng: “Cryptocurrency là gì?”
ChatGPT: “Cryptocurrency là một loại tiền tệ kỹ thuật số hoặc ảo sử dụng mật mã để đảm bảo an ninh. Loại cryptocurrency nổi tiếng nhất là Bitcoin.”

Bây giờ, nếu chúng ta thêm một chút bối cảnh vào prompt, chúng ta có thể làm cho giải thích trở nên trực quan hơn:

Người dùng: “Giải thích khái niệm cryptocurrency cho một học sinh trung học đang học về tài chính kỹ thuật số”
“Hãy tưởng tượng bạn đang chơi một trò chơi trực tuyến và có tiền trong trò chơi mà bạn có thể kiếm được để mua nâng cấp hoặc nhân vật mới. Cryptocurrency giống như vậy, nhưng thay vì chỉ giới hạn trong trò chơi, bạn có thể sử dụng nó để mua hàng hóa và dịch vụ trong thế giới thực.”

3) Giới Hạn Kích Cỡ Prompt

Hiểu về giới hạn kích thước của ChatGPT là rất quan trọng vì nó ảnh hưởng trực tiếp đến lượng và loại thông tin chúng ta có thể nhập. Các mô hình ngôn ngữ không được thiết kế để xử lý dữ liệu không giới hạn cùng một lúc. Chúng có một hạn chế nội tại về kích thước của prompt mà chúng ta có thể tạo và nhập. Giới hạn này có ý nghĩa sâu sắc đối với việc thiết kế và thực hiện các prompt.

ChatGPT có một giới hạn token (thường là 2048 tokens), bao gồm cả prompt và phản hồi được tạo. Điều này có nghĩa là các prompt dài có thể hạn chế độ dài của phản hồi. Do đó, điều quan trọng là phải giữ cho các prompt ngắn gọn nhưng đầy đủ thông tin.

Trong sử dụng thực tế, chúng ta phải đóng vai trò như các biên tập viên, chọn lọc thông tin phù hợp nhất cho nhiệm vụ tại hand. Hãy tưởng tượng viết một bài báo hoặc một bài viết với một giới hạn từ hoặc trang – bạn không thể chỉ đổ ra các事 thực ngẫu nhiên, nhưng phải chọn lọc và cấu trúc thông tin liên quan đến chủ đề.

Người dùng: “Với giới hạn token của mô hình, hãy tóm tắt các sự kiện chính của Thế chiến II trong ít hơn 1000 từ.”

Bằng cách công nhận giới hạn token của mô hình, prompt này hướng dẫn AI cung cấp một bản tóm tắt ngắn gọn nhưng toàn diện về Thế chiến II.

Các prompt cho sử dụng lặp lại: Trong một kịch bản đối thoại, bạn có thể tái sử dụng các prompt hoặc tinh chỉnh chúng dựa trên các phản hồi trước. Điều này mang lại một dòng chảy đối thoại và duy trì bối cảnh trong quá trình tương tác.

4) Mẫu Câu Hỏi Tinh Chỉnh

ChatGPT cũng có thể giúp tinh chỉnh các câu hỏi của bạn. Ví dụ, nếu bạn hỏi một câu hỏi, nó có thể đề xuất một câu hỏi được hình thành tốt hơn để có kết quả chính xác hơn.

Mẫu Câu Hỏi Tinh Chỉnh liên quan đến việc LLM tinh chỉnh các câu hỏi được người dùng hỏi. Điều này đặc biệt hữu ích khi người dùng không phải là chuyên gia trong một lĩnh vực hoặc không chắc chắn về cách đặt câu hỏi của họ.

Một ví dụ về prompt có thể trông như thế này:

Người dùng: “Bất cứ khi nào tôi hỏi một câu hỏi về khoa học dữ liệu, hãy đề xuất một câu hỏi được tinh chỉnh hơn, xem xét các khía cạnh phân tích thống kê cụ thể và hỏi xem tôi có muốn tiếp tục với câu hỏi được tinh chỉnh hay không.”

Tại đây, AI được mong đợi sẽ tinh chỉnh các câu hỏi khoa học dữ liệu chung của người dùng thành các câu hỏi chi tiết hơn, xem xét các khía cạnh phân tích thống kê.

5) Mẫu Xác Minh Nhận Thức

Mẫu Xác Minh Nhận Thức chia nhỏ các câu hỏi phức tạp thành các câu hỏi con nhỏ hơn, dễ quản lý. Các câu trả lời cho các câu hỏi con này sau đó được kết hợp để cung cấp một câu trả lời toàn diện cho câu hỏi chính. Cách tiếp cận này hữu ích khi các câu hỏi ban đầu quá rộng hoặc khi cần thêm sự rõ ràng để cung cấp một câu trả lời đầy đủ.

Ví dụ:

Người dùng: “Nếu tôi hỏi một câu hỏi về biến đổi khí hậu, hãy chia nó thành ba câu hỏi nhỏ hơn có thể giúp bạn cung cấp một câu trả lời chính xác hơn. Hãy kết hợp các câu trả lời cho các câu hỏi con này để đưa ra câu trả lời cuối cùng.”

Trong kịch bản này, AI sẽ chia câu hỏi phức tạp về biến đổi khí hậu thành ba câu hỏi con có thể quản lý được. Sau khi nhận được câu trả lời cho các câu hỏi con, AI sẽ kết hợp chúng để cung cấp một phản hồi toàn diện và chính xác hơn.

Cách tiếp cận này liên quan đến việc tạo ra nhiều câu hỏi để có được một câu trả lời cuối cùng chính xác hơn. Đó là một quá trình xác minh và củng cố thông tin để có một đầu ra cuối cùng vững chắc.

6) Cách Tiếp Cận Few-Shot Prompting

Few-Shot Prompting là một cách tiếp cận mạnh mẽ để dạy các mô hình AI tuân theo các mẫu cụ thể hoặc thực hiện các nhiệm vụ. Ý tưởng là cung cấp cho mô hình một số ví dụ trước khi hỏi câu hỏi mong muốn. Điều này giúp thiết lập hành vi mong muốn và hướng dẫn phản hồi của mô hình.

Hãy xem xét một kịch bản trong đó người dùng đang cố gắng soạn một bản sao tiếp thị hấp dẫn và ngắn gọn cho một thiết bị công nghệ mới:

Người dùng: “Dưới đây là một số ví dụ về bản sao tiếp thị công nghệ: ‘Trải nghiệm âm nhạc như chưa từng có với tai nghe không dây tiên tiến của chúng tôi.’ ‘Chụp thế giới của bạn với máy ảnh hành động siêu mỏng của chúng tôi ở độ phân giải 4K.’ Dựa trên các ví dụ này, hãy soạn một bản sao tiếp thị cho đồng hồ thông minh AI mới của chúng tôi.”

ChatGPT: “Tăng cường lối sống của bạn với đồng hồ thông minh AI của chúng tôi, người bạn đồng hành của bạn cho sức khỏe, kết nối và năng suất.” Tính năng đáng chú ý của việc học few-shot là nó không yêu cầu một mô tả chi tiết về cách thực hiện nhiệm vụ. Thay vào đó, nó yêu cầu các bản demo về những gì đang được thực hiện, điều này có thể làm cho nó phù hợp với nhiều ứng dụng.

Hơn nữa, kỹ thuật này mở rộng beyond việc ghép nối đầu vào-đầu ra đơn giản. Mô hình cũng có thể được dạy để xử lý các bước trung gian để đạt được một mục tiêu.

7) Chain-of-Thought Prompting

Trong một bài nghiên cứu gần đây, “Chain-of-Thought Prompting Elicits Reasoning in Large Language Models” các tác giả Jason Wei và nhóm của ông đã cố gắng kích thích khả năng lý luận trong các mô hình ngôn ngữ lớn. Thay vì sử dụng các prompt truyền thống, trực tiếp, nhóm đã sử dụng một loạt các prompt liên kết, tạo thành một ‘chuỗi suy nghĩ’.

Ví dụ, một người dùng có thể quan tâm đến tác động tiềm năng của trí tuệ nhân tạo đối với thị trường lao động:

Người dùng: “Bạn có thể giải thích ngắn gọn khái niệm trí tuệ nhân tạo không?”

ChatGPT: “Trí tuệ nhân tạo, hoặc AI, đề cập đến khả năng của một máy móc để bắt chước hành vi thông minh của con người. Nó liên quan đến việc thiết kế máy móc có thể suy nghĩ và học hỏi như con người, cho phép chúng thực hiện các nhiệm vụ như dịch ngôn ngữ, đưa ra quyết định và giải quyết vấn đề, trong số những nhiệm vụ khác.”

Người dùng: “Làm thế nào AI đang ảnh hưởng đến thị trường lao động hiện tại?”

ChatGPT: “AI đang tạo ra cả việc làm mới và thay đổi bản chất của các công việc hiện có. Một mặt, nó tự động hóa các nhiệm vụ thường xuyên, dẫn đến việc mất việc làm trong một số lĩnh vực. Mặt khác, nó tạo ra nhu cầu về các vai trò mà trước đây không tồn tại, như các chuyên viên đạo đức AI, nhà phân tích dữ liệu và kỹ sư học máy. Ngoài ra, AI có thể tăng cường các vai trò của con người, cho phép mọi người hoàn thành nhiệm vụ một cách hiệu quả và chính xác hơn.”

Cách tiếp cận chain-of-thought này tuân theo một chuỗi các prompt liên quan, duy trì một ‘cuộc trò chuyện’ với mô hình để hướng dẫn nó đến các phản hồi chính xác và phù hợp hơn.

Hiểu ChatGPT API và Kỹ Thuật Lập Prompt Từ Góc Độ Của Nhà Phát Triển

Từ góc độ của một nhà phát triển hoặc nhà nghiên cứu, kỹ thuật lập prompt là một quá trình phức tạp hơn. Nó liên quan đến việc thiết kế các thuật toán và kỹ thuật để giúp mô hình AI hiểu và phản hồi các prompt một cách hiệu quả hơn. Điều này có thể bao gồm các chiến lược để xử lý các prompt mơ hồ, xác định bối cảnh của các prompt hoặc kết nối các prompt lại với nhau để kích thích các quá trình suy nghĩ phức tạp hơn trong AI.

 

Giao Diện ChatGPT API

Trong hình minh họa trên, một người dùng tương tác với một giao diện trò chuyện, được cung cấp bởi GPT-4. Đầu vào của họ được cải thiện về độ rõ ràng và tính nhất quán về bối cảnh bởi một mô-đun chuyên dụng trước khi được cung cấp cho mô hình AI. Vai trò của mô-đun này là để tinh chỉnh và tăng cường đầu vào của người dùng cho sự hiểu biết tốt hơn đồng thời duy trì bối cảnh của cuộc trò chuyện. Phản hồi của AI, được tạo ra dựa trên prompt được tinh chỉnh, được trả lại cho người dùng thông qua giao diện trò chuyện. Lịch sử tương tác được cập nhật một cách nhất quán, duy trì bối cảnh của cuộc trò chuyện. Tổng thể, hình minh họa này thể hiện một dòng chảy động của cuộc trò chuyện người dùng-AI được kích hoạt bởi các kỹ thuật lập prompt.

Giao diện ChatGPT API được thiết kế với các siêu tham số khác nhau cho phép người dùng tinh chỉnh phản hồi của AI đối với các prompt, làm cho chúng hiệu quả và linh hoạt hơn. Điều này bao gồm các tham số như Nhiệt Độ, Độ Dài Tối đa và Dãy Dừng. Hãy khám phá cách chúng hoạt động và có thể được sử dụng trong các bối cảnh khác nhau.

 

Mở API ChatGPT - Siêu Tham Số

1) Nhiệt Độ

Tham số Nhiệt Độ ảnh hưởng đến sự ngẫu nhiên của phản hồi AI. Một giá trị Nhiệt Độ cao, như 1,0, khuyến khích đầu ra ngẫu nhiên hơn, dẫn đến phản hồi đa dạng nhưng có thể không liên quan. Ngược lại, một giá trị Nhiệt Độ thấp, như 0,2, hướng dẫn AI chọn phản hồi xác định hơn, có thể hữu ích cho đầu ra tập trung và cụ thể nhưng có thể thiếu sự đa dạng.

Ví dụ: Nếu bạn đang viết một câu chuyện sáng tạo và muốn có các yếu tố không thể đoán trước, hãy đặt Nhiệt Độ ở giá trị cao. Một prompt có thể là: “Viết một câu chuyện ngắn về một con mèo du hành thời gian.” Với Nhiệt Độ cao, bạn có thể nhận được một câu chuyện hoang dã, tưởng tượng với các khúc quanh và quay không thể đoán trước.

2) Độ Dài Tối đa

Tham số này kiểm soát độ dài token tối đa của đầu ra mô hình, bao gồm cả tokens trong đầu vào và đầu ra. Thiết lập một giới hạn cao hơn cho phép phản hồi dài hơn, trong khi một giới hạn thấp hơn giữ đầu ra ngắn gọn.

Ví dụ: Đối với các câu trả lời ngắn gọn cho các câu hỏi kiến thức như “Ai đã giành giải Nobel Văn học năm 2020?” bạn có thể muốn đặt Độ Dài Tối đa ở giá trị thấp, đảm bảo phản hồi ngắn gọn và trực tiếp.

3) Dãy Dừng

Dãy Dừng là các chuỗi văn bản cụ thể tại đó, khi mô hình gặp phải, nó sẽ ngừng tạo ra đầu ra. Tính năng này có thể hữu ích để kiểm soát độ dài của đầu ra hoặc hướng dẫn mô hình ngừng tại các điểm kết thúc logic.

Ví dụ: Đối với một bức thư chính thức, bạn có thể sử dụng “Trân trọng,” làm Dãy Dừng để đảm bảo AI không tạo ra bất kỳ văn bản nào vượt quá kết thúc phù hợp của bức thư.

4) Top P

Tham số ‘Top P’, còn được gọi là lấy mẫu hạt nhân, là một phương pháp cung cấp một lựa chọn động của số lượng từ được xem xét tại mỗi bước dự đoán của mô hình. Một giá trị thấp, như 0,5, dẫn đến đầu ra an toàn hơn, tập trung hơn. Một giá trị cao, như 0,9, bao gồm một lựa chọn rộng hơn của từ, dẫn đến đầu ra đa dạng hơn.

Ví dụ: Nếu bạn đang tạo một AI để viết thơ và muốn nó sử dụng một loạt từ vựng và cụm từ phong cách, bạn có thể đặt ‘Top P’ ở giá trị cao. Một prompt có thể là: “Soạn một bài thơ về vẻ đẹp của mùa thu.”

5) Penalty Tần Số

Penalty Tần Số kiểm soát mức độ mô hình nên ưa thích các từ ít thường xuyên. Một penalty cao (lên đến 1) khuyến khích mô hình sử dụng các từ ít phổ biến, trong khi một giá trị thấp (xuống đến -1) khuyến khích mô hình sử dụng các từ phổ biến.

Ví dụ: Nếu bạn đang tạo một đề xuất kinh doanh và muốn tránh sử dụng từ ngữ chuyên ngành, bạn có thể đặt Penalty Tần Số ở giá trị thấp để giữ ngôn ngữ rõ ràng và dễ tiếp cận.

6) Penalty Hiện Diện

Tham số Penalty Hiện Diện ảnh hưởng đến mức độ mô hình bị phạt khi tạo ra các ý tưởng hoặc chủ đề mới không có trong lịch sử cuộc trò chuyện. Các giá trị cao hơn khuyến khích mô hình gắn bó với các chủ đề đã đề cập, trong khi các giá trị thấp hơn cho phép mô hình giới thiệu các khái niệm mới một cách tự do hơn.

Ví dụ: Đối với các phiên thảo luận ý tưởng, bạn có thể đặt Penalty Hiện Diện ở giá trị thấp để khuyến khích một loạt các ý tưởng. Bạn có thể sử dụng một prompt như: “Tạo các chiến lược tiếp thị sáng tạo cho một nền tảng giáo dục trực tuyến.”

Ứng Dụng Ngành Của Kỹ Thuật Lập Prompt

Hỗ Trợ Khách Hàng và Tạo Câu Hỏi Thường Gặp

Trong thế giới hỗ trợ khách hàng, công dụng của kỹ thuật lập prompt không thể bị đánh giá thấp. Một trong những ứng dụng đột phá nhất của AI trong lĩnh vực này là sự xuất hiện của các rô-bốt trò chuyện AI. Ví dụ, hãy xem một nền tảng thương mại điện tử như eBay. Họ sử dụng một hệ thống rô-bốt trò chuyện tiên tiến đã được tinh chỉnh với kỹ thuật lập prompt để xử lý các yêu cầu của khách hàng. Rô-bốt có thể xử lý nhiều vấn đề, bao gồm cung cấp cập nhật giao hàng, xử lý yêu cầu hoàn trả và trả lời các câu hỏi về thông số sản phẩm.

Khi một khách hàng hỏi, “Ở đâu đơn hàng của tôi?”, rô-bốt AI không chỉ trả lời bằng một thông điệp chung chung; thay vào đó, nó truy cập vào hệ thống quản lý đơn hàng, lấy dữ liệu thời gian thực và cung cấp một phản hồi được cá nhân hóa như, “Đơn hàng #1234 của bạn hiện đang được vận chuyển và dự kiến sẽ được giao vào tối nay.” Các phản hồi được cá nhân hóa và phù hợp như vậy là kết quả trực tiếp của các prompt được thiết kế tốt, hình thành nên cốt lõi của những hệ thống rô-bốt trò chuyện thông minh này.

Tạo Nội Dung và Tiếp Thị

Trong lĩnh vực tạo nội dung và tiếp thị, kỹ thuật lập prompt đóng vai trò là nền tảng của các đổi mới được thúc đẩy bởi AI. Các công ty như Grammarly sử dụng các động cơ AI để hỗ trợ người dùng trong việc tạo ra nội dung hấp dẫn và chính xác về mặt ngữ pháp. Những nền tảng này hoạt động dựa trên các prompt, hướng dẫn mô hình AI tạo ra các gợi ý hoặc sửa đổi có thể nâng cao chất lượng tổng thể của nội dung.

Hãy xem xét một người dùng muốn tạo nội dung hấp dẫn về các tiến bộ của AI. Họ có thể sử dụng một prompt như: “Giải thích các tiến bộ mới nhất của AI theo một cách đơn giản, hấp dẫn cho người mới bắt đầu.” AI, tận dụng prompt này, có thể soạn một đoạn văn ngắn gọn, dễ đọc về các khái niệm AI phức tạp, do đó bắc cầu kiến thức và kích thích sự quan tâm của người đọc. Đây chỉ là một trong nhiều cách kỹ thuật lập prompt có thể nâng cao việc tạo nội dung.

Hỗ Trợ Coding và Giải Thích Mã

Kỹ thuật lập prompt, trong bối cảnh này, giống như một cuộc trò chuyện hai chiều giữa nhà phát triển và AI. Nhà phát triển cung cấp AI với một prompt – một mô tả về vấn đề hoặc chức năng họ cần thực hiện, và AI phản hồi với một đoạn mã liên quan hoặc gợi ý, hỗ trợ quá trình phát triển phần mềm.

Ngoài ra, các công cụ hỗ trợ mã hóa được tăng cường bởi AI, như GitHub Copilot, đã được phát triển với sự chuyên môn của OpenAI. Những công cụ tiên tiến này đã trải qua quá trình đào tạo rộng rãi để thực hiện các nhiệm vụ phức tạp như điền vào các tệp mã không hoàn chỉnh. Chúng làm điều này mặc dù có sự khác biệt rõ ràng giữa quá trình viết mã và việc hoàn thành nó.

Giáo Dục và Học Tập Cá Nhân Hóa

Sự tích hợp của AI vào lĩnh vực giáo dục đã chứng kiến một sự gia tăng đáng kể trong những năm gần đây, với kỹ thuật lập prompt đóng vai trò quan trọng. Các tutor AI đã được phát triển để cung cấp các trải nghiệm học tập được cá nhân hóa, thích ứng với tốc độ học và phong cách của từng học sinh.

Lấy ví dụ về một nền tảng học tập dựa trên AI như Duolingo. Nó sử dụng các prompt được thiết kế tốt để đánh giá sự thành thạo của học sinh trong một ngôn ngữ mới và cung cấp các bài tập phù hợp. Nếu một học sinh đang học tiếng Pháp và gặp khó khăn với việc chia động từ, AI tutor có thể giới thiệu các bài tập được thiết kế như, “Chia động từ ‘manger’ (ăn) trong thì hiện tại.” Hiệu suất và tiến bộ của học sinh được liên tục đánh giá, và các prompt được tinh chỉnh và thích nghi cho phù hợp, đảm bảo một trải nghiệm học tập được cá nhân hóa và hiệu quả.

Sự Phát Triển Không Ngừng Của Kỹ Thuật Lập Prompt

Khi chúng ta kết thúc cuộc sâu khai về kỹ thuật lập prompt, điều quan trọng cần nhấn mạnh là lĩnh vực này vẫn còn rất mới mẻ. Chúng ta đang ở ngưỡng cửa của một kỷ nguyên nơi trí tuệ nhân tạo sẽ không chỉ phản hồi lại các lệnh được lập trình sẵn mà còn xử lý và thực hiện các prompt được thiết kế cẩn thận để mang lại kết quả cụ thể.

Các ứng dụng mà chúng ta đã khám phá, từ hỗ trợ khách hàng đến tạo nội dung, phân tích dữ liệu và học tập cá nhân hóa, chỉ là bước khởi đầu. Khi nghiên cứu trong lĩnh vực này được tăng cường, chúng ta có thể mong đợi nhiều ứng dụng tinh vi và phức tạp hơn của kỹ thuật lập prompt. Sự hội tụ của sự sáng tạo con người và sự thông minh của AI đang đưa chúng ta đến một tương lai nơi trí tuệ nhân tạo sẽ không chỉ hỗ trợ mà còn biến đổi nhiều khía cạnh của cuộc sống chúng ta.

Tôi đã dành 5 năm qua để đắm mình trong thế giới hấp dẫn của Máy học và Học sâu. Đam mê và chuyên môn của tôi đã dẫn tôi đến việc đóng góp vào hơn 50 dự án kỹ thuật phần mềm đa dạng, với trọng tâm đặc biệt là AI/ML. Sự tò mò liên tục của tôi cũng đã thu hút tôi đến Xử lý Ngôn ngữ Tự nhiên, một lĩnh vực tôi渴望 khám phá thêm.