ChatGPT ngày càng được cải tiến nhưng bạn đã biết hỏi?
Việc huấn luyện kết thúc vào trước tháng 08/2021 vì vậy ChatGPT không thể trả lời đội nào vô định World Cup 2022. Tuy nhiên, việc nâng cấp và hoàn thiện ChatGPT được liên tục thực hiện từ sau khi ra mắt vào ngày 30/11/2022.
ChatGPT đã thực hiện 3 lần nâng cấp trong vòng 2 tháng nay:
Phiên bản 15/12/2022 đã cải thiện hiệu suất chung, ít khả năng từ chối câu hỏi hơn,cho phép người dùng xem các cuộc hội thoại trước đây, đổi tên các cuộc hội thoại đã lưu, xóa các cuộc hội thoại trước đó, giới hạn các câu hỏi hàng ngày để tăng cường đáp ứng người sử dụng chống lạm dụng với tùy chọn tiếp tục truy cập nếu cung cấp các phản hồi để cải tiến chương trình.
Phiên bản 09/1/2023: Tiếp tục cải tiến việc trả lời trên nhiều lĩnh vực, đặc biệt tăng cường cải tiến cung cấp dữ kiện có thực (factuality) thay vì bịa (factuality) hay “sáng tạo”. Ngoài ra, người dùng có thể dừng (stop) chatGPT khi không thỏa mãn câu hỏi. Tính năng này được thực hiện sau khi phản hồi của người dùng về việc không có cơ hội dừng khi ChatGPT trả lời dài dòng.
Phiên bản 30/01/2023: đây là phiên bản mới nhất tính đến thời điểm hiện tại (4/2/2023).
Tôi sẽ đề cập đến phiên bản ngày 30/01 mới nhất một cách chi tiết hơn vì nó cải tiến một vấn nạn khá nghiêm trọng trong mô hình ngôn ngữ lớn (LLM): việc thiếu áp dụng các lập luận từng bước trong khi thực hiện câu trả lời và dẫn đến những câu trả lời sai lầm cơ bản về mặt toán học. Trong phiên bản này, các phép tính toán học sơ cấp và những suy luận cơ bản của ChatGPT đã được từng bước cải thiện.
Có giai thoại về việc ChatGPT trả lời khi được hỏi 2+7 là bao nhiêu? Đáp án của GPT lúc đó đã đúng: 9, nhưng khi người dùng đùa rằng vợ anh ta nói là 8, thì ChatGPT đã tán thành ý kiến với vợ anh chàng này. ChatGPT đã khẳng định chân lý “Vợ luôn đúng” thay vì sự thật toán học!
Tuy nhiên, trong phiên bản mới hơn, ChatGPT đã thay đổi, chỉ đưa ra câu hỏi đúng đắn về mặt toán học, bất chấp các dữ liệu sai lạc cung cấp từ người dùng.
Tuy nhiên, tôi đã thử với trường hợp 50+60. Ban đầu, ChatGPT trả lời dúng: 110 nhưng khi tôi khẳng định 100, chatGPT đã đồng ý!
Về mặt kỹ thuật, ChatGPT sử dụng "Reinforcement Learning from Human Feedback- RLHF" để ngày càng cải thiện tính năng từ hơn 10 triệu người dùng hàng ngày và hơn 100 triệu người dùng nhiệt thành trong hai tháng qua (theo thống kê của ngân hàng đầu tư UBS). Điều quan trọng là người dùng cần hợp tác với Open AI, cung cấp những phản hồi tích cực: đồng ý ( ) khi ChatGPT trả lời đúng, không đồng ý ( ) khi ChatGPT cung cấp thông tin sai.
Một câu hỏi lần trước đã được cộng đồng mạng đưa ra, nhưng với phiên bản này, chatGPT vẫn tiếp tục sai!
LLM có thể sẽ cung cấp cho bạn câu trả lời sai khi không thực hiện các phép tính từng bước (step by step) để đạt được kết quả, mà đơn giản “sáng tạo” ra một câu trả lời có vẻ hợp lý (với trường hợp này, rõ ràng ChatGPT trả hời hết sức phi lý! Tôi chưa rõ tại sao).
Với LLMs, việc sử dụng “kỹ thuật lời nhắc” (prompt engineering) hiệu quả sẽ giúp bạn nhận được câu trả lời mong muốn: đó là thêm vào một lời nhắc: “Let's think step by step” (hãy suy luận từng bước) để kích hoạt cái gọi là “Chain of Thought” [1], suy luận sâu chuỗi, giúp cho ChatGPT kích hoạt ‘system 2”, từ dùng của Daniel Kahneman để chỉ hoạt động suy nghĩ thận trọng của con người.
Với ví dụ:
“Trung bình Joe tung 25 cú đấm mỗi phút. Một cuộc chiến kéo dài 5 hiệp 3 phút. Anh ta đã tung ra bao nhiêu cú đấm?”
Câu trả lời của phiên bản mới nhất ngày 30/01/2023 đã trả lời chính xác mà không cần đưa vào câu “Let's think step by step” (hoặc ngầm định với các câu hỏi toán học?)
Dựa trên mô hình “Chain of Thought” [1]:
Để có được kết quả mong muốn từ ChatGPT, người dùng nên cân nhắc những điều sau khi đưa “lời nhắc” (prompt):
- Cung cấp đủ ngữ cảnh: Cung cấp càng nhiều ngữ cảnh thì mô hình càng có thể hiểu những gì bạn muốn và tạo ra kết quả tốt hơn. Cung cấp lời nhắc đầy đủ hơn với nhiều ngữ cảnh hơn có thể tăng cơ hội nhận được câu trả lời mong muốn.
- Hãy cụ thể: Nếu bạn muốn có một kết quả cụ thể, cần chỉ rõ ràng kết quả đó trong lời nhắc. Lời nhắc mơ hồ có thể dẫn đến việc hoàn thành chung chung hoặc không mong muốn.
- Chọn lời nhắc thích hợp: Đầu ra của mô hình (câu trả lời) sẽ phụ thuộc vào dữ liệu mà mô hình đã được đào tạo từ trước (pre-trained), vì vậy hãy chọn lời nhắc phù hợp với loại văn bản mà mô hình được đào tạo.
- Sử dụng ngôn ngữ thích hợp: Đầu ra của mô hình chỉ tốt nếu đầu vào mà mô hình nhận được cũng tốt tương đương. Sử dụng đúng ngữ pháp và tránh lỗi chính tả, vì những lỗi này có thể ảnh hưởng đến chất lượng đầu ra của mô hình.
- Thử nghiệm với các lời nhắc khác nhau: Nếu lời nhắc đầu tiên không mang lại kết quả mong muốn, hãy thử diễn đạt lại lời nhắc đó hoặc thêm ngữ cảnh khác. Thử nghiệm có thể giúp bạn tìm lời nhắc hoạt động tốt nhất cho trường hợp sử dụng cụ thể của bạn.
Bằng cách làm theo các nguyên tắc này, người dùng có thể tăng cơ hội đạt được kết quả mong muốn từ mô hình GPT. Tuy nhiên, điều quan trọng cần lưu ý là mô hình không hoàn hảo và đầu ra của nó không phải lúc nào cũng chính xác như những gì người dùng mong đợi.
Tóm lại, ChatGPT ngày càng hoàn thiện. Nếu bạn ít sử dụng hoặc không được cập nhật thông tin mới nhất, bạn có thể có thiên kiến về ChatGPT và những nhận định trước đó vài tuần có thể không còn chính xác. Với những mô hình LLM, để thực hiện các phép tính toán học hoặc suy luận logic, bạn cần thêm vào câu nhắc tường minh “Let's think step by step” nhằm giúp cho các mô hình này suy nghĩ thận trọng hơn theo phong cách của con người.
Tham khảo
[1] Kojima, T., Gu, S. S., Reid, M., Matsuo, Y., & Iwasawa, Y. (2022). Large language models are zero-shot reasoners. arXiv preprint arXiv:2205.11916.
Đào Trung Thành