Nhìn từ phía người dùng, ChatGPT giống một người đang trò chuyện với bạn. Về kỹ thuật, đây là một chatbot AI tạo sinh: bạn nhập prompt, tức lời nhắc hoặc yêu cầu, hệ thống xử lý văn bản đó rồi tạo câu trả lời bằng ngôn ngữ tự nhiên [3][
4]. Đằng sau trải nghiệm trò chuyện là các mô hình GPT, tức những mô hình ngôn ngữ lớn dựa trên kiến trúc Transformer [
6].
Điều quan trọng nhất cần nhớ: ChatGPT không trả lời vì nó hiểu thế giới giống con người. Nó xử lý văn bản, xét ngữ cảnh và tạo ra chuỗi từ có vẻ phù hợp dựa trên các mẫu ngôn ngữ đã học [3][
6].
ChatGPT là gì?
ChatGPT là chatbot AI của OpenAI, được xây dựng trên các mô hình ngôn ngữ lớn thuộc họ GPT [4][
6]. OpenAI mô tả ChatGPT là mô hình được huấn luyện để làm theo chỉ dẫn trong prompt và đưa ra phản hồi chi tiết [
4]. Coursera mô tả ChatGPT là công cụ AI tạo sinh có thể viết nội dung, trả lời câu hỏi, giải thích chủ đề phức tạp, đưa ra gợi ý và viết mã lập trình [
5].
Nói gọn: GPT là họ mô hình nằm bên dưới; ChatGPT là ứng dụng trò chuyện để người dùng tương tác với các mô hình đó [4][
6]. Phân biệt này giúp tránh nhầm lẫn, vì nhiều sản phẩm AI khác cũng có thể dùng công nghệ mô hình ngôn ngữ tương tự.
GPT nghĩa là gì?
GPT là viết tắt của Generative Pre-trained Transformer [6]. Theo IBM, GPT là một họ mô hình ngôn ngữ lớn dựa trên kiến trúc học sâu Transformer [
6]. Có thể hiểu từng phần như sau:
- Generative: có khả năng tạo đầu ra mới, chẳng hạn văn bản.
- Pre-trained: đã được huấn luyện trước khi đưa vào sử dụng, nhằm học các mẫu và mối liên hệ trong ngôn ngữ [
6].
- Transformer: kiến trúc học sâu làm nền cho các mô hình GPT [
6].
Vì vậy, khi ChatGPT viết một đoạn trả lời, nó không đơn giản là tra cứu một câu có sẵn. Mô hình dùng những gì đã học, kết hợp với ngữ cảnh hiện tại, rồi tính toán phần văn bản tiếp theo có khả năng phù hợp [3][
6].
Từ prompt đến câu trả lời: ChatGPT hoạt động như thế nào?
Có thể hình dung quá trình tạo câu trả lời của ChatGPT qua ba bước: tách prompt thành token, xử lý ngữ cảnh, rồi sinh câu trả lời từng phần [3].
1. Prompt được tách thành token
Khi bạn gửi một câu hỏi, mô hình không xử lý nguyên câu theo cách con người đọc từng ý. Zapier mô tả rằng ChatGPT tách prompt thành token, tức các mảnh văn bản nhỏ để mô hình tiếp tục xử lý [3].
Token là đơn vị làm việc của hệ thống. Nhờ chia văn bản thành các mảnh nhỏ như vậy, mô hình có thể tính toán quan hệ giữa các phần trong câu hỏi và đoạn hội thoại.
2. Mô hình dùng ngữ cảnh và mẫu ngôn ngữ đã học
ChatGPT được vận hành bởi các mạng nơ-ron Transformer, vốn được huấn luyện trên lượng văn bản rất lớn để học các mẫu trong ngôn ngữ [3]. Các mô hình GPT cũng thuộc nhóm mô hình ngôn ngữ lớn dựa trên kiến trúc Transformer [
6].
Khi trả lời, hệ thống xét prompt hiện tại cùng ngữ cảnh cuộc trò chuyện. Từ đó, nó tính xem những mảnh văn bản nào có khả năng phù hợp nhất để xuất hiện tiếp theo [3].
3. Câu trả lời được tạo từng token một
Cốt lõi của quá trình sinh văn bản là dự đoán: ChatGPT dự đoán các token tiếp theo rồi ghép chúng thành câu trả lời mạch lạc [3]. Với người dùng, kết quả có thể giống một cuộc đối thoại trôi chảy. Nhưng về mặt kỹ thuật, câu trả lời được tạo từ nhiều bước dự đoán liên tiếp.
Đây cũng là lý do cần thận trọng: một câu trả lời nghe hợp lý không tự động trở thành bằng chứng đã được kiểm chứng. Khi cần thông tin chắc chắn, bạn vẫn nên đối chiếu với nguồn đáng tin cậy [3].
ChatGPT được huấn luyện bằng gì?
OpenAI nêu ba nguồn thông tin chính dùng để phát triển các mô hình nền tảng đứng sau ChatGPT: thông tin công khai trên Internet, thông tin mà OpenAI có quyền truy cập thông qua đối tác hoặc bên thứ ba, và dữ liệu do người dùng, huấn luyện viên con người hoặc nhà nghiên cứu cung cấp hay tạo ra [2].
Với ChatGPT, OpenAI cũng nhắc đến Reinforcement Learning from Human Feedback, thường viết tắt là RLHF. Đây là phương pháp dùng phản hồi của con người trong huấn luyện để mô hình làm theo chỉ dẫn trong prompt tốt hơn và đưa ra câu trả lời hữu ích hơn [4].
Cần phân biệt giữa huấn luyện và lúc tạo câu trả lời. Dữ liệu huấn luyện giúp mô hình học mẫu ngôn ngữ và mối liên hệ giữa các khái niệm [2][
3]. Còn khi bạn đang dùng ChatGPT, câu trả lời cụ thể được tạo từ prompt, ngữ cảnh và quá trình dự đoán token; nó không mặc nhiên là kết quả của một danh sách nguồn đang được kiểm tra trực tiếp theo thời gian thực [
3].
ChatGPT đặc biệt hữu ích ở việc gì?
ChatGPT mạnh ở những việc cần diễn đạt, sắp xếp hoặc giải thích bằng ngôn ngữ. Coursera nêu các khả năng như viết nội dung, trả lời câu hỏi, giải thích chủ đề phức tạp, đưa ra gợi ý và viết mã lập trình [5].
Một số cách dùng hợp lý gồm:
- phác thảo email, dàn ý hoặc bản nháp văn bản;
- giải thích một chủ đề khó bằng ngôn ngữ dễ hiểu hơn;
- tóm tắt, viết lại hoặc chuyển giọng văn;
- gợi ý ý tưởng và phương án diễn đạt;
- hỗ trợ đọc, viết hoặc giải thích mã lập trình [
5].
Muốn nhận câu trả lời sát nhu cầu hơn, prompt nên nói rõ mục tiêu, người đọc, định dạng mong muốn và mức độ chi tiết. Ví dụ, bạn có thể yêu cầu câu trả lời ngắn, dạng bảng, có các điểm chưa chắc chắn, hoặc phù hợp với người mới bắt đầu.
Ba hiểu lầm thường gặp
ChatGPT không giống sự hiểu biết của con người
Các ứng dụng GPT có thể tạo đầu ra trông giống sản phẩm do con người viết [6]. Nhưng điều đó không đồng nghĩa với ý thức hay sự hiểu biết như con người. Mô tả kỹ thuật vẫn là: hệ thống xử lý token, xét ngữ cảnh và tạo ra phần tiếp theo có khả năng phù hợp [
3].
ChatGPT không phải là toàn bộ GPT
GPT là họ mô hình; ChatGPT là ứng dụng chat để người dùng làm việc với các mô hình đó [4][
6]. Việc tách bạch hai khái niệm này quan trọng, vì một mô hình có thể được dùng trong nhiều sản phẩm hoặc tính năng khác nhau.
RLHF không phải bộ lọc sự thật
RLHF là phương pháp huấn luyện giúp ChatGPT phản hồi prompt tốt hơn và hữu ích hơn, theo mô tả của OpenAI [4]. Nhưng điều đó không có nghĩa mọi câu trả lời đều đúng, đủ hoặc đã được kiểm chứng nguồn. Vì đầu ra được tạo bằng dự đoán token, việc kiểm tra lại vẫn cần thiết với các câu hỏi có tính sự kiện [
3].
Dùng ChatGPT có trách nhiệm: kiểm chứng thế nào?
Với các nhiệm vụ thiên về diễn đạt, ChatGPT có thể rất hữu ích ngay từ bản nháp đầu tiên. Nhưng với câu hỏi có thể kiểm chứng đúng sai, hãy xem câu trả lời là điểm khởi đầu, không phải kết luận cuối cùng.
Một số thói quen nên có:
- Kiểm tra nguồn gốc: đặc biệt với thông tin chính thức, nghiên cứu, thông số sản phẩm, vấn đề pháp lý hoặc y tế.
- Đối chiếu số liệu, ngày tháng và tên riêng: văn phong trôi chảy không phải bằng chứng cho độ chính xác.
- Không chỉ yêu cầu nguồn, hãy mở nguồn: nếu câu trả lời có dẫn chứng, cần kiểm tra xem nguồn có tồn tại và có thật sự nói điều được trích hay không.
- Giữ lại mức độ không chắc chắn: nếu một nhận định chưa được chứng minh, đừng viết như thể đó là kết luận chắc chắn.
Lý do nằm ngay trong cơ chế hoạt động: ChatGPT tạo câu trả lời bằng cách tính toán các token tiếp theo dựa trên prompt và ngữ cảnh [3]. Cách làm này rất hữu ích cho việc hiểu, cấu trúc và diễn đạt thông tin, nhưng không thay thế bước kiểm chứng.
Kết luận
ChatGPT là chatbot AI tạo sinh của OpenAI, dựa trên các mô hình ngôn ngữ GPT và kiến trúc Transformer [4][
6]. Nó xử lý prompt thành token rồi tạo câu trả lời bằng cách dự đoán dần các phần văn bản có khả năng phù hợp [
3].
Nhờ vậy, ChatGPT hữu ích cho viết, giải thích, tóm tắt, lên ý tưởng và hỗ trợ code [5]. Tuy nhiên, với thông tin cần độ tin cậy cao, câu trả lời hay và mạch lạc chỉ nên là bước khởi đầu; kiểm chứng nguồn vẫn là việc không thể bỏ qua.




