日常用 ChatGPT,感覺可能似同一個好識寫字、識整理資料的助手傾偈。技術上,它其實係 OpenAI 的生成式 AI 聊天機械人:你輸入提示詞,系統處理文字,再用自然語言生成回覆 [3][
4]。
背後的核心係 GPT 模型,即一類建基於 Transformer 架構的大型語言模型,支撐 ChatGPT 同其他生成式 AI 應用 [6]。重點係:ChatGPT 唔係一個「真人腦袋」,亦唔係每次都即時幫你做完整資料核實。它係根據提示詞、上下文同學到的語言模式,計算下一段文字點樣接落去會最合理 [
3][
6]。
ChatGPT 到底係咩?
ChatGPT 係 OpenAI 推出的 AI 聊天機械人,建基於 GPT 家族的大型語言模型 [4][
6]。OpenAI 介紹 ChatGPT 時,形容它係一個會跟從提示詞指令、並提供詳細回應的模型 [
4]。Coursera 亦將 ChatGPT 形容為生成式 AI 工具,可用來寫作、回答問題、解釋複雜概念、提供見解同編寫程式碼等 [
5]。
最容易混淆的一點係:GPT 係底層模型家族,ChatGPT 係你用來同模型對話的聊天產品 [4][
6]。換句話講,GPT 似係引擎,ChatGPT 就係你面前嗰個操作介面。
GPT 三個字母代表咩?
GPT 係 Generative Pre-trained Transformer 的縮寫 [6]。IBM 將 GPT 形容為一個大型語言模型家族,採用 Transformer 深度學習架構 [
6]。
可以咁理解:
- Generative(生成式):模型會產生新輸出,例如文字。
- Pre-trained(預先訓練):模型喺實際使用前,已經透過大量資料學習語言模式同關聯 [
6]。
- Transformer:支撐 GPT 模型的深度學習架構 [
6]。
所以,ChatGPT 之所以可以寫出似人類語氣的句子,唔係因為它用人類方式「理解」世界,而係因為語言模型會處理當前語境,再根據已學到的模式計算合適的文字延續 [3][
6]。
由提示詞到答案:ChatGPT 點樣運作?
簡化講,一次 ChatGPT 回答大約可以拆成 3 步:拆 tokens、理解語境、逐步生成答案 [3]。
1. 提示詞會先拆成 tokens
你輸入一段問題或指令,模型唔係好似人類咁「一口氣讀完整句」。Zapier 解釋,ChatGPT 會將提示詞拆成 tokens,即細小的文字單位,之後再用呢啲單位去運算 [3]。
Tokens 可以係字、詞的一部分,或者其他細小文字片段。對用戶嚟講你見到係一句句自然語言;對模型嚟講,背後係一串可以計算的文字單位。
2. 模型會參考上下文同學過的語言模式
ChatGPT 由 Transformer 神經網絡驅動,呢類網絡透過大量文字訓練,學習語言入面的模式 [3]。GPT 模型本身亦屬於大型語言模型,並以 Transformer 架構為基礎 [
6]。
即係話,模型會一邊睇你今次輸入的提示詞,一邊考慮對話上下文,再估計接下來邊啲文字最可能合適 [3]。
3. 答案係逐個 token 生成出嚟
ChatGPT 回答的核心係「預測」:它會預測下一個或下一批 tokens,然後逐步砌成一段連貫回答 [3]。用戶睇落似一段流暢對話,但技術上係由好多個預測步驟連續組成。
呢個原理亦解釋咗點解要做事實查證:一句說話寫得好順、好似好有信心,唔代表內容已經被可靠來源核實。如涉及可驗證事實,仍然應該用可信來源再核對 [3]。
ChatGPT 係點樣訓練出嚟?
OpenAI 指,包括支撐 ChatGPT 的基礎模型在內,其開發主要用到 3 類資訊:公開可取得的互聯網資訊、OpenAI 透過合作方或第三方取得的資訊,以及由用戶、人類訓練員和研究人員提供或產生的資料 [2]。
對 ChatGPT,OpenAI 亦提到一種訓練方法叫 RLHF,全名係 Reinforcement Learning from Human Feedback,即「人類回饋強化學習」[4]。簡單講,就係用人類回饋去幫模型更好地跟從提示詞指令,並產生較有用的回答 [
4]。
不過要分清楚:訓練同你每次收到的回答唔係同一件事。訓練資料幫模型學習語言模式同關係 [2][
3];實際使用時,ChatGPT 係根據你輸入的提示詞、當前上下文同 token 預測去生成新回答,而唔係自動從一份即時查證過的來源清單抄答案出嚟 [
3]。
ChatGPT 最適合做咩?
ChatGPT 特別擅長處理同語言有關的工作:寫作、整理、解釋、改寫、撮要、腦震盪同程式碼相關協助。Coursera 提到,ChatGPT 可以寫文字、回答問題、解釋複雜題目、提供見解同寫程式碼 [5]。
常見而合理的用法包括:
- 草擬電郵、文章大綱、簡報文字;
- 將複雜概念講到易明啲;
- 幫一段文字撮要、改寫或轉語氣;
- 為主題諗不同角度、標題或方案;
- 協助理解、撰寫或除錯程式碼 [
5]。
想答案更貼近需要,提示詞最好講清楚:目標係咩、讀者係邊個、想要咩格式、要簡短定詳細、要唔要列出不確定之處。你畀的方向越清楚,模型越容易生成合用的回覆。
三個常見誤解
誤解一:ChatGPT 等於人類理解
GPT 應用可以生成好似由人寫出來的內容 [6]。但「似人寫」唔等於有人類意識或人類式理解。按技術描述,系統係處理 tokens、參考上下文,再生成可能合適的文字延續 [
3]。
誤解二:ChatGPT 就係 GPT 本身
GPT 係模型家族;ChatGPT 係用戶同模型互動的聊天應用 [4][
6]。呢個分別好重要,因為不同產品、功能或平台,都可能使用相近的大型語言模型技術。
誤解三:RLHF 會自動保證答案正確
RLHF 係 OpenAI 提到的訓練方法,目標係令 ChatGPT 更能跟從提示詞同提供有用回答 [4]。但它唔係「真偽過濾器」。因為回答仍然係由 token 預測生成,並不代表每句說話都已經完整、正確或有來源支持 [
3]。
點樣負責任咁用 ChatGPT?
如果你只係想改句子、諗大綱、整理思路,ChatGPT 往往可以即時幫到手。但如果問題涉及事實、數字、名字、法律、醫療、產品規格或正式決策,就應該將回答當成起點,而唔係終點。
比較穩陣的做法係:
- 查原始來源:官方文件、研究、法規、公司公告等,最好直接打開核對。
- 數字、日期、名稱分開驗證:語氣流暢唔等於資料正確。
- 唔好只叫 AI 列來源,要真正開來源睇:來源要存在,而且內容要支持相關說法。
- 保留不確定性:未證實的內容,唔好寫到好似已經板上釘釘。
根本原因仍然係它的運作方式:ChatGPT 會根據提示詞同上下文,計算接下來合適的 tokens 去生成回答 [3]。呢種能力令它好適合幫人理解、整理同表達,但唔可以取代事實查證。
總結
ChatGPT 係 OpenAI 的生成式 AI 聊天機械人,建基於 GPT 大型語言模型同 Transformer 架構 [4][
6]。它會將提示詞拆成 tokens,按上下文同已學到的語言模式,逐步預測並生成回答 [
3]。
所以,ChatGPT 可以好有用:寫作、解釋、撮要、整理資料、協助寫程式都係常見用途 [5]。但同時要記住,答得自然唔等於已經查證。最好的用法,係將它當成強力助手,而唔係最後裁判。




