studioglobal
熱門發現
答案已發布7 來源

Tokenizer mới của Claude Opus 4.7 có làm prompt đắt hơn?

Có thể đắt hơn: Anthropic nói tokenizer mới của Claude Opus 4.7 có thể dùng khoảng 1x–1,35x token khi xử lý văn bản so với các mô hình trước, tức tối đa khoảng 35%, nhưng mức tăng tùy nội dung.[34] Nếu đơn giá mỗi input token không đổi, cùng một prompt bị đếm nhiều input token hơn thì phần chi phí input thường tăng;...

17K0
抽象 AI token 計算圖示,說明 Claude Opus 4.7 新 tokenizer 可能令 prompt token 數上升
新 tokenizer 會令 prompt 更貴嗎?Claude Opus 4.7 的 35% token 警示AI 生成的編輯圖片:tokenizer 變動可能改變同一 prompt 的 token count。
AI 提示

Create a landscape editorial hero image for this Studio Global article: 新 tokenizer 會令 prompt 更貴嗎?Claude Opus 4.7 的 35% token 警示. Article summary: 會,有可能:Claude Opus 4.7 官方文件指新 tokenizer 處理文字可能使用舊模型約 1x–1.35x tokens,最多約多 35%;但增幅視內容而定,唔等於所有 prompt 或總帳單都加 35%。[34]. Topic tags: ai, llm, claude, anthropic, tokenization. Reference image context from search candidates: Reference image 1: visual subject "Anthropic 甚至為了新版Tokenizer 增加了全體訂閱者的速率限制,因為在處理相同輸入時,新架構會多消耗高達35% 的Token。 「Claude Opus 4.7 拒絕填補指令的" source context "你的 AI 提示詞為何失靈?揭開 GPT-5.5 與 Claude 4.7 慘痛進化的真相 - YOLO LAB|解構科技邊際與媒體娛樂的數據實驗室" Reference image 2: visual subject "* I Measured Claude 4.7's New Tokenizer. Here's What It Costs You. The docs said 1.0–1.35x more tokens. On real content, I measured 1.47x. Anthropic's Claude Opus 4.7 migration gui" source context "I Measured Claude 4.7's New Tokenizer. Here's What It Costs You." Style: prem

openai.com

Khi nâng cấp mô hình AI, nhiều nhóm chỉ nhìn vào giá mỗi triệu token. Nhưng còn một biến số dễ bị bỏ qua: tokenizer, tức cơ chế tách nội dung thành token trước khi mô hình xử lý. Nếu tokenizer thay đổi, cùng một prompt có thể được tính thành số token khác. Trong khi đó, nhiều bảng giá API LLM dùng token đầu vào, token đầu ra hoặc các loại token liên quan đến cache làm đơn vị tính phí.[20][12][32][2]

Với Claude Opus 4.7, đây không còn là chuyện lý thuyết. Anthropic cho biết tokenizer mới có thể dùng khoảng 1x đến 1,35x số token khi xử lý văn bản so với các mô hình trước, tức tối đa khoảng 35% nhiều hơn, và mức tăng thay đổi theo nội dung. Tài liệu cũng nói endpoint /v1/messages/count_tokens sẽ trả số token khác nhau cho Claude Opus 4.7 so với Claude Opus 4.6 trên cùng input.[34]

Câu trả lời ngắn: có thể tăng chi phí, nhưng không phải prompt nào cũng tăng 35%

Cách hiểu chính xác là: tokenizer mới có thể làm cùng một prompt phát sinh nhiều input token hơn. Nếu đơn giá input token giữ nguyên, phần chi phí input có thể tăng theo. Nhưng Anthropic nêu khoảng 1x–1,35x và nhấn mạnh mức này tùy nội dung, nên không nên diễn giải thành “mọi prompt đều đắt hơn 35%”.[34]

Cũng không nên lấy mức tăng token input để suy thẳng ra mức tăng toàn bộ hóa đơn. Tài liệu giá của Anthropic tách riêng

Base Input Tokens
,
Cache Writes
,
Cache Hits
Output Tokens
; OpenAI và Gemini cũng có tài liệu giá API riêng.[12][32][2] Nói cách khác, input token tăng sẽ ảnh hưởng phần input, nhưng tổng chi phí còn phụ thuộc output token, cache hit hay cache write, mô hình đang dùng và cấu trúc request thực tế.[12]

Vì sao cùng một đoạn chữ lại ra số token khác nhau?

Token không đồng nghĩa với số từ hay số ký tự. Hướng dẫn tiktoken của OpenAI cho thấy cần dùng đúng encoding để tính một đoạn văn bản sẽ được tách thành bao nhiêu token; tài liệu Gemini cũng nêu input và output của Gemini API đều được token hóa, bao gồm cả văn bản và hình ảnh.[20][1]

Vì vậy, đếm ký tự hoặc dùng một tỷ lệ ước lượng chỉ phù hợp để dự toán rất thô. Với chi phí sản phẩm thật, con số đáng tin hơn là token count do chính mô hình hoặc API đích trả về. Việc Claude Opus 4.7 và Opus 4.6 trả số token khác nhau qua count_tokens là ví dụ rõ ràng rằng thay đổi tokenizer có thể làm thay đổi phép đếm trên cùng nội dung.[34]

Mức 35% nên được đọc thế nào?

Cách nói thường gặpCách hiểu chính xác hơn
Opus 4.7 làm mọi prompt đắt hơn 35%Quá đơn giản hóa. Tài liệu nêu khoảng 1x–1,35x token và tùy nội dung.[34]
Cùng một đoạn văn có thể bị tính nhiều token hơnĐúng. Anthropic nói tokenizer mới của Opus 4.7 có thể dùng nhiều token hơn và count_tokens sẽ khác Opus 4.6.[34]
Tokenizer chỉ ảnh hưởng giới hạn context, không ảnh hưởng chi phíChưa đủ. Giá API thường tách input, output, cache và các trường token khác; token count thay đổi có thể làm thay đổi cách tính chi phí.[12][32][2]
Muốn biết chính xác thì phải đo bằng công cụ chính thứcĐúng. OpenAI có tài liệu đếm input token và tiktoken, Gemini có count_tokens, Anthropic chỉ tới /v1/messages/count_tokens cho trường hợp Opus 4.7.[33][20][1][34]

Có thể ước tính chi phí ra sao?

Nếu chỉ xét input token và giả định đơn giá mỗi input token không đổi, có thể dùng công thức đơn giản:

Chi phí input tăng thêm ≈ (input token theo tokenizer mới − input token theo tokenizer cũ) × đơn giá mỗi input token

Nhưng công thức này chỉ tính phần input. Hóa đơn thực tế còn có thể gồm output token, cache write, cache hit hoặc các trường giá khác. Tài liệu giá của Anthropic đã tách các mục này; OpenAI và Gemini cũng có trang giá riêng để đối chiếu.[12][32][2]

Quy trình nên làm trước khi nâng cấp mô hình

1. Lấy toàn bộ payload thật, đừng chỉ lấy user message

Request thực tế có thể gồm system prompt, lịch sử hội thoại, context dài, dữ liệu từ tool, file, hình ảnh hoặc nhiều loại input khác. Gemini nêu mọi input và output đều được token hóa; hướng dẫn đếm token của OpenAI cũng minh họa việc tính input token với cả văn bản và hình ảnh.[1][33]

2. Dùng token counter chính thức của mô hình đích

OpenAI có tài liệu responses.input_tokens.count và hướng dẫn tiktoken; Gemini cung cấp count_tokens; Anthropic trong tài liệu Opus 4.7 nhắc tới /v1/messages/count_tokens và nói Opus 4.7 sẽ trả số token khác Opus 4.6.[33][20][1][34]

3. Lấy mẫu theo từng loại nội dung

Đừng chỉ thử một prompt ngắn. Vì Anthropic nói mức tăng token của Opus 4.7 thay đổi theo nội dung, nên nên đo các nhóm payload quan trọng: request có lưu lượng cao, context dài, request đắt nhất hoặc loại prompt xuất hiện thường xuyên nhất.[34]

4. Áp token delta vào bảng giá chính thức

Trước hết, so sánh input token count giữa mô hình cũ và mới. Sau đó dùng bảng giá chính thức của mô hình tương ứng để tính phần chênh lệch input. Cuối cùng, cộng lại các phần output, cache và các mục tính phí khác nếu có. Anthropic, OpenAI và Gemini đều có tài liệu giá chính thức để kiểm tra.[12][32][2]

5. Quyết định có cần tối ưu hay không

Nếu chênh lệch token nhỏ, có thể chỉ cần cập nhật ngân sách và dashboard giám sát. Nếu các payload có lưu lượng cao tăng đáng kể, khi đó mới nên cân nhắc rút gọn prompt, giảm context, cải thiện chiến lược cache hoặc tính lại chi phí mỗi request. Điểm mấu chốt không phải là hoảng vì con số 35%, mà là đo bằng token counter chính thức rồi áp vào bảng giá chính thức.[12][34]

Điểm chốt

Tokenizer mới thật sự có thể làm cùng một prompt dùng nhiều token hơn. Với Claude Opus 4.7, Anthropic xác nhận khi xử lý văn bản, tokenizer mới có thể dùng khoảng 1x–1,35x token so với các mô hình trước, tức tối đa khoảng 35%, nhưng mức tăng tùy nội dung.[34]

Câu hỏi cần đặt ra không phải là “có 35% hay không”, mà là: payload thật của bạn tăng bao nhiêu input token trên mô hình mới, hành vi output có thay đổi không, cache được tính phí thế nào và bảng giá của nhà cung cấp áp dụng ra sao. Cách đáng tin cậy nhất trước khi nâng cấp là chạy token counter chính thức, rồi đưa kết quả vào mô hình chi phí dựa trên bảng giá chính thức.[33][1][34][12][32][2]

Studio Global AI

Search, cite, and publish your own answer

Use this topic as a starting point for a fresh source-backed answer, then compare citations before you share it.

使用 Studio Global AI 搜尋並查核事實

重點

  • Có thể đắt hơn: Anthropic nói tokenizer mới của Claude Opus 4.7 có thể dùng khoảng 1x–1,35x token khi xử lý văn bản so với các mô hình trước, tức tối đa khoảng 35%, nhưng mức tăng tùy nội dung.[34]
  • Nếu đơn giá mỗi input token không đổi, cùng một prompt bị đếm nhiều input token hơn thì phần chi phí input thường tăng; tổng hóa đơn còn phụ thuộc output token, cache và cấu trúc request.[12][32][2]
  • Trước khi nâng cấp, hãy lấy payload thật, dùng token counter chính thức để so sánh mô hình cũ và mới, rồi áp vào bảng giá chính thức.[33][1][34]

人們還問

「Tokenizer mới của Claude Opus 4.7 có làm prompt đắt hơn?」的簡短答案是什麼?

Có thể đắt hơn: Anthropic nói tokenizer mới của Claude Opus 4.7 có thể dùng khoảng 1x–1,35x token khi xử lý văn bản so với các mô hình trước, tức tối đa khoảng 35%, nhưng mức tăng tùy nội dung.[34]

首先要驗證的關鍵點是什麼?

Có thể đắt hơn: Anthropic nói tokenizer mới của Claude Opus 4.7 có thể dùng khoảng 1x–1,35x token khi xử lý văn bản so với các mô hình trước, tức tối đa khoảng 35%, nhưng mức tăng tùy nội dung.[34] Nếu đơn giá mỗi input token không đổi, cùng một prompt bị đếm nhiều input token hơn thì phần chi phí input thường tăng; tổng hóa đơn còn phụ thuộc output token, cache và cấu trúc request.[12][32][2]

接下來在實務上我該做什麼?

Trước khi nâng cấp, hãy lấy payload thật, dùng token counter chính thức để so sánh mô hình cũ và mới, rồi áp vào bảng giá chính thức.[33][1][34]

接下來我應該探索哪個相關主題?

繼續“Claude Security 公測版:Anthropic 點樣用 AI 幫企業掃 code 漏洞”以獲得另一個角度和額外的引用。

開啟相關頁面

我應該將其與什麼進行比較?

對照「xAI Grok 4.3 API 解讀:1M context、低 token 價與語音平台野心」交叉檢查此答案。

開啟相關頁面

繼續你的研究

研究對話

研究問題

搜尋及事實查核:新 tokenizer 會唔會令同一份 prompt 用多咗 token、變相貴咗?

Studio Global AI40 來源

引用的答案

會,有可能;但唔係必然。最明確嘅官方例子係 Anthropic:Claude Opus 4.7 用咗新 tokenizer,官方寫明同一段固定文字可能會用大約 1x 至 1.35x token,即最多多約 35%,而且會因內容而異。[6]

  • 之所以會「變相貴咗」,係因為主流 API 都係按 token 計費。Anthropic 的定價頁面明確分開 Base Input Tokens 同 Output Tokens 收費;Google Gemini 文件亦寫明 API 成本部分取決於 input/output token 數;OpenAI 亦提供按 token 計價嘅 API pricing 頁面。[4][5][2]
  • 所以如果你講嘅「新 tokenizer」係同一供應商、同一價表之下換咗 tokenization 規則,而每個 input token 單價冇變,咁同一份 prompt 被切成更多 token,成本通常就會上升。[6][4][5]
  • 但唔可以一概而論成「新 tokenizer 一定更貴」。Anthropic 自己都寫明係 roughly 1x to 1.35x,而且「varying by content」,即係有啲內容增幅大,有啲細,亦未必所有模型都係加。[6]
  • 最穩陣做法係唔好靠估,直接用模型對應嘅 token counter 實測。OpenAI 有 input token counting 文件;Gemini 有 count_tokens;Anthropic 亦喺 Opus 4.7 文件直接指向 /v1/messages/count_tokens。[1][5][6]

如果你想,我可以下一步幫你做兩樣實用嘢:

  • 幫你查你關心嗰間供應商/模型(例如 GPT、Claude、Gemini)係咪最近換咗 tokenizer。
  • 幫你拎一段你實際用緊嘅 prompt,比較新舊模型大概會多幾多 token、貴幾多。

來源

  • [1] Understand and count tokens | Gemini API - Google AI for Developersai.google.dev

    All input to and output from the Gemini API is tokenized, including text, image. response, err := client.Models.GenerateContent(ctx, "gemini-3-flash-preview", contents, nil). print(client.models.count tokens(model="gemini-3-flash-preview", contents=history)...

  • [2] Gemini Developer API pricingai.google.dev

    English. Pricing. []( []( []( and audio. []( []( started. []( input. []( [](

  • [12] Pricing - Claude API Docsplatform.claude.com

    The "Base Input Tokens" column shows standard input pricing, "Cache Writes" and "Cache Hits" are specific to prompt caching, and "Output Tokens" shows output pricing. Prompt caching multipliers apply on top of fast mode pricing. Fast mode is not available w...

  • [20] How to count tokens with Tiktoken - OpenAI Developersdevelopers.openai.com

    Using o200k base encoding.") encoding = tiktoken.get encoding("o200k base") encoding = tiktoken.get encoding("o200k base") if model in { if model in { "gpt-3.5-turbo-0125", "gpt-3.5-turbo-0125", "gpt-4-0314", "gpt-4-0314", "gpt-4-32k-0314", "gpt-4-32k-0314"...

  • [32] Pricing | OpenAI APIdevelopers.openai.com

    gpt-5.4 $2.50 $0.25 $15.00 $5.00 $0.50 $22.50 . gpt-5.4 $1.25 $0.13 $7.50 $2.50 $0.25 $11.25 . gpt-5.4 $1.25 $0.13 $7.50 $2.50 $0.25 $11.25 . gpt-5.4 $5.00 $0.50 $30.00 - - - . Per-image output pricing for GPT Image and DALL·E models is listed in the Calcul...

  • [33] Counting tokens | OpenAI APIdevelopers.openai.com

    1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 from openai import OpenAI from openai import OpenAI client = OpenAI() Use file id from uploaded file, or image url for a URL Use file id from uploaded file, or image url for a URL response = client.responses.inpu...

  • [34] What's new in Claude Opus 4.7platform.claude.com

    Claude Opus 4.7 introduces task budgets. This new tokenizer may use roughly 1x to 1.35x as many tokens when processing text compared to previous models (up to 35% more, varying by content), and /v1/messages/count tokens will return a different number of tok...