studioglobal
الأكثر رواجًا في الاكتشاف
الإجاباتمنشور7 المصادر

هل يرفع Tokenizer الجديد في Claude Opus 4.7 تكلفة البرومبت؟

نعم، قد يحدث ذلك: وثائق Anthropic تقول إن tokenizer الجديد في Claude Opus 4.7 قد يستخدم عند معالجة النصوص نحو 1x إلى 1.35x من الرموز مقارنة بالنماذج السابقة، أي حتى نحو 35% أكثر، مع اختلاف التأثير حسب المحتوى.[34] إذا ظل سعر رمز الإدخال ثابتاً، فإن زيادة input tokens لنفس البرومبت قد ترفع تكلفة الإدخال؛ لكن الفاتورة...

17K0
抽象 AI token 計算圖示,說明 Claude Opus 4.7 新 tokenizer 可能令 prompt token 數上升
新 tokenizer 會令 prompt 更貴嗎?Claude Opus 4.7 的 35% token 警示AI 生成的編輯圖片:tokenizer 變動可能改變同一 prompt 的 token count。
موجّه الذكاء الاصطناعي

Create a landscape editorial hero image for this Studio Global article: 新 tokenizer 會令 prompt 更貴嗎?Claude Opus 4.7 的 35% token 警示. Article summary: 會,有可能:Claude Opus 4.7 官方文件指新 tokenizer 處理文字可能使用舊模型約 1x–1.35x tokens,最多約多 35%;但增幅視內容而定,唔等於所有 prompt 或總帳單都加 35%。[34]. Topic tags: ai, llm, claude, anthropic, tokenization. Reference image context from search candidates: Reference image 1: visual subject "Anthropic 甚至為了新版Tokenizer 增加了全體訂閱者的速率限制,因為在處理相同輸入時,新架構會多消耗高達35% 的Token。 「Claude Opus 4.7 拒絕填補指令的" source context "你的 AI 提示詞為何失靈?揭開 GPT-5.5 與 Claude 4.7 慘痛進化的真相 - YOLO LAB|解構科技邊際與媒體娛樂的數據實驗室" Reference image 2: visual subject "* I Measured Claude 4.7's New Tokenizer. Here's What It Costs You. The docs said 1.0–1.35x more tokens. On real content, I measured 1.47x. Anthropic's Claude Opus 4.7 migration gui" source context "I Measured Claude 4.7's New Tokenizer. Here's What It Costs You." Style: prem

openai.com

ترقية نموذج الذكاء الاصطناعي لا تعني فقط مقارنة السعر لكل مليون token. هناك طبقة أقل ظهوراً لكنها مؤثرة: الـ tokenizer، أي القاعدة التي تقطع النص قبل دخوله إلى النموذج. إذا تغيرت هذه القاعدة، فقد يتحول النص نفسه إلى عدد مختلف من الرموز، والرموز هي إحدى وحدات التسعير الأساسية في وثائق واجهات برمجة تطبيقات النماذج اللغوية.[20][12][32][2]

حالة Claude Opus 4.7 مثال واضح. وثائق Anthropic تنص على أن الـ tokenizer الجديد قد يستخدم عند معالجة النصوص نحو 1x إلى 1.35x من الرموز مقارنة بالنماذج السابقة، أي حتى نحو 35% أكثر، مع اختلاف ذلك حسب المحتوى. كما توضح أن استدعاء /v1/messages/count_tokens سيعيد عدداً مختلفاً من الرموز لـ Claude Opus 4.7 مقارنةً بـ Claude Opus 4.6.[34]

الخلاصة: قد يصبح البرومبت أغلى، لكن ليس دائماً بنسبة 35%

القراءة الأدق هي: إذا زاد عدد input tokens للنص نفسه، وبقي سعر رمز الإدخال كما هو، فقد ترتفع تكلفة جزء الإدخال في الطلب. لكن Anthropic لا تقول إن كل برومبت سيزيد 35%؛ النطاق الرسمي هو تقريباً من 1x إلى 1.35x، والتأثير يختلف حسب المحتوى.[34]

كذلك لا يصح تحويل زيادة الرموز مباشرة إلى زيادة مساوية في الفاتورة كاملة. في تسعير Claude API، توجد بنود منفصلة مثل

Base Input Tokens
و
Cache Writes
و
Cache Hits
و
Output Tokens
. كما أن OpenAI وGemini لديهما وثائق تسعير منفصلة لواجهات API الخاصة بهما.[12][32][2] لذلك قد يرتفع جزء الإدخال، بينما تتأثر التكلفة النهائية أيضاً بطول المخرجات، واستخدام الكاش، وبنية الطلب، وسعر النموذج نفسه.[12]

لماذا يتغير عدد الرموز للنص نفسه؟

الـ token ليس بالضرورة كلمة، ولا حرفاً واحداً. قد يكون جزءاً من كلمة، أو كلمة كاملة، أو علامة ترقيم، أو مقطعاً من نص أطول. لذلك لا يكفي حساب عدد الكلمات أو الأحرف لتقدير التكلفة بدقة.

دليل OpenAI الخاص بـ tiktoken يوضح أن حساب الرموز يعتمد على اختيار encoding مناسب للنموذج، بينما توضح وثائق Gemini أن مدخلات ومخرجات Gemini API تُحوَّل إلى tokens، بما في ذلك النصوص والصور وأنواع مدخلات أخرى.[20][1]

بعبارة أبسط: التقدير بعدد الكلمات مفيد للتخمين السريع، لكنه ليس صالحاً للمحاسبة أو التخطيط الدقيق. ما يهم فعلاً هو عدد الرموز الذي يعيده العداد الرسمي للنموذج المستهدف. وكون Claude Opus 4.7 وClaude Opus 4.6 يعطيان أرقاماً مختلفة عبر count_tokens يثبت أن تغيير الـ tokenizer وحده قد يغير عدّ النص نفسه.[34]

كيف نفهم رقم 35%؟

العبارة الشائعةالقراءة الأدق
Opus 4.7 يجعل كل برومبت أغلى 35%تبسيط زائد. الرقم الرسمي هو نحو 1x–1.35x من الرموز، والتأثير يختلف حسب المحتوى.[34]
النص نفسه قد يُحسب بعدد أكبر من الرموزصحيح. وثائق Anthropic تقول إن tokenizer الجديد في Opus 4.7 قد يستخدم رموزاً أكثر، وأن عدّ الرموز سيختلف عن Opus 4.6.[34]
تغيير الـ tokenizer يؤثر فقط في حد السياق، لا في التكلفةغير مكتمل. وثائق التسعير تعتمد على بنود مثل input وoutput وcache، لذلك تغير عدد الرموز قد يدخل في حساب التكلفة.[12][32][2]
الأفضل استخدام العداد الرسمي بدلاً من التخمينصحيح. OpenAI توفر إرشادات لحساب input tokens وtiktoken، وGemini توفر count_tokens، وAnthropic تشير إلى /v1/messages/count_tokens.[33][20][1][34]

طريقة مبسطة لتقدير الأثر المالي

إذا أردت حساب جزء الإدخال فقط، وكان سعر رمز الإدخال ثابتاً، فيمكن استخدام الصيغة التقريبية التالية:

تكلفة الإدخال الإضافية ≈ (رموز الإدخال بالـ tokenizer الجديد − رموز الإدخال بالـ tokenizer القديم) × سعر رمز الإدخال

لكن هذه الصيغة لا تغطي الفاتورة كلها. التكلفة الفعلية قد تشمل output tokens، وكتابة الكاش، وضربات الكاش، أو بنوداً أخرى بحسب المزود. وثائق Anthropic تفصل هذه البنود، كما توفر OpenAI وGemini صفحات تسعير رسمية يمكن الرجوع إليها عند بناء نموذج تكلفة داخلي.[12][32][2]

ماذا تفعل قبل ترقية النموذج؟

1. اختبر حمولة الطلب كاملة، لا رسالة المستخدم وحدها

في التطبيقات الواقعية، ما يصل إلى النموذج لا يكون عادةً جملة المستخدم فقط. قد يتضمن system prompt، وسياقاً طويلاً، ونتائج أدوات، وملفات، وصوراً، وتعليمات تنسيق. وثائق Gemini تذكر أن كل المدخلات والمخرجات تُحوَّل إلى tokens، بما في ذلك النص والصور، كما يعرض دليل OpenAI لحساب الرموز مثالاً لمدخلات تجمع بين النص والصورة.[1][33]

2. استخدم عداد الرموز الرسمي للنموذج المستهدف

لا تعتمد على عداد عام إذا كنت تحتاج رقماً قريباً من الفاتورة. OpenAI توفر responses.input_tokens.count وإرشادات tiktoken، وGemini توفر count_tokens، بينما تشير وثائق Anthropic الخاصة بـ Opus 4.7 إلى /v1/messages/count_tokens وتوضح أن Opus 4.7 سيعيد عدداً مختلفاً عن Opus 4.6.[33][20][1][34]

3. خذ عينات من أنواع المحتوى المهمة لديك

لا تختبر برومبتاً قصيراً واحداً ثم تعمم النتيجة. بما أن Anthropic تقول إن الزيادة تختلف حسب المحتوى، فالأفضل قياس أنواع الطلبات الأكثر استخداماً أو الأعلى تكلفة: السياقات الطويلة، البيانات المنظمة، محادثات الدعم، طلبات البرمجة، أو أي payload يمثل إنفاقك الحقيقي.[34]

4. طبّق الفارق على التسعير الرسمي

بعد مقارنة عدد input tokens في النموذجين، استخدم صفحة التسعير الرسمية للنموذج لحساب فرق تكلفة الإدخال. بعدها أعد إدخال output tokens وcache writes وcache hits، إن كانت مستخدمة، في نموذج التكلفة الكامل. صفحات Anthropic وOpenAI وGemini الرسمية هي نقطة البداية لهذا الحساب.[12][32][2]

5. قرر إن كنت تحتاج إلى تحسين البرومبت

إذا كان الفرق صغيراً، فقد يكفي تحديث الميزانية والتنبيهات. أما إذا ظهرت زيادة واضحة في payload عالي التكرار، ففكر في ضغط التعليمات، تقليل السياق غير الضروري، تحسين استراتيجية الكاش، أو إعادة حساب تكلفة الطلب الواحد. المهم ألا يكون رقم 35% سبباً للذعر، بل إشارة لاختبار الأثر بالأرقام الرسمية.[12][34]

الخلاصة العملية

الـ tokenizer الجديد يمكن فعلاً أن يجعل النص نفسه يستهلك tokens أكثر. في Claude Opus 4.7، تؤكد وثائق Anthropic أن معالجة النص قد تستخدم نحو 1x إلى 1.35x من الرموز مقارنة بالنماذج السابقة، أي حتى نحو 35% أكثر، مع اختلاف التأثير حسب المحتوى.[34]

لكن السؤال الأهم ليس: هل الرقم 35% صحيح؟ بل: كم زاد عدد input tokens في طلباتك أنت؟ وهل تغيرت المخرجات؟ وكيف تُحاسب بنود الكاش؟ وما سعر النموذج في صفحة التسعير الرسمية؟ قبل الترقية، شغّل عداد الرموز الرسمي على payload حقيقي، ثم طبّق التسعير الرسمي. هذه هي الطريقة الأكثر أماناً لمعرفة ما إذا كان البرومبت سيصبح أغلى فعلاً.[33][1][34][12][32][2]

Studio Global AI

Search, cite, and publish your own answer

Use this topic as a starting point for a fresh source-backed answer, then compare citations before you share it.

ابحث وتحقق من الحقائق مع Studio Global AI

الوجبات السريعة الرئيسية

  • نعم، قد يحدث ذلك: وثائق Anthropic تقول إن tokenizer الجديد في Claude Opus 4.7 قد يستخدم عند معالجة النصوص نحو 1x إلى 1.35x من الرموز مقارنة بالنماذج السابقة، أي حتى نحو 35% أكثر، مع اختلاف التأثير حسب المحتوى.[34]
  • إذا ظل سعر رمز الإدخال ثابتاً، فإن زيادة input tokens لنفس البرومبت قد ترفع تكلفة الإدخال؛ لكن الفاتورة الإجمالية تعتمد أيضاً على output tokens والتخزين المؤقت cache وبنود التسعير الأخرى.[12][32][2]
  • قبل الترقية، اختبر حمولة الطلب الحقيقية كاملة باستخدام عدّادات الرموز الرسمية، ثم طبّق الأسعار الرسمية للنموذج.[33][1][34]

يسأل الناس أيضا

ما هي الإجابة المختصرة على "هل يرفع Tokenizer الجديد في Claude Opus 4.7 تكلفة البرومبت؟"؟

نعم، قد يحدث ذلك: وثائق Anthropic تقول إن tokenizer الجديد في Claude Opus 4.7 قد يستخدم عند معالجة النصوص نحو 1x إلى 1.35x من الرموز مقارنة بالنماذج السابقة، أي حتى نحو 35% أكثر، مع اختلاف التأثير حسب المحتوى.[34]

ما هي النقاط الأساسية التي يجب التحقق منها أولاً؟

نعم، قد يحدث ذلك: وثائق Anthropic تقول إن tokenizer الجديد في Claude Opus 4.7 قد يستخدم عند معالجة النصوص نحو 1x إلى 1.35x من الرموز مقارنة بالنماذج السابقة، أي حتى نحو 35% أكثر، مع اختلاف التأثير حسب المحتوى.[34] إذا ظل سعر رمز الإدخال ثابتاً، فإن زيادة input tokens لنفس البرومبت قد ترفع تكلفة الإدخال؛ لكن الفاتورة الإجمالية تعتمد أيضاً على output tokens والتخزين المؤقت cache وبنود التسعير الأخرى.[12][32][2]

ماذا يجب أن أفعل بعد ذلك في الممارسة العملية؟

قبل الترقية، اختبر حمولة الطلب الحقيقية كاملة باستخدام عدّادات الرموز الرسمية، ثم طبّق الأسعار الرسمية للنموذج.[33][1][34]

ما هو الموضوع ذو الصلة الذي يجب أن أستكشفه بعد ذلك؟

تابع مع "Claude Security من Anthropic: شرح النسخة التجريبية لفحص ثغرات الشيفرة بالذكاء الاصطناعي" لزاوية أخرى واستشهادات إضافية.

فتح الصفحة ذات الصلة

ما الذي يجب أن أقارنه بهذا؟

تحقق من هذه الإجابة مقابل "Grok 4.3 API: مليون توكن وسعر منخفض… كيف تراهن xAI على النماذج والصوت؟".

فتح الصفحة ذات الصلة

مواصلة البحث الخاص بك

محادثة بحثية

أنت

سؤال بحثي

搜尋及事實查核:新 tokenizer 會唔會令同一份 prompt 用多咗 token、變相貴咗?

Studio Global AI40 المصادر

إجابة مستشهد بها

會,有可能;但唔係必然。最明確嘅官方例子係 Anthropic:Claude Opus 4.7 用咗新 tokenizer,官方寫明同一段固定文字可能會用大約 1x 至 1.35x token,即最多多約 35%,而且會因內容而異。[6]

  • 之所以會「變相貴咗」,係因為主流 API 都係按 token 計費。Anthropic 的定價頁面明確分開 Base Input Tokens 同 Output Tokens 收費;Google Gemini 文件亦寫明 API 成本部分取決於 input/output token 數;OpenAI 亦提供按 token 計價嘅 API pricing 頁面。[4][5][2]
  • 所以如果你講嘅「新 tokenizer」係同一供應商、同一價表之下換咗 tokenization 規則,而每個 input token 單價冇變,咁同一份 prompt 被切成更多 token,成本通常就會上升。[6][4][5]
  • 但唔可以一概而論成「新 tokenizer 一定更貴」。Anthropic 自己都寫明係 roughly 1x to 1.35x,而且「varying by content」,即係有啲內容增幅大,有啲細,亦未必所有模型都係加。[6]
  • 最穩陣做法係唔好靠估,直接用模型對應嘅 token counter 實測。OpenAI 有 input token counting 文件;Gemini 有 count_tokens;Anthropic 亦喺 Opus 4.7 文件直接指向 /v1/messages/count_tokens。[1][5][6]

如果你想,我可以下一步幫你做兩樣實用嘢:

  • 幫你查你關心嗰間供應商/模型(例如 GPT、Claude、Gemini)係咪最近換咗 tokenizer。
  • 幫你拎一段你實際用緊嘅 prompt,比較新舊模型大概會多幾多 token、貴幾多。

المصادر

  • [1] Understand and count tokens | Gemini API - Google AI for Developersai.google.dev

    All input to and output from the Gemini API is tokenized, including text, image. response, err := client.Models.GenerateContent(ctx, "gemini-3-flash-preview", contents, nil). print(client.models.count tokens(model="gemini-3-flash-preview", contents=history)...

  • [2] Gemini Developer API pricingai.google.dev

    English. Pricing. []( []( []( and audio. []( []( started. []( input. []( [](

  • [12] Pricing - Claude API Docsplatform.claude.com

    The "Base Input Tokens" column shows standard input pricing, "Cache Writes" and "Cache Hits" are specific to prompt caching, and "Output Tokens" shows output pricing. Prompt caching multipliers apply on top of fast mode pricing. Fast mode is not available w...

  • [20] How to count tokens with Tiktoken - OpenAI Developersdevelopers.openai.com

    Using o200k base encoding.") encoding = tiktoken.get encoding("o200k base") encoding = tiktoken.get encoding("o200k base") if model in { if model in { "gpt-3.5-turbo-0125", "gpt-3.5-turbo-0125", "gpt-4-0314", "gpt-4-0314", "gpt-4-32k-0314", "gpt-4-32k-0314"...

  • [32] Pricing | OpenAI APIdevelopers.openai.com

    gpt-5.4 $2.50 $0.25 $15.00 $5.00 $0.50 $22.50 . gpt-5.4 $1.25 $0.13 $7.50 $2.50 $0.25 $11.25 . gpt-5.4 $1.25 $0.13 $7.50 $2.50 $0.25 $11.25 . gpt-5.4 $5.00 $0.50 $30.00 - - - . Per-image output pricing for GPT Image and DALL·E models is listed in the Calcul...

  • [33] Counting tokens | OpenAI APIdevelopers.openai.com

    1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 from openai import OpenAI from openai import OpenAI client = OpenAI() Use file id from uploaded file, or image url for a URL Use file id from uploaded file, or image url for a URL response = client.responses.inpu...

  • [34] What's new in Claude Opus 4.7platform.claude.com

    Claude Opus 4.7 introduces task budgets. This new tokenizer may use roughly 1x to 1.35x as many tokens when processing text compared to previous models (up to 35% more, varying by content), and /v1/messages/count tokens will return a different number of tok...