studioglobal
인기 있는 발견
답변게시됨10 소스

GPT-5.5 hay Claude Opus 4.7: chọn mô hình nào cho code, UI và chi phí?

Không có người thắng tuyệt đối: GPT 5.5 đạt 82,7% trên Terminal Bench 2.0 so với 69,4% của Claude Opus 4.7, nhưng Claude đạt 64,3% trên SWE Bench Pro so với 58,6% của GPT 5.5; cả hai nhóm số liệu đều cần đọc kèm lưu ý... Với bản nháp UI/front end, Appwrite đánh giá Claude Opus 4.7 tạo phân cấp bố cục rõ hơn, typogra...

17K0
GPT-5.5와 Claude Opus 4.7의 코딩, UI, 가격 비교를 시각화한 추상 일러스트
GPT-5.5 vs Claude Opus 4.7: 코딩·UI·가격별 승자는코딩 벤치마크, UI 생성 품질, API 비용은 서로 다른 선택 기준을 제시한다.
AI 프롬프트

Create a landscape editorial hero image for this Studio Global article: GPT-5.5 vs Claude Opus 4.7: 코딩·UI·가격별 승자는?. Article summary: 전체 승자를 단정하기는 어렵습니다. GPT 5.5는 Terminal Bench 2.0에서 82.7%로 Claude Opus 4.7의 69.4%를 앞섰지만, Claude는 SWE Bench Pro에서 64.3%로 GPT 5.5의 58.6%보다 높아 작업별 선택이 필요합니다.[4][8]. Topic tags: ai, openai, anthropic, claude, gpt 5. Reference image context from search candidates: Reference image 1: visual subject "# OpenAI’s GPT-5.5 vs Claude Opus 4.7: Which is better? OpenAI released its latest model, GPT-5.5, on April 23, just a week after Anthropic introduced Claude Opus 4.7. **Spoiler al" source context "OpenAI's GPT-5.5 vs Claude Opus 4.7: Which is better? | Mashable" Reference image 2: visual subject "# OpenAI’s GPT-5.5 vs Claude Opus 4.7: Which is better? OpenAI released its latest model, GPT-5.5, on April 23, just a week after Anthropic introduced Claude Opus 4.7. **Spoil

openai.com

So sánh GPT-5.5 với Claude Opus 4.7 không nên bắt đầu bằng câu hỏi mô hình nào mạnh hơn chung chung. Câu hỏi thực tế hơn là: với công việc cụ thể của bạn, mô hình nào ít làm hỏng việc hơn và đáng tiền hơn?

OpenAI mô tả GPT-5.5 là mô hình cho các công việc phức tạp trong đời thực, gồm viết mã, nghiên cứu trực tuyến, phân tích thông tin, tạo tài liệu/bảng tính và di chuyển giữa nhiều công cụ để hoàn thành nhiệm vụ.[16] Anthropic giới thiệu Claude Opus 4.7 là mô hình phổ thông mạnh nhất của hãng cho suy luận phức tạp và lập trình dạng agent, tức kiểu mô hình tự thực hiện nhiều bước với công cụ.[26]

Từ các dữ liệu công khai hiện có, bức tranh khá rõ: GPT-5.5 có tín hiệu mạnh ở bài toán terminal và dùng công cụ; Claude Opus 4.7 đáng thử nghiêm túc hơn khi sửa issue GitHub thực tế, dựng UI ban đầu và tối ưu chi phí đầu ra.[1][4][8][23][28]

Kết luận nhanh

  • Tự động hóa qua terminal, tác vụ dạng agent: nên thử GPT-5.5 trước. Bảng tổng hợp của RDWorld ghi GPT-5.5 đạt 82,7% trên Terminal-Bench 2.0, cao hơn 69,4% của Claude Opus 4.7, dù bảng này cũng lưu ý hai mô hình có khác biệt về harness đánh giá.[8]
  • Sửa bug, xử lý issue trong repo thật: Claude Opus 4.7 là đối thủ rất mạnh. Yahoo Tech cho biết trên SWE-Bench Pro, benchmark chấm khả năng giải quyết issue GitHub thực tế, Claude Opus 4.7 đạt 64,3% còn GPT-5.5 đạt 58,6%.[4]
  • Bản nháp UI/front-end: Claude Opus 4.7 có lợi thế theo đánh giá của Appwrite. Bài đánh giá này cho rằng Claude tạo bố cục có phân cấp rõ hơn, typography chặt hơn và ít rơi vào lưới thẻ lặp lại hơn.[1]
  • Chi phí API: nếu chỉ nhìn đơn giá chuẩn, đầu vào ngang nhau nhưng đầu ra của Claude rẻ hơn. GPT-5.5 được công bố ở mức 5 USD/1 triệu token đầu vào và 30 USD/1 triệu token đầu ra; Claude Opus 4.7 bắt đầu từ 5 USD/1 triệu token đầu vào và 25 USD/1 triệu token đầu ra.[23][28]
  • Hệ sinh thái đang dùng: nếu quy trình của bạn đã xoay quanh ChatGPT, Codex hoặc OpenAI API, GPT-5.5 có thể dễ thử hơn vì OpenAI cho biết mô hình này có trong Codex và ChatGPT, đồng thời sẽ có trên Responses API và Chat Completions API.[14][23]

Bảng so sánh trọng tâm

Tiêu chíGPT-5.5Claude Opus 4.7Cách hiểu trong thực tế
Định vị mô hìnhOpenAI giới thiệu cho code, nghiên cứu online, phân tích, tài liệu/bảng tính và luồng công việc qua nhiều công cụ.[16]Anthropic giới thiệu là mô hình phổ thông mạnh nhất của hãng cho suy luận phức tạp và lập trình agent.[26]Cả hai đều là mô hình cao cấp cho công việc chuyên môn, nhưng nhấn mạnh khác nhau.
Terminal-Bench 2.082,7%.[8]69,4%.[8]Tác vụ qua terminal nghiêng về GPT-5.5, nhưng cần lưu ý khác biệt harness.[8]
SWE-Bench Pro58,6%.[4]64,3%.[4]Sửa issue GitHub thực tế nghiêng về Claude Opus 4.7.[4]
GPQA Diamond93,6%.[8]94,2%.[8]Khoảng cách nhỏ; RDWorld đánh dấu hạng mục này đã gần bão hòa.[8]
HLE, không dùng công cụ41,4%.[8]46,9%.[8]Với bài đánh giá khó khi không có công cụ, Claude có số điểm cao hơn.[8]
BrowseComp84,4%.[8]79,3%.[8]GPT-5.5 cao hơn, nhưng bảng có lưu ý contamination flagged nên không nên kết luận quá mạnh.[8]
UI-firstAppwrite cho rằng nếu không prompt rất cụ thể, GPT-5.5 dễ quay về lưới thẻ lặp lại.[1]Appwrite đánh giá Claude tạo bố cục rõ cấp bậc hơn, chữ chặt hơn và ít lặp card grid hơn.[1]Với landing page, dashboard, màn hình app đầu tiên, Claude đáng thử trước.
Giá API chuẩn5 USD/1 triệu token đầu vào, 30 USD/1 triệu token đầu ra, cửa sổ ngữ cảnh 1 triệu token.[23]Bắt đầu từ 5 USD/1 triệu token đầu vào, 25 USD/1 triệu token đầu ra.[28]Đầu vào ngang nhau; đầu ra Claude thấp hơn theo đơn giá chuẩn.[23][28]

Code: đừng gộp terminal với sửa bug trong repo

Nếu chỉ hỏi mô hình nào code tốt hơn, câu trả lời dễ bị lệch. Terminal-Bench 2.0 và SWE-Bench Pro đo hai kiểu năng lực khác nhau.

Ở Terminal-Bench 2.0, GPT-5.5 đạt 82,7%, cao hơn 69,4% của Claude Opus 4.7.[8] Đây là tín hiệu có lợi cho GPT-5.5 trong các công việc kiểu chạy lệnh shell, đọc output, gọi công cụ, sửa rồi chạy lại test. VentureBeat cũng đặt lợi thế của GPT-5.5 trong bối cảnh một benchmark cụ thể là Terminal-Bench 2.0.[6]

Nhưng khi chuyển sang SWE-Bench Pro, kết quả đảo chiều. Yahoo Tech mô tả SWE-Bench Pro là benchmark chấm khả năng giải quyết issue GitHub trong thế giới thực, và cho biết Claude Opus 4.7 đạt 64,3% so với 58,6% của GPT-5.5.[4] Nếu công việc chính của bạn là đưa mô hình vào một codebase có sẵn, yêu cầu đọc issue, chỉnh sửa nhiều file và làm test pass, Claude Opus 4.7 cần được đưa vào vòng thử nghiệm đầu tiên.[4]

Điểm quan trọng: đừng coi các con số này như bảng xếp hạng tuyệt đối. Yahoo Tech cho biết OpenAI nêu khả năng một phần điểm SWE-Bench Pro của Claude chịu ảnh hưởng bởi memorization trên một số bài, và bảng của RDWorld cũng gắn lưu ý memorization concern cho SWE-Bench Pro.[4][8] Với Terminal-Bench 2.0, RDWorld lại lưu ý khác biệt harness.[8] Cách an toàn nhất vẫn là chạy thử trên chính repo, prompt, test suite và tiêu chí chấp nhận của bạn.

UI và front-end: Claude có lợi thế ở bản nháp đầu tiên

Với nhóm sản phẩm cần dựng nhanh landing page, dashboard SaaS hoặc màn hình app, benchmark code chưa đủ. Thứ bạn cần là cấu trúc thông tin, nhịp thị giác, spacing, typography và cách chọn component.

Ở mảng này, Appwrite đánh giá Claude Opus 4.7 vẫn mạnh hơn cho UI-first work.[1] Theo Appwrite, Claude Opus 4.7 tạo bố cục có phân cấp rõ ràng hơn, typography chặt hơn và ít phản xạ quay về dạng card grid lặp lại.[1]

Đây không phải benchmark định lượng kiểu điểm phần trăm, mà là đánh giá bên thứ ba về chất lượng đầu ra UI.[1] Dù vậy, nó hữu ích nếu mục tiêu của bạn là có bản nháp đủ tốt để designer hoặc front-end engineer chỉnh tiếp. Nếu dùng GPT-5.5 cho UI, nên prompt rõ hơn về layout, hệ thống component, khoảng cách, typography, trạng thái responsive và phong cách thị giác mong muốn.[1]

Suy luận và browsing: tín hiệu không một chiều

Ở các benchmark suy luận, hai mô hình khá sát nhau hoặc thay nhau dẫn đầu tùy bài. Trên GPQA Diamond, GPT-5.5 được ghi 93,6%, còn Claude Opus 4.7 là 94,2%; RDWorld đánh dấu hạng mục này ở trạng thái gần bão hòa.[8] Nói cách khác, chênh lệch nhỏ ở đây không đủ để khẳng định một mô hình vượt trội toàn diện.

Ở HLE không dùng công cụ, GPT-5.5 đạt 41,4% còn Claude Opus 4.7 đạt 46,9%, nghiêng về Claude.[8] Trong khi đó, BrowseComp cho thấy GPT-5.5 đạt 84,4% so với 79,3% của Claude Opus 4.7.[8] Tuy nhiên, cùng bảng này gắn lưu ý contamination flagged cho BrowseComp, nên không nên dùng riêng chỉ số đó để kết luận GPT-5.5 chắc chắn tốt hơn trong mọi tác vụ nghiên cứu web.[8]

Giá API: đầu ra dài thì Claude có thể lợi hơn

Với API, token là đơn vị tính phí và xử lý văn bản. Một tác vụ viết code dài, giải thích refactor hoặc tạo tài liệu thường tốn nhiều token đầu ra; khi đó đơn giá output quan trọng không kém đơn giá input.

OpenAI cho biết GPT-5.5 sẽ sớm có trên Responses API và Chat Completions API với giá 5 USD/1 triệu token đầu vào, 30 USD/1 triệu token đầu ra và cửa sổ ngữ cảnh 1 triệu token.[23] Batch và Flex có giá bằng một nửa chuẩn, còn Priority processing là 2,5 lần giá chuẩn.[23]

Anthropic cho biết Claude Opus 4.7 bắt đầu từ 5 USD/1 triệu token đầu vào và 25 USD/1 triệu token đầu ra.[28] Hãng cũng nói prompt caching có thể tiết kiệm tới 90% chi phí và batch processing tiết kiệm 50%.[28]

Nếu chỉ so đơn giá chuẩn, đầu vào của hai bên ngang nhau, còn Claude Opus 4.7 rẻ hơn 5 USD cho mỗi 1 triệu token đầu ra.[23][28] Vì vậy, với các workload sinh nhiều code, viết tài liệu dài hoặc tạo nhiều phương án UI, Claude có thể có lợi thế chi phí. Nhưng hóa đơn thật còn phụ thuộc độ dài output, số lần phải chạy lại, cache hit rate, batch processing và chất lượng kết quả đầu tiên. OpenAI có nói GPT-5.5 thông minh hơn và tiết kiệm token hơn GPT-5.4, nhưng đó không phải so sánh chi phí trực tiếp với Claude Opus 4.7.[23]

Tích hợp: mô hình tốt chưa đủ, wrapper cũng quan trọng

OpenAI cho biết GPT-5.5 đã có trong Codex và ChatGPT, đồng thời sẽ được cung cấp cho lập trình viên qua Responses API và Chat Completions API.[14][23] Nếu đội của bạn đã dùng ChatGPT, Codex hoặc hạ tầng OpenAI API, chi phí chuyển đổi để thử GPT-5.5 có thể thấp hơn.

Với Claude Opus 4.7, Anthropic hướng dẫn dùng model ID claude-opus-4-7 qua Claude API.[28] Tuy nhiên, tài liệu Anthropic cũng nói Opus 4.7 có API breaking changes so với Opus 4.6, nên các nhóm đang dùng Claude cần kiểm tra migration trước khi nâng cấp.[26]

Một điểm dễ bị bỏ qua là cùng một mô hình nhưng kết quả có thể khác nhau tùy sản phẩm bọc ngoài, system prompt và chuỗi công cụ. Trong postmortem về báo cáo chất lượng Claude Code, Anthropic cho biết một thay đổi system prompt từng làm một bài đánh giá giảm 3% cho cả Opus 4.6 và Opus 4.7, rồi được hoàn nguyên trong bản phát hành ngày 20 tháng 4.[27]

Gợi ý chọn mô hình theo việc

Việc cần làmNên thử trướcLý do
Chạy lệnh terminal, tự động hóa, agent dùng công cụGPT-5.5Terminal-Bench 2.0 ghi GPT-5.5 đạt 82,7%, cao hơn 69,4% của Claude Opus 4.7.[8]
Sửa issue GitHub, bug trong repo thật, làm test passClaude Opus 4.7SWE-Bench Pro ghi Claude Opus 4.7 đạt 64,3%, cao hơn 58,6% của GPT-5.5.[4]
Tạo landing page, dashboard, màn hình app ban đầuClaude Opus 4.7Appwrite đánh giá Claude mạnh hơn cho UI-first work.[1]
Sinh nhiều code hoặc tài liệu dài qua APIClaude Opus 4.7Đơn giá đầu ra chuẩn bắt đầu từ 25 USD/1 triệu token, thấp hơn mức 30 USD của GPT-5.5.[23][28]
Quy trình đã nằm trong ChatGPT/Codex/OpenAI APIGPT-5.5OpenAI cho biết GPT-5.5 có trong Codex và ChatGPT, và sẽ có qua API cho lập trình viên.[14][23]
Sản phẩm đang dùng Claude APIClaude Opus 4.7, nhưng cần kiểm tra migrationAnthropic cung cấp claude-opus-4-7, đồng thời cảnh báo có thay đổi API so với Opus 4.6.[26][28]

Chốt lại

Nói GPT-5.5 thắng Claude Opus 4.7 trên mọi mặt là quá đơn giản hóa. GPT-5.5 có tín hiệu mạnh ở terminal, tác vụ agent và hệ sinh thái OpenAI. Claude Opus 4.7 lại nổi bật ở SWE-Bench Pro, UI-first generation và đơn giá đầu ra chuẩn.[1][4][8][14][23][28]

Chiến lược hợp lý nhất hiện nay là định tuyến theo workload: dùng GPT-5.5 làm ứng viên đầu cho tự động hóa qua terminal và quy trình OpenAI; dùng Claude Opus 4.7 làm ứng viên đầu cho sửa issue trong repo thật, dựng UI ban đầu và tác vụ sinh nhiều output.[1][4][8][23][28]

Studio Global AI

Search, cite, and publish your own answer

Use this topic as a starting point for a fresh source-backed answer, then compare citations before you share it.

Studio Global AI로 검색 및 팩트체크

주요 시사점

  • Không có người thắng tuyệt đối: GPT 5.5 đạt 82,7% trên Terminal Bench 2.0 so với 69,4% của Claude Opus 4.7, nhưng Claude đạt 64,3% trên SWE Bench Pro so với 58,6% của GPT 5.5; cả hai nhóm số liệu đều cần đọc kèm lưu ý...
  • Với bản nháp UI/front end, Appwrite đánh giá Claude Opus 4.7 tạo phân cấp bố cục rõ hơn, typography chặt hơn và ít lặp lại dạng lưới thẻ hơn GPT 5.5.[1]
  • Về giá API chuẩn, đầu vào của cả hai đều ở mức 5 USD/1 triệu token; đầu ra GPT 5.5 là 30 USD/1 triệu token, còn Claude Opus 4.7 bắt đầu từ 25 USD/1 triệu token.[23][28]

사람들은 또한 묻습니다.

"GPT-5.5 hay Claude Opus 4.7: chọn mô hình nào cho code, UI và chi phí?"에 대한 짧은 대답은 무엇입니까?

Không có người thắng tuyệt đối: GPT 5.5 đạt 82,7% trên Terminal Bench 2.0 so với 69,4% của Claude Opus 4.7, nhưng Claude đạt 64,3% trên SWE Bench Pro so với 58,6% của GPT 5.5; cả hai nhóm số liệu đều cần đọc kèm lưu ý...

먼저 검증할 핵심 포인트는 무엇인가요?

Không có người thắng tuyệt đối: GPT 5.5 đạt 82,7% trên Terminal Bench 2.0 so với 69,4% của Claude Opus 4.7, nhưng Claude đạt 64,3% trên SWE Bench Pro so với 58,6% của GPT 5.5; cả hai nhóm số liệu đều cần đọc kèm lưu ý... Với bản nháp UI/front end, Appwrite đánh giá Claude Opus 4.7 tạo phân cấp bố cục rõ hơn, typography chặt hơn và ít lặp lại dạng lưới thẻ hơn GPT 5.5.[1]

실무에서는 다음으로 무엇을 해야 합니까?

Về giá API chuẩn, đầu vào của cả hai đều ở mức 5 USD/1 triệu token; đầu ra GPT 5.5 là 30 USD/1 triệu token, còn Claude Opus 4.7 bắt đầu từ 25 USD/1 triệu token.[23][28]

다음에는 어떤 관련 주제를 탐구해야 할까요?

다른 각도와 추가 인용을 보려면 "Claude Security 공개 베타: 앤트로픽의 AI 코드 취약점 스캐너가 하는 일"으로 계속하세요.

관련 페이지 열기

이것을 무엇과 비교해야 합니까?

"Grok 4.3 API 분석: 100만 토큰과 낮은 단가, xAI의 다음 승부수"에 대해 이 답변을 대조 확인하세요.

관련 페이지 열기

연구를 계속하세요

연구 대화

당신

연구문제

GPT 5.5와 Claude Opus 4.7의 성능을 비교해 보세요.

Studio Global AI35 소스

인용 답변

제공된 근거만 보면, GPT-5.5는 전반 벤치마크에서 Claude Opus 4.7보다 앞선다는 신호가 있지만, 근거가 제한적이어서 확정적 우위로 단정하긴 어렵습니다.[32] 반대로 UI 중심 결과물과 일부 사용 맥락에서는 Claude Opus 4.7이 더 강하다는 평가도 있어, 작업 유형에 따라 우열이 갈리는 모습입니다.[6]

현재 근거로 보이는 비교

  • ChatGPT 인스타그램 게시물에 따르면, GPT-5.5는 대부분의 평가 항목에서 Claude Opus 4.7과 Gemini 3.1 Pro보다 앞서며, 브라우징 과제에서만 약간의 격차가 있다고 합니다.[32]
  • 같은 게시물은 GPT-5.5가 이전 속도를 유지하면서 결과를 개선했고, 같은 작업을 더 적은 토큰으로 끝내 더 효율적이라고 주장합니다.[32]
  • Anthropic는 Claude Opus 4.7을 복잡한 추론과 에이전트형 코딩에서 자사의 가장 강력한 일반 공개 모델이라고 소개했습니다.[2]
  • 제3자 분석인 Appwrite 글은 UI-first 작업에서는 Claude Opus 4.7이 여전히 더 강하며, 레이아웃 계층과 시각적 구조가 더 좋다고 평가했습니다.[6]
  • Anthropic는 4월 20일 이전 시스템 프롬프트 이슈로 Opus 4.6과 4.7이 한 평가에서 각각 3% 하락했지만, 이후 되돌렸다고 밝혔습니다.[4]

실무적으로 해석하면

  • 일반적인 공개 평가 기준만 따르면, 현재 제공된 자료에서는 GPT-5.5가 전체 점수 측면에서 우세해 보입니다.[32]
  • 프런트엔드 시안 생성이나 UI 표현력처럼 시각적 결과물의 구조가 중요한 작업이라면, Claude Opus 4.7이 더 나을 가능성이 있습니다.[6]
  • 브라우징 성능은 GPT-5.5가 약간 뒤처질 수 있다는 신호가 있습니다.[32]
  • 복잡한 추론과 에이전트형 코딩은 Anthropic가 Opus 4.7의 핵심 강점으로 직접 강조한 영역입니다.[2]

한계와 불확실성

  • 근거가 충분하지 않습니다.
  • 제공된 자료에는 GPT-5.5와 Claude Opus 4.7의 동일 조건 head-to-head 공식 벤치마크 표, 테스트 방법, 표본 수, 통계적 유의성 정보가 없습니다.
  • GPT-5.5 우세 신호는 현재 자료상 주로 ChatGPT 인스타그램 게시물에 의존합니다.[32]
  • Claude 우세 신호는 현재 자료상 주로 제3자 블로그 평가에 의존합니다.[6]

원하시면 다음 단계로는 코딩, 글쓰기, 브라우징,

UI 생성
,
비용 효율
중 어떤 기준이 중요한지 정해서, 그 기준별로 더 실전적인 선택 가이드를 정리해드릴 수 있습니다.

출처

  • [1] GPT-5.5 is here: benchmarks, pricing, and what changes ... - Appwriteappwrite.io

    If you want something more opinionated (a proper storefront with counter rush, seasonal cues, a bento shop layout) you still have to prompt for it explicitly, and even then the fallback is a card grid. For UI-first work, Claude Opus 4.7 is still the stronge...

  • [4] OpenAI Releases GPT-5.5: Faster, Smarter—And Pricier - Yahoo Techtech.yahoo.com

    It’s also a pretty good coder, as expected. On Expert-SWE, an internal benchmark for long-horizon coding tasks with a median estimated human completion time of 20 hours, GPT-5.5 outperforms GPT-5.4. On SWE-Bench Pro, which grades real-world GitHub issue res...

  • [6] OpenAI's GPT-5.5 is here, and it's no potato - VentureBeatventurebeat.com

    The market for leading U.S.-made frontier models has become an increasingly tight race between OpenAI, Anthropic, and Google. Literally a week ago to the date, OpenAI rival Anthropic released Opus 4.7, its most powerful generally available model, to the pub...

  • [8] How OpenAI's recently released GPT-5.5 stacks up with Anthropic's ...rdworldonline.com

    The overlapping benchmarks stack up like this: Benchmark Mythos (gated) GPT-5.5 GPT-5.5 Pro Opus 4.7† Notes --- --- --- SWE-bench Pro 77.8% 58.6% — 64.3% Memorization concern¹ Terminal-Bench 2.0 82% / 92.1%² 82.7% — 69.4% Different harnesses² GPQA Diamond 9...

  • [14] GPT-5.5 is here! Available in Codex and ChatGPT todaycommunity.openai.com

    GPT-5.5 is here! Available in Codex and ChatGPT today - Announcements - OpenAI Developer Community Skip to last replySkip to top Skip to main content Image 1: OpenAI Developer Community Docs API Support Sign Up Log In ​ Topics More Resources Documentation A...

  • [16] GPT-5.5 System Cardopenai.com

    GPT-5.5 System Card OpenAI Skip to main content Log inTry ChatGPT(opens in a new window) Research Products Business Developers Company Foundation(opens in a new window) GPT-5.5 System Card OpenAI April 23, 2026 SafetyPublication GPT‑5.5 System Card Read the...

  • [23] Introducing GPT-5.5 | OpenAIopenai.com

    For API developers, gpt-5.5 will soon be available in the Responses and Chat Completions APIs at $5 per 1M input tokens and $30 per 1M output tokens, with a 1M context window. Batch and Flex pricing are available at half the standard API rate, while Priorit...

  • [26] Claude Platform - Claude API Docsdocs.anthropic.com

    April 16, 2026 We've launched Claude Opus 4.7, our most capable generally available model for complex reasoning and agentic coding, at the same $5 / $25 per MTok pricing as Opus 4.6. See What's new in Claude Opus 4.7 for capability improvements, new feature...

  • [27] An update on recent Claude Code quality reports - Anthropicanthropic.com

    As part of this investigation, we ran more ablations (removing lines from the system prompt to understand the impact of each line) using a broader set of evaluations. One of these evaluations showed a 3% drop for both Opus 4.6 and 4.7. We immediately revert...

  • [28] Claude Opus 4.7 - Anthropicanthropic.com

    Pricing for Opus 4.7 starts at $5 per million input tokens and $25 per million output tokens, with up to 90% cost savings with prompt caching and 50% savings with batch processing. To learn more, check out our pricing page. To get started, use claude-opus-4...