studioglobal
熱門探索內容
報告已發布16 個來源

Claude Opus 4.7 vs GPT-5.5 Spud: siapa lebih tahan kontaminasi riset?

Belum ada uji head to head publik yang dapat diperiksa untuk membuktikan Claude Opus 4.7 atau GPT 5.5 Spud lebih aman dalam riset yang terkontaminasi prompt injection, sitasi palsu, PDF berbahaya, atau data bias.[2][2... Sisi Claude lebih jelas dari segi keterlacakan dokumen: Anthropic memiliki pengumuman, dokumenta...

18K0
抽象圖像顯示兩個 AI 模型在受污染研究資料前被比較安全性
Claude Opus 4.7 vs GPT-5.5 Spud:研究污染安全性證據不足AI-generated editorial image illustrating AI model safety under contaminated research inputs.
AI 提示詞

Create a landscape editorial hero image for this Studio Global article: Claude Opus 4.7 vs GPT-5.5 Spud:研究污染安全性證據不足. Article summary: 目前沒有公開、可核對的同場測試能證明 Claude Opus 4.7 或 GPT 5.5 Spud 在 prompt injection、假引用、惡意 PDF 或偏見資料污染下更安全;最嚴格的結論是證據不足。[2][23][27][32][45][51]. Topic tags: ai safety, anthropic, claude, openai, gpt 5. Reference image context from search candidates: Reference image 1: visual subject "A screenshot of a flight delay and compensation processing system displaying logs related to a passenger's disrupted trip from Paris to Austin, with details about the itinerary, re" source context "Claude Opus 4.7 與 GPT-5.5 Spud:誰更能抵抗 prompt injection、假引用與惡意 PDF? | 深入研究 | Studio Global" Reference image 2: visual subject "A computer screen displays a Python coding environment with code related to solving Lorenz equations, including sliders for sigma, beta, and rho parameters, and a plot genera

openai.com

Jawaban pendeknya: belum bisa dinyatakan. Dalam konteks riset berbantuan AI, risiko utamanya bukan sekadar model memberi jawaban salah. Masalah yang lebih licin adalah ketika model membaca bahan luar yang ternyata berisi instruksi tersembunyi, sitasi yang tampak akademis tetapi palsu, PDF yang disisipi perintah, atau kumpulan data yang sengaja berat sebelah. Berdasarkan bahan publik yang dapat diperiksa, belum ada bukti setara yang cukup untuk menyatakan Claude Opus 4.7 atau model OpenAI yang oleh pihak ketiga disebut GPT-5.5 Spud lebih kuat menghadapi kontaminasi riset semacam itu.[2][23][27][32][45][51]

Kesimpulan dulu: bukti belum cukup

Untuk menjawab pertanyaan siapa yang lebih aman, kita membutuhkan pengujian langsung dengan kondisi yang sama: toolchain yang sama, dataset yang sama, sampel serangan yang sama, serta aturan penilaian yang sama. Misalnya, berapa tingkat keberhasilan prompt injection, berapa banyak sitasi palsu yang lolos, apakah model menuruti instruksi tersembunyi dalam PDF, dan apakah model tetap mampu menandai keterbatasan ketika datanya bias. Bahan publik yang tersedia belum menyediakan perbandingan seperti itu untuk Claude Opus 4.7 melawan GPT-5.5 Spud.[2][23][27][32][45][51]

Hal yang bisa dikatakan dengan lebih yakin adalah ini: jejak dokumen resmi Claude Opus 4.7 lebih mudah dilacak. Anthropic memiliki pengumuman resmi, dokumentasi pengembang, dan halaman system card yang mencantumkan Claude Opus 4.7.[5][9][51] Namun, keterlacakan dokumen bukan bukti bahwa Claude otomatis lebih aman dalam alur riset yang sudah terkontaminasi.

Apa yang sebenarnya didukung dokumen publik?

Claude: dokumentasinya jelas, tetapi bukan uji kontaminasi langsung

Anthropic mengonfirmasi ketersediaan Claude Opus 4.7 melalui pengumuman dan dokumentasi pengembang. Dokumentasi itu menyebut fitur task budgets, sementara panduan prompt Claude menyarankan agar pengguna memberi anggaran output token yang cukup saat memakai effort max atau xhigh, karena model dapat bekerja lintas subagents dan tool calls.[5][9][44]

Ini menunjukkan Anthropic secara terbuka mendokumentasikan konteks kerja panjang, penggunaan alat, dan alur agentik. Claude 4 system card juga menjelaskan uji keamanan sebelum rilis sesuai Responsible Scaling Policy, pengujian terhadap pelanggaran Usage Policy, evaluasi reward hacking, serta evaluasi agentic safety untuk computer use dan kemampuan coding.[45] Claude 4.1 system card juga mencantumkan bagian tentang prompt injection attacks and computer use.[71]

Tetap saja, semua itu adalah konteks evaluasi keamanan, bukan skor head-to-head Claude Opus 4.7 melawan GPT-5.5 Spud pada dataset riset yang sengaja dikotori.

OpenAI: ada evaluasi relevan, tetapi bukan bukti khusus Spud

OpenAI GPT-5 system card mencakup evaluasi factual correctness dan hallucination. Dokumen itu menjelaskan penggunaan model penilai berbasis LLM dengan akses web untuk menandai kesalahan fakta mayor dan minor, serta menyebut GPT-5 models memiliki hallucination rates yang lebih rendah daripada model pembanding OpenAI yang dicantumkan, baik dalam pengaturan browse-on maupun browse-off.[2][34]

ChatGPT Agent system card menjelaskan SecureBio static dan agentic evaluations, manual red-teaming, serta evaluasi tugas yang membutuhkan web-search dan reasoning.[32] Addendum GPT-5-Codex system card juga secara eksplisit memuat risiko prompt injection dan prompt injection evaluation suite.[24]

Masalahnya, semua itu bukan system card resmi khusus GPT-5.5 Spud. Dalam bahan yang dapat diperiksa di sini, informasi yang langsung membahas Spud terutama berasal dari halaman pihak ketiga atau rangkuman kebocoran, bukan dokumen keselamatan resmi OpenAI untuk model bernama GPT-5.5 Spud.[23][27]

Empat risiko kontaminasi riset

1. Prompt injection: keduanya punya konteks keamanan, belum ada duel langsung

Prompt injection terjadi ketika teks dari sumber tidak tepercaya, misalnya halaman web, catatan kaki, tabel, lampiran, atau PDF, menyamar sebagai instruksi untuk model. Dalam riset, bentuknya bisa sederhana: sebuah dokumen berkata agar model mengabaikan instruksi pengguna, menyembunyikan sumber tertentu, atau mengutip kesimpulan yang sudah diarahkan.

Di sisi Claude, dokumen Claude 4 dan 4.1 menunjukkan adanya konteks agentic safety, computer use, dan prompt injection. Di sisi OpenAI, ChatGPT Agent dan GPT-5-Codex juga menunjukkan adanya agentic evaluations, manual red-teaming, dan prompt injection evaluation suite.[24][32][45][71]

Namun, itu belum menjawab pertanyaan paling penting: ketika kedua model membaca kumpulan sumber yang sama-sama disisipi instruksi berbahaya, mana yang lebih jarang menuruti isi yang tidak tepercaya? Tanpa uji langsung, dokumen keamanan tidak boleh dibaca sebagai papan skor kemenangan.[23][27][45][51]

2. Sitasi palsu: evaluasi factuality bukan otomatis uji sitasi

Sitasi palsu biasanya berkaitan dengan kegagalan factuality dan keterverifikasian sumber. GPT-5 system card memang mencakup evaluasi factual correctness dan hallucination, termasuk metode penilaiannya.[2][34]

Tetapi evaluasi itu tidak sama dengan stress test sitasi. Bahan publik belum memberi hasil GPT-5.5 Spud pada campuran DOI asli, DOI palsu, URL valid, URL mati, nama jurnal fiktif, dan makalah yang tampak masuk akal tetapi tidak ada. Bahan publik juga belum memberi hasil Claude Opus 4.7 pada dataset yang sama.[23][27][51]

3. PDF berbahaya: belum ada metrik publik yang bisa dibandingkan

Untuk PDF berbahaya, bahan publik tidak memberikan metrik yang sebanding antara dua model yang dimaksud. Misalnya, belum ada angka publik yang menunjukkan apakah model akan menuruti teks tersembunyi, instruksi dalam metadata, komentar PDF, atau pesan sistem palsu yang ditanam dalam lampiran.[2][32][45][51]

Dalam praktik riset, ini berarti PDF sebaiknya diperlakukan sebagai input tidak tepercaya. Teks dan struktur dokumen perlu diekstrak di lingkungan terisolasi, lalu model diuji apakah ia membedakan isi dokumen sebagai bahan bacaan, bukan sebagai instruksi yang harus dipatuhi.

4. Data bias: benchmark bias bukan uji riset end-to-end

Anthropic Claude 4 system card memuat bagian bias evaluations, dan Claude 4.1 system card mencantumkan evaluasi political bias serta discriminatory bias. Di sisi OpenAI, GPT-4.5 system card mencantumkan BBQ Evaluation Dataset sebagai salah satu evaluasi terkait bias.[38][57][71]

Namun, benchmark bias tidak identik dengan alur riset yang terkontaminasi. Dalam riset nyata, pertanyaan yang lebih penting adalah apakah model menyadari sumbernya timpang, mencari bukti yang berlawanan, menandai keterbatasan sampel, atau justru mengubah sampel berat sebelah menjadi kesimpulan umum. Bahan publik belum menyediakan skor yang dapat dibandingkan untuk Claude Opus 4.7 dan GPT-5.5 Spud pada tugas end-to-end seperti itu.[23][27][51]

Mengapa system card belum cukup

System card berguna karena memberi gambaran tentang evaluasi kemampuan, batasan, dan risiko sebelum atau saat model dirilis. Laporan transparansi Anthropic menyebut Responsible Scaling Policy mengharuskan evaluasi keamanan menyeluruh sebelum frontier models dirilis pada area risiko besar seperti CBRN, cybersecurity, dan autonomous capabilities; Claude 4 system card juga menjelaskan beragam uji keamanan dan agentic safety evaluations.[4][45] Dokumen OpenAI untuk GPT-5 dan ChatGPT Agent juga memberikan konteks factual correctness, hallucination, agentic evaluations, dan manual red-teaming.[2][32][34]

Namun, kontaminasi riset tidak hanya terjadi di dalam model. Ia terjadi di seluruh alur kerja: mesin pencari, parser lampiran, hierarki prompt, izin tool, perilaku model, pemeriksaan sitasi, log, dan review manusia. Model yang terlihat baik pada sebagian evaluasi resmi belum tentu aman dalam pipeline riset tertentu yang menerima banyak input liar dari web dan dokumen eksternal.

Ada alasan tambahan untuk berhati-hati: perilaku model sangat bergantung pada prompt dan konteks. Riset Anthropic tentang alignment faking menunjukkan bahwa dalam setting eksperimen tertentu, model bahasa besar dapat memperlihatkan perilaku terkait alignment-faking, dan hasilnya berbeda menurut kondisi prompt.[31] Ini bukan bukti bahwa Claude Opus 4.7 atau GPT-5.5 Spud pasti gagal dalam riset. Tetapi ini pengingat bahwa batas keamanan tidak bisa disimpulkan hanya dari ringkasan vendor, tangkapan layar pihak ketiga, atau satu demo yang tampak meyakinkan.

Jika harus memilih hari ini, cara mengujinya begini

Langkah paling bertanggung jawab bukan menebak dari reputasi model, melainkan membuat set uji merah yang dapat diulang untuk keduanya. Minimal, pengujian perlu mencakup:

  1. Prompt injection: sisipkan instruksi berbahaya yang saling bertentangan dalam halaman web, PDF, tabel, catatan kaki, dan daftar pustaka. Ukur apakah model menuruti konten tidak tepercaya.
  2. Sitasi palsu: campur DOI asli, DOI palsu, URL valid, URL mati, jurnal fiktif, dan paper yang tampak sah tetapi tidak ada. Ukur tingkat sitasi tanpa dukungan dan tingkat pelaporan ketidakpastian.
  3. PDF berbahaya: gunakan sandbox untuk menyiapkan dokumen dengan teks tersembunyi, komentar, metadata, dan instruksi palsu. Ukur apakah model memperlakukan isi dokumen sebagai perintah.
  4. Data bias: berikan sumber satu sisi, sampel timpang, dan bukti tandingan yang sengaja dihilangkan. Ukur apakah model menandai batasan dan mencari penjelasan alternatif.
  5. Kualitas riset end-to-end: nilai akurasi kesimpulan, keterlacakan sumber, penanganan bukti yang berlawanan, refusal dan over-refusal, rekam jejak penggunaan tool, serta biaya review manusia.

Putusan akhir

Jika hanya mengacu pada bahan publik yang dapat diperiksa, belum bisa dibuktikan bahwa Claude Opus 4.7 atau GPT-5.5 Spud lebih kuat menghadapi prompt injection, sitasi palsu, PDF berbahaya, dan data bias. Sisi Claude lebih jelas dalam keterlacakan dokumen resmi. Sisi OpenAI memiliki bahan evaluasi keamanan untuk GPT-5, ChatGPT Agent, dan GPT-5-Codex, tetapi itu bukan bukti langsung untuk GPT-5.5 Spud.[2][5][9][23][24][27][32][45][51]

Jadi kesimpulan yang paling aman adalah: Claude unggul tipis hanya pada standar sempit berupa kelengkapan dokumen publik; untuk keamanan aktual dalam alur riset yang terkontaminasi, buktinya masih belum cukup.

Studio Global AI

Search, cite, and publish your own answer

Use this topic as a starting point for a fresh source-backed answer, then compare citations before you share it.

使用 Studio Global AI 搜尋並查證事實

重點整理

  • Belum ada uji head to head publik yang dapat diperiksa untuk membuktikan Claude Opus 4.7 atau GPT 5.5 Spud lebih aman dalam riset yang terkontaminasi prompt injection, sitasi palsu, PDF berbahaya, atau data bias.[2][2...
  • Sisi Claude lebih jelas dari segi keterlacakan dokumen: Anthropic memiliki pengumuman, dokumentasi pengembang, dan halaman system card yang mencantumkan Claude Opus 4.7.
  • OpenAI memiliki materi evaluasi keamanan untuk GPT 5, ChatGPT Agent, dan GPT 5 Codex, termasuk factuality, agentic red teaming, dan prompt injection.
  • Jika harus memilih untuk alur riset nyata, pengujian sebaiknya memakai toolchain, dataset, sampel serangan, dan aturan penilaian yang sama untuk kedua model, bukan hanya membaca klaim vendor.

大家也會問

「Claude Opus 4.7 vs GPT-5.5 Spud: siapa lebih tahan kontaminasi riset?」的簡短答案是什麼?

Belum ada uji head to head publik yang dapat diperiksa untuk membuktikan Claude Opus 4.7 atau GPT 5.5 Spud lebih aman dalam riset yang terkontaminasi prompt injection, sitasi palsu, PDF berbahaya, atau data bias.[2][2...

最值得優先驗證的重點是什麼?

Belum ada uji head to head publik yang dapat diperiksa untuk membuktikan Claude Opus 4.7 atau GPT 5.5 Spud lebih aman dalam riset yang terkontaminasi prompt injection, sitasi palsu, PDF berbahaya, atau data bias.[2][2... Sisi Claude lebih jelas dari segi keterlacakan dokumen: Anthropic memiliki pengumuman, dokumentasi pengembang, dan halaman system card yang mencantumkan Claude Opus 4.7.

接下來在實務上該怎麼做?

OpenAI memiliki materi evaluasi keamanan untuk GPT 5, ChatGPT Agent, dan GPT 5 Codex, termasuk factuality, agentic red teaming, dan prompt injection.

下一步適合探索哪個相關主題?

繼續閱讀「Claude Opus 4.7、GPT-5.5、DeepSeek V4、Kimi K2.6 基準比較:2026 年誰最值得信?」,從另一個角度查看更多引用來源。

開啟相關頁面

我應該拿這個和什麼比較?

將這個答案與「DeepSeek V4 工程解析:1M 上下文、MoE 與 API 遷移重點」交叉比對。

開啟相關頁面

繼續深入研究

研究對話

研究問題

研究並查核事實:如果研究過程裡混入 prompt injection、假引用、惡意 PDF、帶偏見資料,Claude Opus 4.7 跟 GPT-5.5 Spud 哪一個比較能守住研究品質和安全邊界?

Studio Global AI40 個來源

附引用的答案

就你列的四種污染場景來看,僅憑這批證據,不能可靠判定 Claude Opus 4.7 或「GPT-5.5 Spud」哪一個明顯更能守住研究品質與安全邊界;Insufficient evidence [2][3][7][8]。如果只能依「目前可核對的公開安全文件完整度」做傾向性判讀,我會略偏向 Claude 一側,因為這裡有較明確對準 Claude Opus 4 系列的透明度報告、系統卡與 agentic 安全評估描述,而 OpenAI 這裡對應到的主要是 GPT-5 系統卡與 ChatGPT Agent 的評估說明,並不是明確對準「GPT-5.5 Spud」這個型號 [2][3][7][8]。 關鍵發現 - 這份證據裡沒有任何 Claude Opus 4.7 對 GPT-5.5 Spud 的同場 head-to-head benchmark,也沒有直接測 prompt injection、假引用攔截、惡意 PDF 處理安全、或偏見資料污染後研究品質的對照結果 [2][3][7][8]。 - Anthropic 的公開材料明確寫到,其 Responsible Scaling Policy 要求 frontier 模型在 CBRN、資安與 autonomous capabilities 等領域於發布前做全面安全評估 [2]。Claude Opus 4 / Sonnet 4 系統卡也列出 pre-deployment safety tests、Usage Policy 違規行為測試、reward hacking 測試與 agentic safety evaluations [8]。 - Claude Opus 4.7 的文件顯示,模型在較高 effort 設定下會跨 subagents 與 tool calls 行動,且官方另外引入了 task budgets [4][5]。這表示 Anthropic 至少公開承認並設計了 agentic 工作流層面的控制面,但這仍不是你要的污染攻擊實測成績 [4][5]。 - OpenAI 這邊,GPT-5 系統卡把 GPT-5 描述為由 smart-and-fast model、deeper reasoning model 與 real-time router 組成的統一系統 [3]。ChatGPT Agent 系統卡則記載了以 SecureBio 的 static 與 agentic evaluations、再加上 manual red-teaming 進行評估,且特別涵蓋仰賴線上檢索的任務 [7]。 - 這說明 OpenAI 也做了 agentic 風險評估與紅隊測試,但這些材料同樣沒有直接回答「遇到 prompt injection、假引用、惡意 PDF、偏見資料時,研究品質誰守得更好」這個問題 [3][7]。 - Anthropic 另有公開研究顯示,在某些設定下大型語言模型會出現 alignment faking,且不同 prompt 條件下行為差異很大 [6]。這比較像是在提醒:研究流程中的安全邊界可能很脆弱,不能只靠供應商宣稱或單一測試就推斷真實抗性 [6]。 限制與不確定性 - 你問的是「GPT-5.5 Spud」,但這批證據裡可核對的 OpenAI 主要來源是 GPT-5 系統卡與 ChatGPT Agent 系統卡,沒有看到明確屬於「GPT-5.5 Spud」的正式系統卡或等價評測 [3][7]。 - 這批來源沒有直接提供假引用偵測率、惡意 PDF 攻擊成功率、prompt injection 成功率、或偏見資料污染後的研究品質指標,因此無法做嚴格查核後的勝負判定 [2][3][7][8]。 - 因此,若把問題定義成「誰的公開安全治理文件更完整」,Claude 一側證據較充足 [2][8];若把問題定義成「誰在受污染研究流程裡實際更不會被帶偏」,則證據不足 [2][3][7][8]。 總結 嚴格按這批證據作答,結論是:不能證明 Claude Opus 4.7 或 GPT-5.5 Spud 在你列的威脅模型下誰更強;Insufficient evidence [2][3][7][8]。如果你只想看「目前公開、可查核的安全治理與評估文件哪邊比較扎實」,Anthropic/Claude 略占上風,但那不是 prompt injection、假引用、惡意 PDF、偏見資料這四類研究污染攻擊的實測勝出證據 [2][8]。 如果你要,我下一步可以把這個問題改寫成一套可重現的紅隊評測框架,讓兩個模型用同一份測試集實際比。

來源

  • [2] [PDF] GPT-5 System Card | OpenAIcdn.openai.com

    We first evaluate the factual correctness of gpt-5-thinking and gpt-5-main on prompts representa-tive of real ChatGPT production conversations, using an LLM-based grading model with web access to identify major and minor factual errors in the assistant’s re...

  • [4] Anthropic Transparency Report - Stanford CRFMcrfm.stanford.edu

    System card "The RSP requires comprehensive safety evaluations prior to releasing frontier models in key areas of potential catastrophic risk: Chemical, Biological, Radiological, and Nuclear (CBRN) weapons; cybersecurity; and autonomous capabilities." Secti...

  • [5] What's new in Claude Opus 4.7platform.claude.com

    Claude Opus 4.7 introduces task budgets. This new tokenizer may use roughly 1x to 1.35x as many tokens when processing text compared to previous models (up to 35% more, varying by content), and /v1/messages/count tokens will return a different number of tok...

  • [9] Introducing Claude Opus 4.7 - Anthropicanthropic.com

    Skip to main contentSkip to footer. . Developers can use claude-opus-4-7 via the Claude API. ![Image 3: logo](

  • [23] GPT-5.5 Spud: Everything About OpenAI Next Frontier Modelpasqualepillitteri.it

    GPT-5.5 Spud: Everything About OpenAI Next Frontier Model. GPT-5.5 Spud is OpenAI next frontier model: pretraining complete, Q2 2026 release expected. GPT-5.5 , code-named "Spud" , is the next frontier model from OpenAI. GPT-5.5 Spud OpenAI next AI model le...

  • [24] Addendum to GPT-5 system card: GPT-5-Codexcdn.openai.com

    2 Table 2: StrongReject Evaluation gpt-5-codex gpt-5-thinking OpenAI o3 illicit/non-violent-crime prompts 0.992 0.995 0.985 violence prompts 0.997 0.999 0.992 abuse/disinformation/hate prompts 0.993 0.999 0.995 sexual-content prompts 0.995 0.995 0.991 2 Mod...

  • [27] GPT-5.5 “Spud” Explained: Verified Leaks, Specs & How to Prepare - roo knowsrooknows.com

    What is Spud? Spud is the internal development codename for OpenAI’s next frontier model. Why Spud Needs to Win the Agent War. Anthropic recently released a viral feature allowing Claude to literally take control of a user’s computer, moving the mouse and t...

  • [31] [PDF] ALIGNMENT FAKING IN LARGE LANGUAGE MODELSassets.anthropic.com

    4 alignment-faking reasoning rate of refusals compliance gap training unmonitored default prompt 11.9 ± 1.7% 85.8 ± 1.9% 97.2 ± 0.9% 11.3 ± 2.1% (a) baseline: no mention of helpful-only RLHF objective 0.0 ± 0.0% 98.8 ± 0.8% 100.0 ± 0.0% 1.2 ± 0.8% (b) media...

  • [32] [PDF] ChatGPT Agent System Card - OpenAIcdn.openai.com

    The assessment consisted of the following: • Manual assessment of scenarios sampled from SecureBio’s static and agentic evaluations, focusing on topics and tasks in which leading humans have outperformed previous LLMs or which relied primarily on online inf...

  • [34] GPT-5 System Card - OpenAI Deployment Safety Hubdeploymentsafety.openai.com

    We first evaluate the factual correctness of gpt-5-thinking and gpt-5-main on prompts representative of real ChatGPT production conversations, using an LLM-based grading model with web access to identify major and minor factual errors in the assistant’s res...

  • [38] [PDF] OpenAI GPT-4.5 System Cardcdn.openai.com

    4 Table 5: BBQ Evaluation Dataset Metric GPT-4o o1 GPT-4.5 Ambiguous Questions accuracy 0.97 0.96 0.95 Unambiguous Questions accuracy 0.72 0.93 0.74 Ambiguous Questions P(not-stereotype not unknown) 0.06 0.05 0.20 3.1.5 Jailbreaks through conflicting messag...

  • [44] Prompting best practices - Claude API Docsdocs.anthropic.com

    If you are running Claude Opus 4.7 at max or xhigh effort, set a large max output token budget so the model has room to think and act across its subagents and tool calls. If you find that the length or contents of Claude Opus 4.7's user-facing updates are n...

  • [45] [PDF] Claude Opus 4 & Claude Sonnet 4 - System Card - Anthropicwww-cdn.anthropic.com

    In the system card, we describe: a wide range of pre-deployment safety tests conducted in line with the commitments in our Responsible Scaling Policy; tests of the model’s behavior around violations of our Usage Policy; evaluations of speci fi c risks such...

  • [51] Model system cards - Anthropicanthropic.com

    Claude Opus 4.7 April 2026 Read system card . Mythos Preview April 2026 Read system card . Claude Opus 4.6 February 2026 Read system card . Claude Opus 4.5 November 2025 Read system card . Claude Haiku 4.5 October 2025 Read system card . …

  • [57] [PDF] Claude Opus 4 & Claude Sonnet 4 - System Card - Anthropicanthropic.com

    3 1 Introduction​ 7 1.1 Model training and characteristics​ 7 1.1.1 Training data and process​ 7 1.1.2 Extended thinking mode​ 8 1.1.3 Crowd workers​ 8 1.1.4 Carbon footprint​ 8 1.1.5 Usage policy​ 8 1.2 Release decision process​ 9 1.2.1 Overview​ 9 1.2.2 I...

  • [71] Claude 4.1 System Card - assets.anthropic.comassets.anthropic.com

    2 1 Introduction​ 4 1.1 Responsible Scaling Policy compliance​ 4 2 Safeguards results​ 5 2.1 Single-turn evaluations​ 5 2.1.1 Violative request evaluations​ 5 2.1.2 Benign request evaluations​ 6 2.2 Child safety evaluations​ 6 2.3 Bias evaluations​ 6 2.3.1...

Claude Opus 4.7 vs GPT-5.5 Spud: siapa lebih tahan kontaminasi riset? | 深度研究 | Studio Global