DeepSeek V4 Preview memang terlihat seperti lompatan besar, tetapi bukan berarti semua sistem yang memakai V3.2 harus langsung diganti. Dari rilis V4 Preview, rilis V3.2, changelog, dan dokumen API, perbedaannya paling penting ada di lima area: konteks panjang, pemisahan lini model, agentic coding, cara membaca benchmark, dan rencana migrasi API.[3][
16][
22][
23]
Ringkasan cepat: apa yang berubah dari V3.2 ke V4 Preview?
| Area | DeepSeek V3.2 | DeepSeek V4 Preview | Dampak saat upgrade |
|---|---|---|---|
| Status | DeepSeek-V3.2 tercantum dalam rilis 1 Desember 2025.[ | DeepSeek-V4 muncul di changelog 24 April 2026 dan punya halaman Preview Release sendiri.[ | V4 lebih baru, tetapi tetap sebaiknya diperlakukan sebagai preview sebelum mengganti model produksi. |
| Fokus utama | V3.2 dibingkai di sekitar reasoning, thinking, dan tool-use untuk agent.[ | V4 menonjolkan konteks 1 juta token, dua varian V4-Pro/V4-Flash, dan agentic coding.[ | V4 paling layak diuji untuk codebase besar, dokumen panjang, atau agent multi-langkah. |
| Konteks panjang | DeepSeek-V3.2-Exp sudah memperkenalkan DeepSeek Sparse Attention untuk training dan inference yang lebih efisien pada long context.[ | V4 Preview menjadikan konteks 1 juta token sebagai sorotan utama.[ | Penting jika aplikasi perlu memasukkan banyak konteks dalam satu panggilan model. |
| Lini model | Changelog mencantumkan DeepSeek-V3.2 dan DeepSeek-V3.2-Speciale.[ | V4 dipisah menjadi DeepSeek-V4-Pro dan DeepSeek-V4-Flash.[ | Lebih mudah membandingkan konfigurasi yang mengejar kualitas dengan konfigurasi yang mengejar efisiensi. |
| API | Dokumen API menyebut deepseek-chat dan deepseek-reasoner berkaitan dengan DeepSeek-V3.2.[ | V4 Preview menyebut dua alias itu kini diarahkan ke deepseek-v4-flash dan akan dihentikan setelah 24 Juli 2026 pukul 15:59 UTC.[ | Jangan terlalu lama bergantung pada alias lama. |
1. Konteks 1 juta token adalah pembeda paling jelas
Hal yang paling mudah terlihat dari DeepSeek V4 Preview adalah dukungan konteks 1 juta token.[3] Dalam praktiknya, ini relevan untuk aplikasi yang perlu membawa banyak file dalam satu repository, dokumen teknis panjang, log sistem, riwayat percakapan besar, atau rangkaian kerja agent yang berjalan dalam banyak langkah.
Namun, konteks panjang bukan sesuatu yang tiba-tiba baru muncul di V4. Sebelumnya, DeepSeek-V3.2-Exp sudah memperkenalkan DeepSeek Sparse Attention, yang dijelaskan sebagai cara untuk membuat training dan inference lebih efisien pada long context.[20] Jadi cara membacanya lebih tepat begini: V4 menjadikan long context sebagai salah satu pilar generasi model baru, sementara V3.2-Exp adalah eksperimen penting yang sudah mengarah ke sana.[
3][
20]
2. V4-Pro dan V4-Flash memisahkan kualitas dan efisiensi dengan lebih tegas
Pada generasi V3.2, changelog DeepSeek mencantumkan DeepSeek-V3.2 dan DeepSeek-V3.2-Speciale.[22] Di V4 Preview, pembagiannya berubah menjadi DeepSeek-V4-Pro dan DeepSeek-V4-Flash.[
3]
Menurut halaman V4 Preview, V4-Pro memiliki total 1,6 triliun parameter dengan 49 miliar parameter aktif, sedangkan V4-Flash memiliki total 284 miliar parameter dengan 13 miliar parameter aktif.[3] Bagi tim teknis, pembagian ini membuat evaluasi lebih praktis: uji V4-Pro untuk tugas yang sulit dan butuh kualitas tertinggi di lini V4, lalu uji V4-Flash untuk melihat keseimbangan antara kualitas, latensi, biaya, dan throughput pada volume request yang besar.
Pendekatan yang aman adalah tidak memilih model hanya dari nama atau angka parameter. Jalankan prompt yang sama, data yang sama, batas token yang sama, dan kriteria penilaian yang sama untuk V3.2, V4-Flash, dan V4-Pro sebelum menjadikan salah satunya model default.
3. Agentic coding naik menjadi fokus yang lebih besar
DeepSeek V3.2 sudah penting untuk alur kerja agent karena rilis ini menekankan kombinasi thinking dan tool-use.[16] Artinya, V3.2 tidak hanya diposisikan untuk jawaban sekali jalan, tetapi juga untuk alur yang melibatkan penalaran, pemanggilan tool, pembacaan hasil, lalu pemrosesan lanjutan.
V4 Preview melanjutkan arah itu, tetapi dengan penekanan yang lebih kuat pada agentic coding: alur kerja ketika model perlu membaca konteks kode, menyusun rencana, melakukan perubahan, dan berkoordinasi dalam beberapa langkah, bukan sekadar menghasilkan potongan kode pendek.[3]
Jadi perbedaannya bukan bahwa V3.2 tidak bisa dipakai untuk agent lalu V4 tiba-tiba bisa. Perbedaan yang lebih masuk akal adalah: V3.2 memperkuat fondasi reasoning dan tool-use, sementara V4 mencoba memperluasnya untuk coding-agent dan workflow long-context.[3][
16]
4. Benchmark berguna sebagai sinyal, bukan jaminan performa
DeepSeek memublikasikan benchmark dan posisi performa di halaman rilis V3.2 maupun V4 Preview.[3][
16] Di luar sumber resmi, analisis teknis eksternal tentang model DeepSeek dari V3 sampai V3.2 juga menilai V3.2 menarik karena performanya dan karena tersedia sebagai model open-weight.[
1]
Yang perlu diingat: sumber yang tersedia untuk perbandingan ini terutama berupa release note, dokumentasi API, dan analisis teknis berdasarkan informasi publik. Itu berguna untuk membaca arah upgrade, tetapi belum menggantikan benchmark internal pada workload Anda sendiri.[3][
16][
23]
Untuk lingkungan produksi, pertanyaannya bukan sekadar apakah V4 lebih baru. Pertanyaannya adalah model mana yang lebih baik untuk prompt Anda, data Anda, anggaran token Anda, SLA latensi Anda, dan standar kualitas Anda. Jika semua itu belum diukur ulang, V4 sebaiknya dilihat sebagai kandidat uji yang kuat, bukan pilihan default otomatis.
5. Perubahan API adalah bagian yang tidak boleh terlewat
V4 membawa perubahan penting pada cara memanggil model. DeepSeek menyatakan dalam V4 Preview bahwa deepseek-chat dan deepseek-reasoner kini diarahkan ke deepseek-v4-flash dalam mode non-thinking dan thinking, dan dua alias ini akan sepenuhnya dihentikan setelah 24 Juli 2026 pukul 15:59 UTC.[3]
Ini penting karena dokumen API sebelumnya menyebut deepseek-chat dan deepseek-reasoner berkaitan dengan DeepSeek-V3.2.[23] Jika sistem produksi Anda memanggil alias, bukan model ID yang spesifik, perilaku model bisa berubah tanpa kontrol penuh dari sisi aplikasi.
Dari sisi integrasi, dokumentasi DeepSeek API menyebut format API-nya kompatibel dengan OpenAI, sehingga OpenAI SDK atau perangkat lunak yang kompatibel dengan OpenAI API dapat dipakai dengan menyesuaikan konfigurasi endpoint.[23] Catatan kecil yang juga penting:
v1 pada base_url kompatibel OpenAI tidak berkaitan dengan versi model.[23]
DeepSeek juga memiliki dokumentasi kompatibilitas Anthropic API. Di sana, DeepSeek menjelaskan status dukungan untuk field seperti max_tokens, stream, system, temperature, dan thinking.[13]
Checklist migrasi yang layak masuk backlog:
- Audit codebase, file konfigurasi, dan secrets untuk melihat apakah sistem masih memanggil
deepseek-chat,deepseek-reasoner, atau sudah memakai model ID spesifik.[3]
- Uji ulang prompt di mode thinking dan non-thinking jika workflow Anda memakai reasoning.[
3]
- Ukur ulang latensi, biaya, error rate, timeout rate, dan kualitas jawaban pada data nyata.
- Pindah dari alias lama sebelum tenggat 24 Juli 2026 pukul 15:59 UTC.[
3]
- Periksa ulang field API jika memakai lapisan kompatibilitas OpenAI atau Anthropic.[
13][
23]
Jadi, perlu upgrade dari DeepSeek V3.2 ke V4?
Layak mencoba V4 jika Anda membutuhkan konteks sangat panjang, sedang membangun coding-agent, ingin menguji V4-Pro untuk tugas sulit, atau ingin mengevaluasi V4-Flash untuk workload dengan banyak request.[3]
V3.2 masih masuk akal sebagai baseline sementara jika pipeline saat ini stabil, Anda belum membutuhkan konteks 1 juta token, atau sistem produksi perlu benchmark internal sebelum mengganti model.[16]
Kesimpulan singkatnya: V3.2 adalah lompatan penting untuk reasoning dan tool-use; V4 Preview adalah langkah berikutnya menuju long context, pemisahan V4-Pro/V4-Flash, dan agentic coding.[3][
16] Untuk tim engineering, isu besarnya bukan hanya kualitas model, tetapi juga disiplin migrasi dari alias API lama sebelum tenggat penghentian resmi.[
3]




