Di permukaan, keputusan OpenAI membatasi akses ke GPT-5.5-Cyber terlihat seperti putar balik. Sam Altman sebelumnya dikabarkan mengkritik Anthropic karena hanya membuka akses model keamanan siber Mythos kepada pengguna tertentu; India Today menyebut Altman melabeli pendekatan itu sebagai “fear-based marketing” [1][
11]. Namun tidak lama kemudian, OpenAI sendiri menyatakan GPT-5.5-Cyber tidak langsung dibuka untuk publik, melainkan lebih dulu diberikan kepada “critical cyber defenders” [
22][
30].
Pertanyaannya bukan sekadar, “Mengapa OpenAI melakukan hal yang mirip?” Pertanyaan yang lebih penting adalah: jika sebuah model AI bisa membantu menemukan celah keamanan, menguji pertahanan, bahkan menganalisis eksploitasi, siapa yang seharusnya mendapat akses lebih dulu?
Jawaban OpenAI, setidaknya dari dokumen dan pernyataan publiknya, adalah: berikan dulu kepada pembela siber yang terverifikasi, sambil menekan risiko penyalahgunaan [28][
29].
Yang terjadi: OpenAI ikut memilih akses terbatas
Kontroversi awalnya muncul dari Mythos milik Anthropic. Sejumlah laporan menyebut Anthropic hanya menyediakan model keamanan siber itu kepada sebagian pengguna, dan Altman mengkritik cara tersebut [1][
11].
Lalu OpenAI mengumumkan jalur yang juga selektif untuk GPT-5.5-Cyber. Business Today dan Techloy melaporkan bahwa pada 30 April 2026, Altman menulis di X bahwa OpenAI akan mulai meluncurkan GPT-5.5-Cyber kepada “critical cyber defenders” dalam beberapa hari [22][
30]. TechCrunch juga melaporkan adanya proses aplikasi: calon pengguna perlu mengirimkan informasi tentang kredensial dan rencana penggunaan untuk mendapatkan akses [
1].
Di sinilah letak sensitifnya. Bukan hanya karena OpenAI membatasi produk siber barunya, tetapi karena pembatasan itu datang setelah Altman mengkritik Anthropic. The Register menyoroti hal serupa: OpenAI disebut menyiapkan rilis terbatas GPT-5.5-Cyber untuk lingkaran pembela siber yang dipilih, setelah sebelumnya menyindir Anthropic karena melakukan hal yang hampir sama [6].
Alasan resmi: pembela dulu, risiko ditekan
OpenAI membingkai keputusan ini sebagai bagian dari “trusted access”, atau akses tepercaya. Menurut laporan Business Today dan Techloy, Altman mengatakan OpenAI akan bekerja dengan ekosistem yang lebih luas dan pemerintah untuk mencari bentuk akses tepercaya di bidang siber [22][
30].
Kerangka itu sejalan dengan program OpenAI yang disebut Trusted Access for Cyber, atau TAC. Dalam penjelasannya, OpenAI menyebut TAC bertujuan membuka potensi defensif dari kemampuan siber yang kuat, sambil mengurangi risiko penyalahgunaan [29]. OpenAI juga mengatakan program TAC sedang diperluas ke ribuan pembela individu yang terverifikasi dan ratusan tim yang bertanggung jawab melindungi perangkat lunak penting [
28].
Dengan kata lain, pembatasan GPT-5.5-Cyber bukan kebijakan yang muncul begitu saja. Ia cocok dengan pendekatan yang sudah dijelaskan OpenAI: semakin kuat kemampuan siber sebuah model, semakin besar kebutuhan untuk memberikannya secara bertahap kepada pihak yang sudah diverifikasi [28][
29].
Mengapa AI siber berbeda dari chatbot biasa
Model siber punya masalah klasik: fungsi yang sama bisa berguna untuk pertahanan sekaligus serangan. TechCrunch melaporkan bahwa GPT-5.5-Cyber dapat melakukan tugas seperti penetration testing, identifikasi kerentanan, dan eksploitasi kerentanan [1]. Datagrom juga melaporkan bahwa alat ini dapat melakukan rekayasa balik malware [
14].
Bagi tim keamanan, kemampuan seperti itu bisa mempercepat pencarian dan perbaikan celah. Dalam konteks perusahaan, lembaga publik, atau pengelola sistem penting, kecepatan menemukan kerentanan bisa sangat menentukan.
Namun di tangan yang salah, kemampuan yang sama dapat membantu meningkatkan kapasitas serangan. OpenAI sendiri menyatakan keamanan siber adalah salah satu bidang tempat kemajuan AI dapat memperkuat ekosistem secara berarti, tetapi juga menghadirkan risiko baru; karena itu TAC dirancang untuk membuka manfaat defensif sambil mengurangi risiko penyalahgunaan [29].
Di titik ini, akses terbatas bukan semata strategi eksklusivitas. Ia juga bisa dibaca sebagai pagar pengaman. Makin banyak model dapat membantu pekerjaan seperti pengujian penetrasi dan analisis eksploitasi, makin besar alasan bagi pembuat model untuk tidak membukanya sekaligus kepada semua orang [1][
29].
Lalu, mengapa Altman mengkritik Anthropic?
Bagian ini perlu dijawab hati-hati. Dari informasi publik yang tersedia, kita tidak bisa memastikan isi pertimbangan internal Altman atau OpenAI. Tidak ada bukti terbuka yang cukup untuk menyimpulkan apakah sikapnya berubah, apakah konteksnya berbeda, atau apakah kritiknya sejak awal ditujukan pada hal lain.
Penafsiran yang paling lunak: Altman mungkin bukan menolak akses terbatas itu sendiri, melainkan mengkritik cara Anthropic memasarkan atau memosisikan pembatasan Mythos. Ungkapan “fear-based marketing” yang dilaporkan India Today mendukung kemungkinan tafsir tersebut [11].
Tetapi tafsir itu tidak menghapus masalah persepsi. Setelah mengkritik Anthropic, OpenAI tetap memilih pola yang secara kasatmata mirip: GPT-5.5-Cyber lebih dulu diberikan kepada “critical cyber defenders”, dan calon pengguna harus menjelaskan kredensial serta rencana penggunaan untuk mengajukan akses [1][
22]. Maka kritik terhadap OpenAI bukan semata bahwa argumen keamanannya salah, melainkan bahwa pesan publiknya terlihat kurang konsisten.
Mirip, tetapi belum tentu identik
Penting juga untuk tidak menyamakan dua kebijakan ini secara berlebihan. Dari laporan publik saja, kita tidak bisa memastikan apakah Anthropic dan OpenAI memakai kriteria seleksi, pembatas teknis, pemantauan penggunaan, atau daftar tugas yang diizinkan secara persis sama.
Yang dapat dikatakan: struktur luarnya mirip. Keduanya tidak langsung membuka model siber kuat kepada semua pengguna, melainkan memilih atau memverifikasi pihak tertentu terlebih dahulu [1][
6][
22].
Perbedaan yang tampak dari sisi OpenAI adalah upaya menjelaskan mekanismenya lewat TAC. OpenAI menyatakan TAC akan diperluas kepada ribuan pembela individu terverifikasi dan ratusan tim yang menjaga perangkat lunak penting [28]. GPT-5.5-Cyber kemudian diperkenalkan sebagai model yang lebih dulu diarahkan kepada pembela siber tepercaya [
22][
30].
Jadi, menyebut kebijakan OpenAI dan Anthropic “sama persis” terlalu jauh. Namun menyebut keduanya bergerak ke model yang sama-sama selektif dan berbasis verifikasi cukup sesuai dengan informasi yang tersedia [1][
6].
Kesimpulan: alasan keamanan masuk akal, masalah pesan tetap ada
Dari bukti publik, alasan paling langsung OpenAI membatasi GPT-5.5-Cyber adalah risiko penggunaan ganda. Model seperti ini dapat membantu pembela menemukan dan menambal kerentanan lebih cepat, tetapi kemampuan yang sama bisa berbahaya jika dipakai untuk tujuan ofensif [1][
29]. Karena itu OpenAI mendorong pendekatan akses tepercaya melalui TAC, dengan prioritas pada pembela siber yang sudah diverifikasi [
28][
29].
Namun pertanyaan tentang konsistensi tidak hilang. Altman dikabarkan mengkritik pembatasan akses Mythos oleh Anthropic, lalu OpenAI menerapkan model distribusi GPT-5.5-Cyber yang juga terbatas [1][
11][
22]. Motif internalnya tidak bisa dipastikan dari dokumen publik. Yang bisa dipastikan adalah OpenAI memilih kompromi yang sama-sama rumit: ingin mempercepat pertahanan siber, tetapi tidak ingin kemampuan berisiko tinggi itu langsung tersedia untuk semua orang.
Jadi, kasus ini tidak sesederhana “OpenAI munafik” atau “OpenAI sepenuhnya benar”. Secara kebijakan, akses terbatas dapat dipahami sebagai langkah mitigasi risiko. Secara komunikasi, OpenAI tetap harus menanggung konsekuensi dari fakta bahwa jalan yang ditempuhnya terlihat sangat mirip dengan pendekatan yang sebelumnya dikritik.




