Bayaran US$16,88 setelah sekitar 22 jam bukan penghasilan besar, tetapi menunjukkan loop kerja agen: menemukan bounty, mengirim perbaikan kode, berkoordinasi, diverifikasi, dan menerima pembayaran [4][5]. Perangkat lunak dan keamanan siber menjadi arena awal yang masuk akal karena hasilnya bisa dites, ditinjau, dan...

Create a landscape editorial hero image for this Studio Global article: What does the Codex AI agent earning $16.88 through security bounties suggest about the future of autonomous AI agents and real-world work?. Article summary: The $16.88 bounty is small, but the signal is large: autonomous agents are beginning to complete real economic tasks end-to-end, not just generate drafts or suggestions [4][5]. It suggests the near future of AI work will. Topic tags: general, education, academic, general web. Reference image context from search candidates: Reference image 1: visual subject "### SECURITYWEEK NETWORK:. Hi, what are you looking for? # Autonomous AI Agents Provide New Class of Supply Chain Attack. Found in Clawhub, promoted on Moltbook, Bob-ptp is an ongo" source context "Autonomous AI Agents Provide New Class of Supply Chain Attack" Reference image 2: visual subject "OpenAI’s $110B
Bayaran US$16,88 jelas bukan gempa besar di pasar tenaga kerja. Jika benar diperoleh setelah sekitar 22 jam kerja audit keamanan, nilainya bahkan kurang dari US$1 per jam [4][
5].
Namun cerita ini menarik bukan karena uangnya. Yang penting adalah pola kerjanya: sebuah agen berbasis Codex dilaporkan tidak hanya menyarankan kode, tetapi mencari tugas, meninjau kode, mengirim perubahan, menindaklanjuti proses, melewati verifikasi, dan menerima pembayaran [4][
5]. Dengan kata lain, ini bukan sekadar chatbot yang menjawab pertanyaan. Ini mulai terlihat seperti sistem yang mencoba menuntaskan pekerjaan dari awal sampai akhir.
Laporan menyebut seorang pengguna X meminta agen berbasis OpenAI Codex untuk menghasilkan US$5 lewat bounty keamanan atau audit open-source [4][
5]. Bounty semacam ini biasanya memberi imbalan ketika seseorang menemukan, membuktikan, atau membantu memperbaiki masalah keamanan.
Studio Global AI
Use this topic as a starting point for a fresh source-backed answer, then compare citations before you share it.
Bayaran US$16,88 setelah sekitar 22 jam bukan penghasilan besar, tetapi menunjukkan loop kerja agen: menemukan bounty, mengirim perbaikan kode, berkoordinasi, diverifikasi, dan menerima pembayaran [4][5].
Bayaran US$16,88 setelah sekitar 22 jam bukan penghasilan besar, tetapi menunjukkan loop kerja agen: menemukan bounty, mengirim perbaikan kode, berkoordinasi, diverifikasi, dan menerima pembayaran [4][5]. Perangkat lunak dan keamanan siber menjadi arena awal yang masuk akal karena hasilnya bisa dites, ditinjau, dan diukur; BountyBench menilai agen dalam tugas Detect, Exploit, dan Patch pada basis kode dunia nyata [2][3].
Model yang paling mungkin dalam waktu dekat bukan AI bekerja tanpa pengawasan, melainkan otonomi terbimbing: manusia menentukan batas, izin, dan akuntabilitas, sementara agen menjalankan tugas digital yang sempit.
Lanjutkan dengan "Bitcoin Pimpin Arus Dana Kripto US$858 Juta; Reli Masuk Pekan Keenam" untuk sudut pandang lain dan kutipan tambahan.
Buka halaman terkaitPeriksa ulang jawaban ini dengan "Evakuasi MV Hondius: Penumpang Turun Bertahap Setelah Wabah Hantavirus".
Buka halaman terkaitwhich are vulnerabilities with monetary awards from $10 to $30,485, and cover 9 of the OWASP Top 10 Risks. ... We evaluate 5 agents: Claude Code, OpenAI Codex CLI, and custom agents with GPT-4.1, Gemini 2.5 Pro Preview, and Claude 3.7 Sonnet Thinking. Given...
AI agents have the potential to significantly alter the cybersecurity landscape. Here, we introduce the first framework to capture offensive and defensive cyber-capabilities in evolving real-world systems. Instantiating this framework with BountyBench, we s...
Abstract AI agents have the potential to significantly alter the cybersecurity landscape. To help us understand this change, we introduce the first framework to capture offen- sive and defensive cyber-capabilities in evolving real-world systems. Instantiati...
据 X 用户 Chris 发帖称,他让 OpenAI 的云端编程代理 Codex '自己去赚 5 美元',结果 Codex 找到了一条开源安全/审计赏金任务路径,并完成了从代码审计、提交 GitHub PR、与项目维护者沟通,到处理验证流程和收款的完整链条。 Chris 称,这次实验最终收到第一笔付款 16.88 美元(115 元人民币)。 OpenAI CEO Sam Altman 随后转发并评论称:'interesting'。 按照 Chris 的说法,Codex 大约花了 22 个小时处理多个安全审计任...
Agen itu dilaporkan menemukan proyek yang cocok, memeriksa kode, mengajukan pull request di GitHub, berkoordinasi dengan maintainer proyek, menyelesaikan proses verifikasi, menjaga privasi informasi pembayaran, dan menerima bukti pembayaran US$16,88 bertanggal 10 Mei 2026 [4][
5]. Pull request sendiri adalah permintaan agar perubahan kode ditinjau dan, bila diterima, digabungkan ke proyek.
Catatan penting: sumber yang tersedia di sini terutama merangkum unggahan pengguna, bukan audit independen formal. Jadi, kasus ini sebaiknya dibaca sebagai sinyal awal, bukan patokan final tentang kemampuan agen AI [4][
5]. Meski begitu, ia menggeser pertanyaan utama: bukan lagi apakah AI bisa menulis kode, melainkan apakah agen AI bisa menyelesaikan alur kerja nyata yang diverifikasi pihak luar.
Dilihat sebagai penghasilan, contoh ini lemah. US$16,88 untuk sekitar 22 jam kerja yang dilaporkan tidak mendekati upah manusia di banyak konteks profesional [4][
5]. Tetapi dilihat sebagai eksperimen alur kerja agen, ia jauh lebih menarik.
Ada empat bagian yang membuatnya penting:
Itulah beda praktis antara asisten coding dan pekerja bergaya agen. Asisten coding bisa membuat draf patch. Agen mencoba menavigasi proses di sekitar patch itu agar pekerjaannya benar-benar dihitung.
OpenAI menggambarkan Codex sebagai agen rekayasa perangkat lunak berbasis cloud yang dapat mengerjakan banyak tugas secara paralel. OpenAI juga mengatakan pengguna dapat memeriksa kerja Codex lewat sitasi, log terminal, dan hasil pengujian [12]. Ciri seperti ini cocok dengan dunia software, karena pekerjaan sering kali bisa dites, ditinjau, dikembalikan bila salah, lalu digabungkan bila lolos.
Keamanan siber bahkan punya fungsi penilaian yang lebih jelas. Dalam bug bounty, hasil biasanya dinilai dari apakah masalah ditemukan, dampaknya bisa ditunjukkan, atau perbaikannya diterima. BountyBench, sebuah kerangka riset untuk menilai agen AI di keamanan siber, menguji agen pada tugas Detect, Exploit, dan Patch di 25 sistem dengan basis kode dunia nyata yang kompleks [2][
3]. Sumber BountyBench lain menyebut 40 bug bounty dengan nilai imbalan dari US$10 hingga US$30.485 dan mencakup 9 kategori risiko OWASP Top 10, daftar risiko keamanan aplikasi web yang banyak dijadikan acuan [
1].
Konteks riset ini membuat kisah Codex tidak berdiri sebagai anekdot viral semata. Para peneliti memang sudah mulai mengukur agen AI dengan metrik yang mirip pekerjaan keamanan nyata: kerentanan yang ditemukan, eksploit yang dibuktikan, patch yang dibuat, dan dampak dolar yang diperkirakan [1][
2][
3].
Kasus ini bukan bukti bahwa agen AI otonom siap menggantikan developer, peneliti keamanan, atau pekerja pengetahuan. Ini satu kasus yang dilaporkan, bayarannya kecil, dan sumber yang ada tidak menunjukkan biaya penuh, tingkat kegagalan, atau seberapa mudah hasilnya diulang [4][
5].
Bukti benchmark juga menunjukkan kemampuan yang belum merata. Salah satu ringkasan BountyBench melaporkan OpenAI Codex CLI mencapai 90% pada tugas Patch, tetapi hanya 5% pada tugas Detect dengan hingga tiga percobaan [1]. Artinya, memperbaiki masalah yang sudah ditentukan bisa jauh lebih mudah daripada menemukan sendiri kerentanan baru yang benar-benar bernilai.
Perbedaan itu krusial. Otonomi di dunia nyata bukan sekadar memperbaiki bug yang sudah jelas. Sistem harus memilih masalah yang tepat, menghindari temuan palsu, bekerja aman di lingkungan yang berantakan, dan tahu kapan harus meminta persetujuan manusia.
Skenario paling masuk akal dalam waktu dekat bukan agen AI berkeliaran di internet tanpa pengawasan untuk mencari uang sendiri. Yang lebih realistis adalah otonomi terbimbing: manusia menentukan tujuan, anggaran, kredensial, batas risiko, dan aturan persetujuan; agen mencari, menulis, mengetes, mengajukan, dan menindaklanjuti; manusia meninjau tindakan sensitif dan tetap memegang akuntabilitas.
Tugas awal yang paling cocok biasanya punya ciri seperti ini:
Itu menunjuk ke area seperti perbaikan bug, patch keamanan, pembaruan dokumentasi, penulisan tes, pengecekan QA, pembersihan data, dan workflow sempit lain yang hasilnya dapat diverifikasi. Pertanyaan ekonominya bukan apakah satu agen bisa memperoleh upah setara manusia dari satu tugas. Pertanyaannya adalah apakah banyak percobaan murah, paralel, dan dapat diaudit bisa menghasilkan cukup banyak pekerjaan yang diterima.
Kemampuan yang membuat agen bisa membaca kode dan mengusulkan perbaikan kerentanan juga relevan untuk konteks ofensif. BountyBench secara eksplisit membingkai agen AI sebagai penting untuk kemampuan siber defensif dan ofensif, termasuk tugas Detect, Exploit, dan Patch [2][
3].
Karena itu, tata kelola menjadi bagian inti, bukan tambahan belakangan. Penerapan nyata perlu batas izin, sandbox, kontrol identitas, aturan pengungkapan kerentanan, log aktivitas, dan persetujuan manusia untuk tindakan berisiko tinggi. Materi Codex dari OpenAI juga menekankan keamanan dan transparansi, termasuk verifikasi lewat sitasi, log terminal, dan hasil pengujian [12]. Semakin banyak agen bertindak di sistem nyata, semakin penting catatan seperti ini.
Bounty Codex US$16,88 bukan cerita tentang AI yang tiba-tiba kaya, dan bukan bukti bahwa pekerjaan manusia akan segera digantikan. Ia lebih tepat dibaca sebagai tanda kecil tetapi penting: agen otonom mulai bergerak dari demo ke workflow ekonomi nyata, dengan tugas terbatas, sistem eksternal, lawan bicara manusia, verifikasi, dan pembayaran [4][
5].
Jika pola ini berkembang, masa depan kerja berbasis agen tidak akan terutama soal AI menjawab pertanyaan. Ia akan lebih banyak soal AI mengejar tujuan yang dibatasi, di bawah pengawasan manusia. Pemenangnya bukan agen yang sekadar menghasilkan jawaban terdengar meyakinkan, melainkan yang mampu menghasilkan keluaran terverifikasi, dapat diaudit, dan aman.
Codex-based AI agent earns $16.88 security bounty ... A Codex-based AI agent was tasked with earning $5 through open-source security bounties. It located a suitable project, submitted a pull request, coordinated with the maintainer, completed verification,...
A cloud-based software engineering agent that can work on many tasks in parallel, powered by codex-1. Available to ChatGPT Pro, Business, and Enterprise users today, and Plus users soon. ... Update on June 3, 2025: Codex is now available to ChatGPT Plus use...