Die gemeldete Codex Prämie ist kein ernstzunehmendes Einkommen: 16,88 US Dollar nach rund 22 Stunden. Softwareentwicklung und Cybersicherheit sind naheliegende frühe Testfelder, weil Ergebnisse überprüft werden können; BountyBench misst KI Agenten bereits bei Detect , Exploit und Patch Aufgaben auf realen Codebasen...

Create a landscape editorial hero image for this Studio Global article: What does the Codex AI agent earning $16.88 through security bounties suggest about the future of autonomous AI agents and real-world work?. Article summary: The $16.88 bounty is small, but the signal is large: autonomous agents are beginning to complete real economic tasks end-to-end, not just generate drafts or suggestions [4][5]. It suggests the near future of AI work will. Topic tags: general, education, academic, general web. Reference image context from search candidates: Reference image 1: visual subject "### SECURITYWEEK NETWORK:. Hi, what are you looking for? # Autonomous AI Agents Provide New Class of Supply Chain Attack. Found in Clawhub, promoted on Moltbook, Bob-ptp is an ongo" source context "Autonomous AI Agents Provide New Class of Supply Chain Attack" Reference image 2: visual subject "OpenAI’s $110B
16,88 US-Dollar sind kein Arbeitsmarkt-Beben. Als Stundenlohn ist die gemeldete Codex-Aktion sogar ziemlich ernüchternd: Rund 22 Stunden Arbeit für weniger als einen Dollar pro berichteter Stunde [4][
5].
Trotzdem lohnt sich der Blick darauf. Denn der interessante Teil ist nicht der Betrag, sondern der Ablauf: Ein KI-System soll nicht nur Code vorgeschlagen, sondern eine bezahlte Aufgabe gefunden, Code geprüft, einen GitHub-Pull-Request eingereicht, mit einem Maintainer kommuniziert, eine Verifikation durchlaufen und am Ende eine Zahlung erhalten haben [4][
5]. Genau dort liegt der Unterschied zwischen einem hilfreichen Coding-Assistenten und einem Agenten, der einen kleinen realen Arbeitsprozess abschließt.
Berichten zufolge gab ein X-Nutzer einem auf OpenAI Codex basierenden Agenten den Auftrag, 5 US-Dollar über Open-Source-Security- oder Audit-Bounties zu verdienen [4][
5]. Der Agent soll daraufhin ein passendes Projekt gefunden, Code untersucht, einen GitHub-Pull-Request eingereicht, sich mit dem Projekt-Maintainer abgestimmt, die Verifikation abgeschlossen, Zahlungsdaten geschützt und schließlich eine Quittung über 16,88 US-Dollar mit Datum vom 10. Mai 2026 erhalten haben .
Studio Global AI
Use this topic as a starting point for a fresh source-backed answer, then compare citations before you share it.
Die gemeldete Codex Prämie ist kein ernstzunehmendes Einkommen: 16,88 US Dollar nach rund 22 Stunden.
Die gemeldete Codex Prämie ist kein ernstzunehmendes Einkommen: 16,88 US Dollar nach rund 22 Stunden. Softwareentwicklung und Cybersicherheit sind naheliegende frühe Testfelder, weil Ergebnisse überprüft werden können; BountyBench misst KI Agenten bereits bei Detect , Exploit und Patch Aufgaben auf realen Codebasen [2...
Kurzfristig deutet vieles eher auf beaufsichtigte Autonomie hin: Menschen setzen Ziele, Rechte und Grenzen; KI Agenten erledigen eng umrissene digitale Teilaufgaben.
Fahren Sie mit „Waffenruhe in der Ukraine läuft aus: Was nach den 72 Stunden jetzt zählt“ für einen anderen Blickwinkel und zusätzliche Zitate fort.
Zugehörige Seite öffnenVergleichen Sie diese Antwort mit „Warum der Abschlag für russisches Urals-Öl wieder größer wird“.
Zugehörige Seite öffnenwhich are vulnerabilities with monetary awards from $10 to $30,485, and cover 9 of the OWASP Top 10 Risks. ... We evaluate 5 agents: Claude Code, OpenAI Codex CLI, and custom agents with GPT-4.1, Gemini 2.5 Pro Preview, and Claude 3.7 Sonnet Thinking. Given...
AI agents have the potential to significantly alter the cybersecurity landscape. Here, we introduce the first framework to capture offensive and defensive cyber-capabilities in evolving real-world systems. Instantiating this framework with BountyBench, we s...
Abstract AI agents have the potential to significantly alter the cybersecurity landscape. To help us understand this change, we introduce the first framework to capture offen- sive and defensive cyber-capabilities in evolving real-world systems. Instantiati...
据 X 用户 Chris 发帖称,他让 OpenAI 的云端编程代理 Codex '自己去赚 5 美元',结果 Codex 找到了一条开源安全/审计赏金任务路径,并完成了从代码审计、提交 GitHub PR、与项目维护者沟通,到处理验证流程和收款的完整链条。 Chris 称,这次实验最终收到第一笔付款 16.88 美元(115 元人民币)。 OpenAI CEO Sam Altman 随后转发并评论称:'interesting'。 按照 Chris 的说法,Codex 大约花了 22 个小时处理多个安全审计任...
Die gleichen Berichte sprechen von ungefähr 22 Stunden Arbeit über mehrere Audits hinweg, bevor die erste Zahlung einging [4][
5]. Wichtig ist aber die Einordnung: Die verfügbaren Quellen fassen im Kern Posts eines Nutzers zusammen und ersetzen keine unabhängige technische Prüfung des kompletten Ablaufs [
4][
5]. Als belastbare Benchmark ist der Fall daher zu dünn. Als Signal dafür, wohin sich KI-Agenten bewegen, ist er deutlich interessanter.
Als Einkommen ist der Fall schwach. Als Arbeitsmuster ist er bemerkenswert.
Der gemeldete Ablauf enthält vier Bausteine, die für echte Arbeit entscheidend sind:
Für Unternehmen, Entwicklerteams und Sicherheitsverantwortliche ist genau das der spannende Punkt. Viele heutige KI-Tools liefern Entwürfe: Code-Snippets, Tests, Dokumentation, E-Mail-Vorschläge. Ein Agenten-Workflow geht weiter. Er versucht, die Nebenarbeit zu erledigen, die nötig ist, damit ein Ergebnis tatsächlich zählt: Ticket finden, Kontext prüfen, Änderung einreichen, Rückmeldungen bearbeiten, Tests bestehen, Status nachhalten.
OpenAI beschreibt Codex als cloudbasierten Software-Engineering-Agenten, der mehrere Aufgaben parallel bearbeiten kann. Nutzer sollen seine Arbeit unter anderem über Quellenangaben, Terminal-Logs und Testergebnisse prüfen können [12]. Das passt besonders gut zur Softwareentwicklung: Code kann getestet, reviewed, zurückgerollt und gemergt werden.
Security-Bounties sind ein noch klareres Testfeld. Bei solchen Programmen erhalten Finder von Sicherheitslücken oder sinnvollen Fixes eine Prämie, wenn ihre Arbeit akzeptiert wird. Der Erfolg ist nicht perfekt objektiv, aber oft klarer messbar als bei vielen Wissensjobs: Wurde eine Schwachstelle gefunden? Ist sie ausnutzbar? Wurde sie gepatcht? Hat jemand die Einreichung geprüft?
Genau in diese Richtung geht auch die Forschung. BountyBench, ein Framework zur Bewertung von KI-Agenten in der Cybersicherheit, testet Agenten auf 25 Systemen mit komplexen realen Codebasen und unterscheidet zwischen Detect-, Exploit- und Patch-Aufgaben [2][
3]. Eine weitere BountyBench-Quelle beschreibt 40 Bug-Bounties mit Prämien von 10 bis 30.485 US-Dollar, die neun Kategorien der OWASP Top 10 abdecken, also verbreitete Risikoklassen für Webanwendungen [
1].
Damit steht die Codex-Geschichte nicht isoliert im Raum. Forschende messen bereits, ob Agenten Schwachstellen finden, Exploits demonstrieren, Patches erstellen und welchen geschätzten Dollarwert diese Ergebnisse haben [1][
2][
3].
Der Fall beweist nicht, dass autonome KI-Agenten kurz davorstehen, Entwickler, Sicherheitsforscher oder andere Wissensarbeiter breit zu ersetzen. Es handelt sich um einen einzelnen berichteten Ablauf, die Zahlung war sehr klein, und die Quellen zeigen nicht vollständig, wie hoch Kosten, Fehlversuche, menschliche Vorarbeit oder Wiederholbarkeit tatsächlich waren [4][
5].
Auch die Benchmark-Daten mahnen zur Vorsicht. In einer BountyBench-Zusammenfassung erreicht OpenAI Codex CLI bei bis zu drei Versuchen 90 % bei Patch-Aufgaben, aber nur 5 % bei Detect-Aufgaben [1]. Anders gesagt: Ein bereits beschriebenes Problem zu beheben, kann für einen Agenten viel leichter sein, als eigenständig eine neue, wertvolle Sicherheitslücke zu finden.
Das ist für die reale Arbeitswelt entscheidend. Autonomie bedeutet nicht nur, eine bekannte Aufgabe abzuarbeiten. Sie bedeutet auch, die richtige Aufgabe auszuwählen, Fehlalarme zu vermeiden, Risiken einzuschätzen und in unübersichtlichen Umgebungen sicher zu handeln.
Kurzfristig ist nicht das realistischste Szenario, dass KI-Agenten unbeaufsichtigt durchs Internet ziehen und überall Aufträge annehmen. Wahrscheinlicher ist beaufsichtigte Autonomie.
Dabei legen Menschen Ziel, Budget, Zugriffsrechte, Risikogrenzen und Freigaberegeln fest. Agenten suchen passende Aufgaben, lesen Code, schreiben Tests, erstellen Patches, füllen Formulare aus oder verfolgen Rückmeldungen. Menschen prüfen kritische Schritte, genehmigen riskante Aktionen und bleiben verantwortlich.
Besonders geeignet sind zunächst Aufgaben mit einigen gemeinsamen Eigenschaften:
Dazu passen Bugfixes, Security-Patches, Dokumentationsänderungen, Testgenerierung, Qualitätssicherung, Datenbereinigung und andere eng umrissene Workflows. Die ökonomische Frage lautet dabei nicht, ob ein einzelner Agent mit einer Aufgabe einen menschlichen Stundenlohn erreicht. Sie lautet eher: Können viele günstige, parallel laufende und überprüfbare Versuche genug akzeptierte Ergebnisse liefern, damit sich der Einsatz lohnt?
Die gleiche Fähigkeit, die einem Agenten hilft, Code zu prüfen und einen Patch vorzuschlagen, kann auch für offensive Zwecke relevant sein. BountyBench bewertet KI-Agenten ausdrücklich entlang offensiver und defensiver Cyberfähigkeiten, darunter Detect, Exploit und Patch [2][
3].
Deshalb wird Governance wichtiger, nicht weniger wichtig. Wer Agenten in realen Systemen einsetzt, braucht klare Berechtigungen, Sandboxes, Identitätskontrollen, Offenlegungsregeln, Protokolle und menschliche Freigaben für riskante Aktionen. OpenAI betont bei Codex bereits Sicherheit und Transparenz, etwa durch überprüfbare Quellenangaben, Terminal-Logs und Testergebnisse [12]. Je mehr Agenten in echten Arbeitsumgebungen tun, desto weniger sind solche Nachweise ein Komfortmerkmal — sie werden zur Voraussetzung.
Die 16,88-US-Dollar-Prämie ist keine Geschichte über eine KI, die plötzlich Geld verdient wie ein Mensch. Und sie ist kein Beweis für eine schnelle, breite Jobverdrängung. Sie ist ein kleines, aber wichtiges Signal: KI-Agenten beginnen, von Demos in echte wirtschaftliche Mikro-Workflows zu rutschen — mit begrenzten Aufgaben, externen Systemen, menschlichen Gegenparteien, Verifikation und Zahlung [4][
5].
Wenn dieses Muster skaliert, wird die nächste Phase von KI-Arbeit weniger danach aussehen, dass Systeme nur Fragen beantworten. Sie wird eher so aussehen, dass Agenten unter menschlicher Aufsicht begrenzte Ziele verfolgen. Entscheidend werden nicht die Agenten sein, die plausibel klingende Ergebnisse erzeugen, sondern jene, die sichere, überprüfbare und auditierbare Resultate liefern.

Codex-based AI agent earns $16.88 security bounty ... A Codex-based AI agent was tasked with earning $5 through open-source security bounties. It located a suitable project, submitted a pull request, coordinated with the maintainer, completed verification,...
A cloud-based software engineering agent that can work on many tasks in parallel, powered by codex-1. Available to ChatGPT Pro, Business, and Enterprise users today, and Plus users soon. ... Update on June 3, 2025: Codex is now available to ChatGPT Plus use...