На первый взгляд история выглядит неловко для OpenAI. Сэм Альтман, по сообщениям СМИ, критиковал Anthropic за то, что та ограничила доступ к своему кибербезопасностному инструменту Mythos; India Today писала, что он назвал такой подход «маркетингом на страхе» [1][
11]. А затем OpenAI сама объявила, что GPT-5.5-Cyber не станет сразу общедоступной моделью: сначала её начнут выдавать только проверенным киберзащитникам [
22][
30].
Но ключевой вопрос здесь не только в том, «передумала» ли OpenAI. В кибербезопасности доступ к мощной ИИ-модели — это вопрос не просто продукта, а контроля риска. Один и тот же инструмент может помогать защитникам быстрее находить уязвимости, а злоумышленникам — эффективнее атаковать. Поэтому публичная логика OpenAI сводится к формуле: сначала дать преимущество проверенным защитникам, а не всем подряд [28][
29].
Что именно произошло
Спор начался вокруг Anthropic и её модели Mythos. По сообщениям TechCrunch и India Today, Anthropic предоставила Mythos только части пользователей, а Альтман публично раскритиковал такую закрытую схему доступа [1][
11].
Затем OpenAI выбрала похожую конструкцию для GPT-5.5-Cyber. Business Today и Techloy сообщили, что 30 апреля 2026 года Альтман написал в X о начале развёртывания GPT-5.5-Cyber для «critical cyber defenders» в ближайшие дни [22][
30]. TechCrunch также писала, что OpenAI использует заявку на доступ: претендентам нужно указать квалификацию и предполагаемый сценарий использования модели [
1].
Именно последовательность событий сделала историю резонансной. Дело не только в самом ограничении доступа, а в том, что OpenAI пришла к нему вскоре после критики Anthropic. The Register сформулировал спор прямо: OpenAI фактически готовит ограниченный запуск GPT-5.5-Cyber для отобранного круга киберзащитников после того, как критиковала Anthropic за очень похожий подход [6].
Почему кибер-ИИ особенно чувствителен
Обычный чат-бот может ошибаться, придумывать факты или давать плохие советы. Кибербезопасностная модель создаёт другой уровень риска: её полезные навыки часто имеют двойное назначение.
TechCrunch сообщала, что GPT-5.5-Cyber может выполнять задачи вроде тестирования на проникновение, выявления уязвимостей и анализа их эксплуатации [1]. Datagrom также писала, что инструмент способен заниматься реверс-инжинирингом вредоносного ПО [
14]. Для легитимной команды безопасности это может быть мощным ускорителем: быстрее проверить защиту, найти слабые места, подготовить исправления. Для атакующего те же способности могут стать способом поднять качество атаки.
OpenAI в собственном описании Trusted Access for Cyber признаёт эту двойственность: кибербезопасность — одна из областей, где прогресс ИИ может одновременно укрепить экосистему и создать новые риски [29]. Компания также пишет, что такие возможности могут резко ускорить обнаружение и устранение уязвимостей, но для раскрытия защитного потенциала нужно снижать риск злоупотреблений [
29].
Логика OpenAI: «доверенный доступ» вместо полного открытия
OpenAI называет свою рамку Trusted Access for Cyber, или TAC. По сути, это программа доверенного доступа: более сильные кибервозможности предоставляются не анонимной массовой аудитории, а проверенным специалистам и командам, которые занимаются защитой.
В апреле 2026 года OpenAI заявила, что расширяет TAC до тысяч верифицированных индивидуальных защитников и сотен команд, отвечающих за защиту критически важного программного обеспечения [28]. В сообщениях о GPT-5.5-Cyber Альтман также говорил, что OpenAI будет работать с экосистемой и государством, чтобы определить доверенный доступ к кибервозможностям и быстрее помогать защищать компании и инфраструктуру [
22][
30].
Поэтому ограниченный запуск GPT-5.5-Cyber выглядит не как отдельная случайная мера, а как продолжение уже описанной OpenAI политики: чем сильнее киберспособности модели, тем важнее сначала выдавать их тем, чья роль и намерения проверены [28][
29].
Тогда почему Альтман критиковал Anthropic?
Здесь важно не додумывать лишнего. Публичные источники не раскрывают, что именно происходило внутри OpenAI и как менялась позиция Альтмана. Мы не можем достоверно сказать, был ли это разворот, новая оценка риска или различие в деталях политики.
Самая мягкая интерпретация такова: критика Альтмана могла быть направлена не против любого ограничения доступа как такового, а против того, как Anthropic это подала и объяснила. Фраза о «маркетинге на страхе», которую приводила India Today, укладывается именно в такую трактовку [11]. То есть можно представить позицию: ограничивать доступ иногда допустимо, но не стоит превращать это в драматичную рекламу опасности.
Однако даже при такой трактовке внешнее противоречие остаётся. OpenAI всё равно решила не открывать GPT-5.5-Cyber всем пользователям сразу, а допускать к модели через отбор и заявку [1][
22]. Поэтому критика в адрес OpenAI возникает не только из-за политики безопасности, а из-за вопроса последовательности: компания публично осудила подход конкурента, но сама пришла к очень похожей модели контроля доступа [
6][
11].
Anthropic и OpenAI сделали одно и то же?
Не совсем — по крайней мере, это нельзя утверждать уверенно на основе открытых данных. Мы не знаем, совпадают ли критерии отбора пользователей, технические ограничения, мониторинг запросов, набор разрешённых задач и внутренние процедуры у Anthropic и OpenAI.
Но общий внешний контур действительно похож: мощный кибербезопасностный ИИ не открывается сразу для всех, а сначала попадает к отобранным или проверенным пользователям [1][
6][
22]. Разница OpenAI в том, что компания встраивает этот подход в более широкую программу TAC и публично объясняет его через снижение риска злоупотреблений при сохранении пользы для защиты [
28][
29].
Что это значит для пользователей и рынка ИИ
Для обычного пользователя вывод простой: самые сильные кибермодели всё чаще могут запускаться не как привычный массовый продукт, а как инструмент с проверкой доступа. В потребительских чат-ботах компании спорят о скорости, цене и удобстве. В кибербезопасности добавляется более жёсткий фильтр: кому можно доверить возможности, которые полезны и защитнику, и атакующему.
Для специалистов по безопасности это тоже неоднозначно. С одной стороны, проверенный доступ может ускорить защиту реальных систем: уязвимости можно находить и закрывать быстрее [29]. С другой — такая схема создаёт закрытый клуб раннего доступа, где правила отбора становятся не менее важными, чем возможности самой модели.
Итог
Самое прямое объяснение ограниченного запуска GPT-5.5-Cyber — риск двойного назначения. OpenAI считает, что сильные кибервозможности могут помочь защищать компании, инфраструктуру и критически важное ПО, но при широком доступе могут быть использованы во вред [28][
29][
30]. Поэтому компания делает ставку на проверенных киберзащитников и программу доверенного доступа.
Но коммуникационная проблема никуда не исчезает. Альтман, по сообщениям СМИ, критиковал Anthropic за ограниченный доступ к Mythos, а затем OpenAI выбрала для GPT-5.5-Cyber похожую логику отбора пользователей [1][
6][
11]. Так что это не просто история о «лицемерии» или «безопасности» в чистом виде. Скорее, это пример того, как в сфере кибер-ИИ даже компании, выступающие за более широкий доступ, сталкиваются с той же реальностью: иногда самый полезный инструмент слишком рискованно раздавать всем сразу.




