Среда, 25 февраля 2026

$ Загрузка...

Минск

Загрузка погоды...

Anthropic отказывается от ключевого обещания по безопасности ради ускорения в гонке ИИ

ЛоготипTimes.by
ии

© Freepik.com

Причиной такого шага стали стремительные темпы развития отрасли и нежелание оставаться в хвосте, пока конкуренты активно наращивают мощности.

Компания Anthropic, долгое время считавшаяся самым осторожным игроком на рынке искусственного интеллекта, официально пересмотрела свою стратегию безопасности. Разработчик популярного чат-бота Claude отказывается от своего центрального обязательства: никогда не тренировать новые нейросети, если их защищенность нельзя гарантировать заранее. О радикальной смене курса руководство фирмы сообщило в интервью изданию TIME.

Причиной такого шага стали стремительные темпы развития отрасли и нежелание оказаться позади, пока оппоненты активно наращивают мощности. Главный научный директор Anthropic Джаред Каплан пояснил, что в условиях жесткого соперничества односторонние ограничения теряют смысл.

«Мы почувствовали, что остановка обучения моделей ИИ на самом деле никому не поможет. Мы не считаем, при столь быстром прогрессе ИИ, что для нас разумно брать на себя односторонние обязательства... если конкуренты вырываются вперед», – заявил Каплан.

Новый курс

Новая версия политики ответственного масштабирования (RSP) теперь делает ставку на прозрачность, а не на жесткие запреты. Anthropic обещает регулярно публиковать «Дорожные карты безопасности» и отчеты о рисках каждые три-шесть месяцев. Кроме того, компания обязуется «замедлить» разработки только в том случае, если она будет признана безусловным лидером гонки, а риски глобальной катастрофы станут очевидными.

Смена приоритетов произошла на фоне впечатляющих коммерческих успехов. В феврале 2026 года Anthropic привлекла $30 млрд инвестиций, что подняло ее оценку до $380 млрд. Доходы стартапа растут десятикратно каждый год, а модели Claude Code завоевали признание огромного количества программистов. При этом Каплан отрицает, что компания просто поддалась давлению рынка, называя это решение прагматичным ответом на политическую реальность.

По словам руководства, надежды на государственное регулирование, которое могло бы уравнять правила игры для всех, не оправдались. В США администрация президента Дональда Трампа придерживается подхода невмешательства, фактически давая зеленый свет на бесконтрольное развитие технологий.

Однако экспертное сообщество восприняло новости с тревогой. Директор по политике некоммерческой организации METR Крис Пейнтер отметил, что отказ от конкретных «красных линий» может привести к эффекту, когда опасность нарастает постепенно и незаметно.

«Изменение RSP показывает, что Anthropic считает необходимым перейти в режим сортировки своих планов безопасности, поскольку методы оценки и смягчения рисков не поспевают за темпами развития возможностей. Это еще одно свидетельство того, что общество не готово к потенциальным катастрофическим рискам, связанным с ИИ», – подчеркнул Пейнтер.

Несмотря на критику, в Anthropic настаивают, что их присутствие на «передовой» разработки жизненно важно для самой безопасности. В компании уверены: если ответственные разработчики замедлятся, темп будут задавать те, кто вообще не заботится о защитных механизмах.