发布时间:2026-03-27 已有: 位 网友关注
一款名为Claude Mythos、内部代号Capybara的全新旗舰模型已完成训练并进入早期测试阶段,Anthropic官方将其性能提升描述为代际跃迁,在编程、学术推理和网络安全等核心测试中全面超越现有最强版本Claude Opus 4.6。
报道称,由于Anthropic内容管理系统的人为配置失误,近3000份未发布的内部文件暴露在公开可检索的数据缓存中,泄露文件揭示,公司计划引入一个名为Capybara的全新模型层级,其定位高于现有旗舰Opus系列,运行成本也将更为高昂。
然而,超强性能伴随着前所未有的安全隐忧。泄露的内部草稿显示,Anthropic将新模型定性为网络安全领域的重大风险
超越Opus:全新层级Capybara打破现有格局
泄露的博客草稿显示,Claude Mythos代表着Anthropic产品线的一次结构性重组。
目前,Anthropic的模型矩阵分为三个层级:能力最强的Opus、速度与成本均衡的Sonnet,以及最小最快的Haiku。而泄露文件表明,Anthropic正在引入一个全新的Capybara层级,其定位在Opus之上——体量更大、智能程度更高,但运行成本也更为昂贵。
在具体性能方面,草稿博客称,与此前最强版本Claude Opus 4.6相比,Capybara在软件编程、学术推理及网络安全等测试中的得分均大幅提升。文件将Claude Mythos描述为迄今为止我们开发过的最强大AI模型,远超以往任何版本。
Anthropic发言人在回应询问时证实了上述方向,表示公司正在开发一款在推理、编程和网络安全方面取得重大进展的通用模型,并强调鉴于其能力的强大,我们正在审慎地推进发布方式。
前所未有的网络安全风险:Anthropic自身也感到警惕
伴随强大能力而来的,是泄露文件中措辞罕见强烈的安全警告。
泄露草稿博客直言,新模型目前在网络攻击能力方面远超任何其他AI模型,并预示着一波即将到来的模型浪潮,其漏洞利用速度将远远超出防御者的应对能力。
正是出于这一顾虑,Anthropic在发布策略上将网络安全防御机构列为优先受益方。草稿写道:我们将率先向相关机构开放早期访问权限,让它们能够在即将到来的AI驱动漏洞利用浪潮中抢占先机,提前加固自身代码库的稳健性。
这一担忧并非孤例。今年2月,OpenAI发布GPT-5.3-Codex时,将其列为首个在网络安全任务中达到高能力评级的模型,也是首个被直接训练用于识别软件漏洞的模型。同期,Anthropic发布的Claude Opus 4.6也展现出识别生产代码库中未知漏洞的能力,公司承认这属于攻守两用的双刃剑特性。
配置失误:3000份内部文件意外公开
此次泄露事件的技术根源,在于一个看似低级的操作失误。
LayerX Security资深AI安全研究员Roy Paz与剑桥大学网络安全研究员Alexandre Pauwels发现,Anthropic用于发布官方博客的外部CMS工具存在配置缺陷:该系统默认将上传的数字资产设置为公开状态并赋予可访问的URL,除非用户手动将其设为私密。这一默认设置导致近3000个未发布资产——包括、PDF文件及音频文件——暴露在公开可检索的数据缓存中。
Anthropic在
X平台炸锅:震撼与质疑并存
消息一经曝光,X平台迅速掀起讨论浪潮,舆论焦点集中在技术震撼与安全信任两个维度。
账号TFTC发文直指事件的讽刺意味:Anthropic不慎证明了AI安全论。一个CMS配置错误导致3000份未发布文件暴露在公开可的缓存中——其中就包括关于Claude Mythos的详情,而Anthropic内部文件将其称为迄今为止最强大的AI。这一评论在科技圈广泛传播,不少用户对一家以AI安全为核心价值观的公司,竟因基础配置失误而自露底牌深感错愕。
另有用户fardeen则将视角转向Claude最新的能力,评论道:Claude现在真的可以像你一样使用电脑——打开应用、点击按钮、填写表单。Anthropic正在逐步将人类从操作流程中移除。
用户Oliwier Makowski Trusz则认为Capybara的发布改变了格局。根据泄露信息,参数量达到10万亿。Claude 与其他所有模型之间的差距刚刚被大幅拉开。