人源首席执行官表示DeepSeek在关键生物武器数据安全测试中表现“最糟”

Anthropic的首席执行官Dario Amodei对竞争对手DeepSeek感到担忧,这家中国人工智能公司凭借其R1模型席卷硅谷,他的担忧可能比通常对DeepSeek将用户数据发送回中国引发的担忧更为严重。

在Jordan Schneider的ChinaTalk播客节目中接受采访时,Amodei表示DeepSeek在Anthropic进行的一项安全测试中生成了关于生物武器的罕见信息。

Amodei声称,DeepSeek的表现“是我们测试过的几乎所有模型中最糟糕的”。“它绝对没有任何阻止生成这些信息的屏障。”

Amodei表示,这是Anthropic定期对各种人工智能模型进行的评估的一部分,以评估它们潜在的国家安全风险。他的团队查看模型是否能够生成谷歌或教科书中难以找到的与生物武器相关的信息。Anthropic定位自己为重视安全性的人工智能基础模型提供商。

Amodei表示,他认为DeepSeek目前的模型“在提供罕见且危险的信息方面并不真正危险”,但在不久的将来可能会变得危险。尽管他赞扬DeepSeek的团队是“才华横溢的工程师”,但他建议公司“认真对待这些人工智能安全考虑”。

Amodei还支持对向中国出口芯片实施严格的出口管制,称担心这可能使中国的军事力量具有优势。

在ChinaTalk节目中,Amodei没有明确说明Anthropic测试了哪个DeepSeek模型,也没有提供有关这些测试的更多技术细节。对于TechCrunch的评论请求,Anthropic没有立即回复。DeepSeek也没有。

DeepSeek的崛起在其他地方也引发了对其安全性的担忧。例如,思科的安全研究人员上周表示,DeepSeek R1在其安全测试中未能阻止任何有害提示,实现了100%的越狱成功率。

思科没有提到生物武器,但表示能够让DeepSeek生成有关网络犯罪和其他非法活动的有害信息。值得一提的是,Meta的Llama-3.1-405B和OpenAI的GPT-4o的失败率分别为96%和86%。

目前尚不清楚这些安全性问题是否会严重影响DeepSeek的快速采用。像AWS和Microsoft这样的公司公开宣称将R1集成到其云平台中,这让人颇感讽刺,因为亚马逊是Anthropic的最大投资者。

另一方面,越来越多的国家、公司,尤其是美国海军和五角大楼等政府机构已开始禁止DeepSeek。

时间将证明这些努力是否会取得成功,或者DeepSeek的全球崛起是否会继续。无论如何,Amodei表示他认为DeepSeek是一个与美国顶级人工智能公司处于同一水平的新竞争对手。