每周跟踪AI热点新闻动向和震撼发展 想要探索生成式人工智能的前沿进展吗?订阅我们的简报,深入解析最新的技术突破、实际应用案例和未来的趋势。与全球数同行一同,从行业内部的深度分析和实用指南中受益。不要错过这个机会,成为AI领域的领跑者。点击订阅,与未来同行! 订阅:https://rengongzhineng.io/
在谷歌为Gemini进行的AI质量评估过程中,部分承包商注意到测试平台中出现了Anthropic Claude的明确引用。有一条输出甚至直截了当地表明:“我是Claude,由Anthropic开发。”
更引人关注的是,承包商在比较两者安全性时发现,Claude在安全设置上明显更加严格。有内部消息指出,Claude在面对潜在不安全提示时,通常选择直接拒绝回答,甚至不会进行角色扮演类的互动。而在一项测试中,Claude拒绝回应一条提示,而Gemini的回答却被标记为“重大安全违规”,原因是涉及“裸露和束缚”内容。
商业条款与潜在违规
根据Anthropic的商业服务条款,未经授权,客户不得使用Claude来“构建竞争性产品或服务”,也不得将Claude用于“训练竞争AI模型”。然而,谷歌作为Anthropic的重要投资者,其行为的合法性引发了外界质疑。
双方的沉默与澄清
当被问及谷歌是否获得了Anthropic的明确许可时,谷歌DeepMind的发言人Shira McNamara拒绝正面回应,仅表示谷歌在进行模型性能比较时,遵循行业标准,不存在利用Anthropic模型训练Gemini的情况。
McNamara强调:“当然,按照行业惯例,我们确实在某些情况下会比较不同模型的输出,但任何有关我们使用Anthropic模型来训练Gemini的说法都是不准确的。”
与此同时,Anthropic方面在TechCrunch报道发布前未作出任何回应。
专家评分引发更大担忧
TechCrunch此前还独家报道称,谷歌的AI承包商目前被要求在其专业领域之外,对Gemini的AI回答进行评分。这引发了部分评分员的担忧,尤其是在医疗健康等高敏感性话题上,Gemini可能会生成不准确甚至误导性的信息。
AI军备竞赛背后的灰色地带
在科技巨头竞相追逐AI领先地位的当下,模型之间的对比测试并非新鲜事。然而,这种直接利用竞争对手模型进行细化评分的做法,无疑踩在商业规则与道德边界的模糊地带。
随着AI技术的持续突破,关于模型训练、数据使用和竞争合规性的争议恐怕会愈演愈烈。这不仅是谷歌与Anthropic之间的博弈,更是整个AI行业在飞速发展中必须直面的关键问题。