Home » Anthropic表示不会使用您的私人数据来训练其人工智能

Anthropic表示不会使用您的私人数据来训练其人工智能

by v

领先的生成式人工智能初创公司Anthropic宣布,它不会使用其客户的数据来训练其大型语言模型(LLM),而且它将为面临版权索赔的用户辩护。

Anthropic 由 OpenAI 的前研究人员创立,它更新了商业服务条款,阐明了自己的理想和意图。Anthropic将自己客户的私人数据独立出来,与OpenAI、亚马逊和Meta等竞争对手形成了鲜明对比,这些公司确实在利用用户内容改进自己的系统。

根据更新后的条款,”Anthropic 不得利用来自付费服务的客户内容训练模型”,该条款还补充道,”在双方之间以及在适用法律允许的范围内,Anthropic 同意客户拥有所有产出,并否认其根据这些条款获得的客户内容的任何权利”。

条款还指出,”根据这些条款,Anthropic 预计不会获得客户内容的任何权利”,而且这些条款 “不会通过暗示或其他方式授予任何一方对对方内容或知识产权的任何权利”。

更新后的法律文件表面上为 Anthropic 的商业客户提供了保护和透明度。例如,公司拥有所有人工智能产出,从而避免了潜在的知识产权纠纷。Anthropic还承诺为客户辩护,使其免于因克劳德制作的任何侵权内容而遭到版权索赔。

这项政策与 Anthropic 的使命宣言相一致,即人工智能应该是有益、无害和诚实的。随着公众对生成式人工智能伦理的怀疑与日俱增,该公司致力于解决数据隐私等问题的承诺将为其带来竞争优势。

用户数据: LLMs’ Vital Food

像 GPT-4、LlaMa 或 Anthropic’s Claude 这样的大型语言模型(LLMs)是一种先进的人工智能系统,通过在大量文本数据上进行训练来理解和生成人类语言。这些模型利用深度学习技术和神经网络来预测词序、理解上下文并掌握语言的微妙之处。在训练过程中,它们会不断完善自己的预测,增强对话、撰写文本或提供相关信息的能力。LLM 的有效性在很大程度上取决于其训练数据的多样性和数量,当它们从各种语言模式、风格和新信息中学习时,它们就会变得更加准确并更了解上下文。

这就是为什么用户数据在训练 LLM 时如此有价值。首先,它可以确保模型紧跟最新的语言趋势和用户偏好(例如,理解新的俚语)。其次,通过适应用户的个人互动和风格,可以实现个性化和更好的用户参与。不过,这也引发了一场道德辩论,因为人工智能公司不会为用户的这些关键信息付费,而这些信息被用来训练模型,从而为他们带来数百万美元的收益。

据 TCN 报道,Meta 公司最近透露,它正在根据用户数据训练即将推出的 LlaMA-3 LLM,其新的 EMU 模型(可根据文本提示生成照片和视频)也是利用用户在社交媒体上上传的公开数据训练的。

除此之外,亚马逊还透露,其即将推出的LLM(将为升级版Alexa提供动力)也是根据用户的对话和互动进行训练的,不过,用户可以选择退出训练数据,因为默认设置是假定用户同意共享这些信息。”[亚马逊]始终认为,用真实世界的请求训练Alexa对于向客户提供准确、个性化且不断改进的体验至关重要,”亚马逊发言人告诉TCN。”但与此同时,我们让客户可以控制是否使用他们的 Alexa 语音记录来改进服务,而且我们在训练模型时始终尊重客户的偏好。”

随着科技巨头竞相发布最先进的人工智能服务,负责任的数据实践是赢得公众信任的关键。Anthropic 希望在这方面起到表率作用。如今,关于以交出个人信息为代价获取更强大、更便捷的模型的道德争论,与几十年前社交媒体普及用户成为产品以换取免费服务的概念时一样普遍。


Related Posts

Leave a Comment