站长网 10 月 23 日消息,据《华盛顿邮报》当地时间周五报道,社交问答网站 Reddit 已经与一系列生成式 AI 巨头会面,双方将商讨付费使用数据的事宜。
但如果双方无法达成协议,谈判破裂的话,Reddit 将考虑禁止谷歌、必应等搜索引擎的爬虫从平台内获取内容。这将迫使用户主动使用且需要登录 Reddit,才能获取到自己想要的信息。
稍晚之后,《华盛顿邮报》更正了这篇报道的部分细节:Reddit 否认了上述报道中关于“用户需强制登录平台,才能查看内容”的说法,至于“封杀搜索引擎爬虫”,官方则并未否认。消息人士还称,“没有搜索,Reddit 也能生存。”
在 Reddit 考虑这样做之前,还有超过 535 家新闻机构采取了类似做法:装备了应对生成式 AI 的“拦截器”,包括《纽约时报》《华盛顿邮报》和路透社等。此举是为了防止其内容被收集并用于训练 AI 聊天机器人,比如 OpenAI 的 ChatGPT。
不过,美联社在 7 月宣布与 OpenAI 达成许可协议,OpenAI 获得了将美联社的报道内容用于 AI 模型训练数据的许可。另据站长网此前报道,《纽约时报》曾在今年 8 月考虑起诉 OpenAI,原因是 OpenAI 使用了《纽约时报》的文章和图片来训练其 AI 模型,这违反了《纽约时报》的服务条款。如果诉讼成功,OpenAI 可能会遭受巨大的损失,包括删除其数据集、支付高额罚款等。
声明:本文内容采编自互联网,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,请点击举报,一经查实,本站将立刻删除。