谷歌名为 Bard 的大型语言模型工具表示它是用 Gmail 训练的——但谷歌否认了这一点。
Bard 是一种生成式 AI 或大型语言模型 (LLM),可以根据其大型数据集提供信息。与 ChatGPT 和类似工具一样,它实际上并不智能,而且经常会出错,这被称为“幻觉”。
微软研究院的作者兼首席研究员凯特·克劳福德 (Kate Crawford) 发布的一条推文显示了 Bard 的回复,暗示 Gmail 已包含在其数据集中。如果属实,这将明显侵犯用户隐私。
嗯,有人有点担心 Bard 说它的训练数据集包括……Gmail?
我假设这是完全错误的,否则谷歌正在跨越一些严重的法律界限。pic.twitter.com/0muhrFeZEA
– 凯特克劳福德 (@katecrawford) 2023 年 3 月 21 日
但是,谷歌的 Workspace 推特账号回应称,Bard 是一项早期实验,会犯错误——并确认该模型没有使用从 Gmail 收集的信息进行训练。Bard 网站上的弹出窗口还警告用户,Bard 并非总能正确查询。
这些生成式 AI 工具并非万无一失,有权访问的用户通常会尝试提取原本会被隐藏的信息。像 Crawford 这样的查询有时可以提供有用的信息,但在这种情况下,Bard 弄错了。
生成式 AI 和 LLM 已成为技术界的热门话题。尽管这些系统令人印象深刻,但它们也充满了早期问题。
每当像巴德这样的法学硕士提供回复时,即使谷歌本身也敦促用户回退到网络搜索。虽然看看它会说什么可能很有趣,但不能保证它是准确的。
未经允许不得转载:表盘吧 » Google Bard 没有接受过 Gmail 数据训练