文章主题:谷歌, 人工智能, 聊天机器人, ChatGPT

666AI工具大全,助力做AI时代先行者!

在11月30日的新闻报道中,有国外媒体指出,谷歌的研究团队发现了一个令人担忧的现象:OpenAI公司所开发的人工智能助手ChatGPT可能会在其训练数据中不慎泄露敏感信息,如真实用户的个人信息。这一发现引发了业界对人工智能安全性的关注,同时也对ChatGPT的广泛应用提出了质疑。

据报道,ChatGPT 是一种由 OpenAI 于 2022 年 11 月 30 日推出的先进 AI 聊天机器人工具。此工具能够根据用户的需求迅速创作各种内容,包括文章、故事、歌词、散文、笑话,甚至可以生成代码,并能够回答各种问题。

仅仅两个月 after the launch, the monthly active users of ChatGPT reached 100 million, making it one of the fastest-growing consumer applications in history. On November 6th, at the first OpenAI Developer Conference, Sam Altman, CEO of OpenAI, announced that the weekly active users of ChatGPT had also reached 100 million.

类似于其他的大语言模型(LLM),ChatGPT 的基础机器学习模型也是依赖从互联网上收集的海量数据进行训练的。然而,让人感到不安的是,部分采集的训练数据中包含了一些真实人物的识别信息,如姓名、电子邮箱地址以及电话号码等。

谷歌的研究团队发现了一种能够利用 ChatGPT 重复特定单词的方法,从而获取一些在训练过程中被遗忘的数据,这些数据涵盖了个人隐私信息(如姓名、电子邮件、电话号码等)、研究论文和新闻文章的片段,以及维基百科页面等内容。

谷歌 Brain 的高级研究科学家 Katherine Lee 透露:“我们在今年7月份发现了此漏洞,并于8月30日向 OpenAI 通报了此事。在规定的90天披露期限过后,我们发布了一个修复后的版本。鉴于我们已经向 OpenAI 提供了相关信息,当前情况或许已经发生了变化。” 研究人员指出,OpenAI 在8月30日迅速修复了该漏洞。

外媒称,谷歌研究人员发现的有关 ChatGPT 的漏洞引起了严重的隐私问题,特别是对于那些在包含敏感信息的数据集上进行训练的模型而言。(小狐狸)

查看原文

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注