潮新闻 记者 林婧
ChatGPT一周年界面,图片源于微博
今年11月30日,有史以来最强大的语言处理工具——ChatGPT正式上线一周年,有风君关注的一位设计师博主发了一个话题标签:人类存活确认。这个带着十足戏谑意味的标签,调侃了一年以来ChatGPT带给人类社会的深刻变革。
身处舆论中心的ChatGPT和其开发公司OpenAI也不平静,意大利下线禁令、多次版权侵权投诉、创始人的罢免风波……但它的智慧与强大、高效与博学,一次次让人惊叹折服。
近日,著名科学期刊《Nature》发布了2023年度十大人物(Nature’s 10),旨在评选出为科学领域做出重要贡献并引起人们对关键问题关注的个人,一般为5位男性和5位女性。与以往不同的是,今年的Nature’s 10包含了大型语言模型(LLM)ChatGPT,这是有史以来第一次“非人类”入选。
乍一看ChatGPT似乎被赋予了“人”的属性,事实上,ChatGPT应该算第十一位人物。
今年,《Natue》依然将十大人物颁给了10个人,包括美国国家点火装置首席设计师、物理学家安妮·克里奇(Annie Kritcher)、本大阪大学的发育生物学家林克彦(Katsuhiko Hayashi),以及ChatGPT的开发者之一——OpenAI公司首席科学家伊尔亚·苏茨克维(Ilya Sutskever)等10位人物。
Natures 10界面,图片源于官网
当然,ChatGPT创造了历史,也改变了《Nature》的评和选规则,但这样的结果似乎是“情理之中、意料之外”。《Nature》特写部主编理查德·蒙纳斯特斯基(Richard Monastersky)表示,ChatGPT占领了今年的各种新闻头条,科学界乃至整个社会都切身体会到其影响。虽然这个工具不算人物,也不完全满足《Nature》十大人物的评选条件,但《Nature》将其破例纳入榜单,以承认生成式人工智能给科学发展和进步带来的巨大改变。
从知名度和影响力来看,似乎ChatGPT比其他十位更大,虽然它刚刚过了一周岁生日。但自上线以来,每一个小小举动都能横扫世界各大社交媒体热搜榜,它的影响力已经不局限于某一单一领域了,ChatGPT带来的是一种对整个社会的、震撼人心的冲击。
施普林格·自然(Springer Nature,一家致力于为全球科研界提供最佳服务的出版机构)指出,《Nature》年度十大人物评选发布并非一个奖项,也不是全球前十排行榜,它是对当年重要科学进展、事件及其中一些关键人物和他们同事的记录。十大人物由《Nature》编辑选出,集中反映影响2023年一些最重要科学事件的个人。
ChatGPT不是一个“人”,而是千万个人,是无数人的集结和投影。
脱胎拥有数千亿参数的神经网络,使用了约45TB数据进行训练,从具有1.17亿个参数的GPT-1、15亿个参数的GPT-2、1750亿个参数的GPT-3,到如今很多人在使用的GPT-3.5和支持图像输入的GPT-4,ChatGPT在不断地被甄别和完善,成长为一个知识领域的百科全书式的“巨人”。
图片源于视觉中国
这个“巨人”比无数位学者、作家、医生、会计师、设计师、教师、记者等等专业人士更“博学”,而能够入选也就顺理成章了。
“巨人”也有着显而易见的局限和弊病。《Nature》也关注到了ChatGPT 的危险之处:首先是它可以帮助作弊者和抄袭者,其次它能不可逆转地污染科学知识的源泉,再次它存在错误和偏见问题,能够生成不准确不真实的信息,特别是不存在的参考文献。
新浪微博CEO夹总(王高飞,大V“来去之间”)就曾因此闹过乌龙。今年3月,金融行业罕见的一例债券事件:瑞士信贷被瑞士银行收购后,其总额高达160亿瑞士法郎(约合172.4亿美元)的额外一级资本债券(Additional Tier 1 Capital)将被减记为零。
此消息一出,金融专业人士@一玶海岸在微博上指出此前只有2017年西班牙大众银行破产出现过此类情况。夹总则在转发时贴出了ChatGPT给出的回答,说这样的例子在2016年的葡萄牙BCP银行事件中也出现过。但遭到@一玶海岸的质疑,最后查证ChatGPT给出的答案是编造的,且提供的两个信源也是查无此事。
@来去之间发的微博,图片源于微博
经此一遭,“AI信息污染”的话题被热议,网友们也纷纷留言“GPT不但捏造‘事实’,而且连它自己都信了。” @一玶海岸也留言道表示,哪怕是业内人士,面对如此逼真的假答案,估计也根本看不出来。
《Nature》对于AI产品的态度也是趋于保守的。从它将ChatGPT的创造者之一苏茨克维,同时也是保守的AI领域顶尖科学家选为今年的十大人物就能看出。
在早前的的各类新闻报道中,苏茨克维认为,ChatGPT和其他AI如果不受到人类的有效控制,就有可能造成巨大风险和灾难。为此,他积极推进OpenAI的 “超级对齐 ”项目专注于控制人工智能系统。于此同时,他还赞同OpenAI和其他一些公司应将其代码和训练数据保密,“从长远来看,封闭系统将避免让他人制造出强大的人工智能,这是负责任的做法。”
而所有这些失误、信息污染,都是AI在学习训练之初会产生的问题,因此我们需要对AI提供的产品和答案进行人工审核和查证,并且还应加以法律的绳索。
这一方面,欧盟起步甚早。2019年以来,先后发布了人工智能伦理准则并出台《人工智能白皮书》。并在两年后提出《人工智能法案》提案的谈判授权草案。本月初,欧洲议会、欧盟成员国和欧盟委员会三方就该法案达成协议,预计将于2024年初生效,并应在两年后实施。
图片源于视觉中国
作为全球首部人工智能领域的全面监管法规,《人工智能法案》或将为全球范围内监管人工智能技术定下基调。虽然最终文本没有对外公布,但从目前公布的信息中可以得知,法案将AI系统分为低风险、高风险、不可接受风险、特定透明度风险等不同等级,按照风险级别制定相应规定。
此外,它还明确规定使用包含个人信息的语料,所需获得授权同意的条件和标准;要求生成式人工智能服务提供者在服务上线前和发生重大变更时均需安全评估,并定期监督抽检;强调人工智能的有效监管需要不同部门之间的合作与协同,以及广泛的公众参与等等。虽然不完美,但对各国立法都有极强的借鉴意义。
生成式人工智能的革命一旦开始就无法回头,探寻AI大模型的有效监管路径变得极为迫切。ChatGPT这类AI系统像是科幻片里被人类科学家制造出的“超级婴儿”,以势不可挡的速度成长着,没有人知道它们还有多少未发掘潜力,是否依然受限于算力或训练数据,而意识到其可怕之处的科学家们只能迅速调整策略,想方设法地教导它、约束它。
人类存活确认?暂且确认。
“转载请注明出处”
举报/反馈

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注