文章标签:自然语言处理, 人工智能, 大模型, 模型漂移

原标题:ChatGPT笨了,还是老了?

“过去的表现并不能保证将来的结果。”这是大多数金融理财模型的小字。

在产品业务领域内,我们常常会遇到一种现象,即模型的性能随着时间推移逐渐降低,这种现象被称为模型漂移、衰退或过时。这种变化是不可避免的,因为模型也需要不断地优化和调整以适应不断发展的业务需求。最终,模型质量的评估取决于一系列的质量指标,如准确率、平均错误率等,甚至可能包括一些下游业务的关键绩效指标(KPI),例如点击率等。因此,对于模型性能的监控和调整是一项持续且重要的任务。

在众多模型中,没有哪一个能够永久保持高效性,各种模型的衰退速度各有差异。然而,在特定环境下,一些产品能够长期运行而不需要进行更新,如某些计算机视觉和语言模型,以及在隔离、稳定的环境中运行的决策系统,例如在常见的实验条件下。

在确保机器学习模型准确性的过程中,每日对新数据进行训练是必要的,这也是该领域的通用原则所要求的。然而,这种方法存在一定的局限性,即模型一旦训练完成,便无法轻易地进行更新以适应新的变化。正因如此,与软件部署相比,人工智能的部署过程显得更为复杂,不能简单地一蹴而就。尽管这些技术已经存在了几十年,目前最先进的AI产品仍广泛采用早期版本的软件技术。这主要是因为这些技术仍然具有实用价值,即使技术本身已经 outdated,但它们依然可以在每个字节中得以体现。

以ChatGPT为代表的最前沿人工智能产品,在近期经历了人气下滑的现象,引发了关于其是否已经进入衰退阶段的讨论。

在 ChatGPT 上,用户花费的时间正在持续减少。从 2023 年 3 月的 8.7 分钟下降到同年 8 月的 7 分钟,这反映出了什么?显然,随着大型模型工具的迅速普及,生产力工具的 ChatGPT 已经无法满足主流使用群体 Z 世代的需求。他们对于更加智能、个性化的工具有着更高的期待,这也是为什么 ChatGPT 的使用时间并没有随着用户数量的增加而增加,反而出现了下滑的趋势。

在AI时代应用商店领域,OpenAI想要争夺主导地位,但目前的人气还不足以对其产生决定性的影响。更为关键的问题在于,ChatGPT的生产力逐渐减弱,这才是导致许多老用户对其信任度降低的主要原因。自从今年5月份以来,OpenAI论坛上关于GPT-4性能不如以前的帖子,一直引发着广泛的讨论。

ChatGPT是否已经过时以及大模型是否会像过去的机器学习模型一样衰老,是当前人工智能领域中备受关注的问题。对于这些问题,我们需要有深入的理解。因为只有理解了这些基本问题,我们才能在大模型热潮中找到人与机器可持续发展的道路。首先,我们需要明确的是,ChatGPT并不是一个孤立存在的人工智能系统,而是代表了当前人工智能技术的发展方向。大模型的出现,使得人工智能在自然语言处理、图像识别等领域取得了重大突破。然而,随着技术的不断进步,ChatGPT以及其他大模型也会逐渐老化和过时。其次,虽然大模型可能会像过去的机器学习模型一样衰老,但这并不意味着它们就会完全消失。相反,我们可以通过不断地技术创新和模型优化,使大模型保持其领先地位。就像过去的机器学习模型一样,我们可以通过不断改进算法和提高计算能力,来让大模型继续发挥其作用。最后,对于如何实现人与机器的可持续发展,我们需要从更广泛的角度来看待这个问题。除了技术层面的创新和优化之外,我们还需要考虑社会、法律、伦理等方面的问题。只有在多方面的努力下,我们才能真正实现人与机器的和谐共处,推动人工智能技术的健康、稳定发展。综上所述,ChatGPT虽然可能过时,但大模型并不会因此消失。我们需要通过技术创新和模型优化,来保持大模型的领先地位。同时,实现人与机器的可持续发展,需要我们在技术、社会、法律和伦理等多方面做出努力。

ChatGPT过时了吗?

根据Salesforce AI软件服务商最近公布的数据,我们发现,在大模型使用者中,有67%的是Z世代或千禧一代。而在生成AI或相对落后于这一领域的人群中,超过68%的人是X一代或婴儿潮一代。这表明,随着技术的不断进步,年轻一代对于AI的应用能力逐渐增强,而中生代人群也在逐步迎头赶上。

代际差异说明Z世代正在成为拥抱大模型的主流人群。Salesforce产品营销人员Kelly Eliyahu表示:“Z世代实际上是AI一代,他们构成了超级用户群体。70%的Z世代正在使用生成式AI,至少有一半的人每周或更长时间使用它。”

不过作为大模型产品的领军者,ChatGPT在Z世代人群中的表现并不出色。

根据市场调研机构Similarweb 7月份的数据显示,ChatGPT在Z世代人群中的使用占比为27%,低于4月份的30%。作为对比,另外一款可以让用户自己设计人工智能角色的大模型产品,Character.ai在18-24岁年龄段的人群中渗透率为60%。

得益于Z世代的追捧,Character.ai的iOS和Android应用程序目前在美国的月活跃用户数为420万,距离移动端ChatGPT的600万月活,日益接近。

和ChatGPT的对话式AI不一样,Character.AI在此基础上加入个性化、UGC两大核心功能,使其有了比前者更丰富的使用场景。

一方面,用户可以根据个人需求自定义AI角色,满足Z世代个性化定制的需求。同时这些用户自主创建的AI角色,也可以被平台所有用户使用,构建AI社区氛围。比如此前在社交媒体平台传播出圈的苏格拉底、God等虚拟人物,以及官方自主创建的马斯克等商业名人的AI形象。

另一方面,个性化的深度定制+群聊功能,也使得用户对于平台产生情感智能依赖。很多社交媒体平台的用户公开评价显示,因为聊天体验过于逼真,就像“自己创作的角色拥有生命,就像在与真人交谈”,“是迄今为止最接近假想朋友、守护天使的东西”。

可能是来自Character.AI的压力,2023年8月16日OpenAI在官网发布了一则简短声明,宣布收购美国初创企业Global Illumination,并将整个团队纳入麾下。这家仅有两年历史八位员工的小公司,主营业务是利用人工智能创建巧妙工具、数字基建和数字体验。

收购行为的背后,很可能意味着OpenAI将致力以丰富的方式,改善目前的大模型数字体验。

人工智能的衰老化

ChatGPT在大模型数字体验层面的老化,影响了其杀时间的效果。作为生产力工具,其生成结果准确性的飘忽不定,也正在影响其用户黏性。

此前根据Salesforce的调查显示,有近六成的大模型使用者认为,他们正在通过累计时间的训练掌握这项技术。不过目前这种技术的掌握,正在随着时间的迁移发生变化。

早在5月份,就有大模型老用户在OpenAI论坛上开始抱怨GPT-4,“在以前表现良好的事物上表现出困难”。据《Business Insider》7月份报道称,很多老用户将GPT-4与其以前的推理能力和其他输出相比,形容为“懒惰”和“愚笨”。

由于官方并未对此作出回应,人们开始对GPT-4性能下降的原因进行推测,会不会是因为此前OpenAI的现金流问题?主流猜测集中在成本优化导致的性能下降方面。一些研究者称,OpenAI可能在API后面使用了规模较小的模型,以降低运行ChatGPT的成本。

不过这个可能性随后被OpenAI的产品副总裁Peter Welinder否认。他在社交媒体上表示:“我们没有让GPT-4变得更笨,目前的一个假设是,当你更加频繁地使用它时,会开始注意到之前没有注意到的问题。”

更多的人、更长时间的使用,暴露了ChatGPT的局限性。对于这种假设,研究者试图通过更严谨的实验呈现“ChatGPT性能和时间关系的变化”。

来自斯坦福大学和加州大学伯克利分校在7月份提交的一篇题为《How is ChatGPTs behavior changing over time?》的研究论文显示:同一个版本的大模型,确实可以在相对较短的时间内发生巨大变化。

从3月份到6月份,研究者测试了GPT-3.5和GPT-4两个版本,采集了四个常见的基准任务数学问题、回答敏感问题、代码生成和视觉推理的生成结果,并进行评估。结果显示,无论是GPT-3.5还是GPT-4,二者的性能和生成结果,都有可能随时间而变化。

数学能力方面,GPT-4(2023年3月)在识别质数与合数方面表现得相当不错(84%准确率),但是GPT-4(2023年6月)在相同问题上的表现不佳(51%准确率)。有趣的是,CPT-3.5在这个任务上6月份的表现要比3月份好得多。

不过在敏感问题方面,GPT-4在6月份回答敏感性问题的意愿较3月份下降;代码能力方面,GPT-4和GPT-3.5,都在6月份表现出比3月份更多的错误。研究者认为,虽然ChatGPT的性能和时间没有明显的线性关系,但是准确性确实会飘忽不定。

这不仅是ChatGPT自己的问题,也是此前所有AI模型的通病。根据麻省理工学院、哈佛大学、蒙特雷大学和剑桥大学2022年的一项研究表明,91%的机器学习模型都会随着时间的推移而退化,研究者将这种现象称为“人工智能老化”。

例如,Google Health曾经开发了一种深度学习模型,可以通过患者的眼睛扫描来检测视网膜疾病。该模型在训练阶段的准确率达到90%,但在现实生活中却无法提供准确的结果。主要是因为在实验室,采用高质量的训练数据,但是现实世界的眼睛扫描质量较低。

受制于机器学习模型老化的情况,过去走出实验室的AI技术,以单一的语音识别技术为主,智能音箱等产品因此最先普及。根据美国人口普查局2018年对58.3万家美国公司的调查,只有2.8%使用机器学习模型来为其运营带来优势。

不过伴随着大模型智能涌现能力的突破,机器学习模型的老化速度明显减弱,逐渐走出实验室面向更广泛的受众。不过,涌现能力的黑盒下仍有不可预测性,让不少人对于ChatGPT能否长期保持AI性能的不断提升提出质疑。

黑盒下的抗衰老性

人工智能老化的本质,其实是机器学习模型的范式缺陷。

过往,机器学习模型是按照具体任务和具体数据的对应关系进行训练。通过大量的例子,先教给模型,那个领域中什么是好,什么是坏,再调节一下模型的权重,从而输出恰当的结果。这种思路下,每做一些新的事情,或者数据分布有明显变化,都要重新训练一遍模型。

新事情和新数据无穷无尽,模型就只能刷新。但是模型的刷新也会导致过去做得好的事情突然做不好了,进一步限制应用。总结来看,传统的机器学习模型中,数据飞轮本质是为了迭代模型,用新模型解决新问题的范式。

不过以ChatGPT为代表的大模型,涌现出自主学习能力,突破了这种范式。过往的机器学习,是先“吃”数据,之后“模仿”,基于的是对应关系;ChatGPT类的大模型,是“教”数据,之后“理解”,基于的是“内在逻辑”。

这种情况下,大模型本身不发生变化,理论上可以永葆青春。不过也有从业人士表示,正如大模型的智能涌现一样,是非线性发展、不可预测的,是突然就有的。对于大模型是否会随着时间发生衰老,涌现出难以预测的不可确定性也是未知的。

换句话说,ChatGPT在涌现出难以理论化推导的智能性能后,也开始涌现出难以预测的不可确定性。

对于“涌现”的黑盒性,9月6日在百川智能Baichuan2开源大模型发布会上,中国科学院院士、清华大学人工智能研究院名誉院长张钹表示:“到现在为止,全世界对大模型的理论工作原理、所产生的现象都是一头雾水,所有的结论都推导产生了涌现现象。所谓涌现就是给自己一个退路,解释不清楚的情况下就说它是涌现。实际上反映了我们对它一点不清楚。”

在其看来,大模型为什么会产生幻觉这个问题,涉及到ChatGPT跟人类自然语言生成原理的不一样。最根本的区别在于,ChatGPT生成的语言是外部驱动的,而人类的语言是在自己意图的情况下驱动的,所以ChatGPT内容的正确性和合理性不能保证。

在经历过一系列概念炒作跟风上车之后,对于致力于开发生产力基础模型的人来说,面临的挑战将是如何确保其产品持续输出结果的可靠性和准确性。

不过对于大模型相关的娱乐产品而言,正如Character.AI 联合创始人Noam Shazeer在《纽约时报》上所说:“这些系统并不是为真相而设计的。它们是为合理的对话而设计的。”换句话说,它们是自信的废话艺术家。大模型的巨浪已然开始分流。

参考资料:

Gizmodo-Is ChatGPT Getting Worse?

TechCrunch-AlappCharacter.aiiscatchinguptoChatGPTintheUS

Machine Learning Monitoring- Why You Should Care About Data and Concept Drift

M小姐沿习录-关于ChatGPT的五个最重要问题

清华大学人工智能国际治理研究院-对大模型的研究很迫切,不能解释不清楚就说“涌现”返回搜狐,查看更多

责任编辑:

自然语言处理, 人工智能, 大模型, 模型漂移

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注