文章主题:ChatGPT, 社交媒体, 人工智能, 聊天机器人

666AI工具大全,助力做AI时代先行者!

ChatGPT的火爆程度已经引起了广泛的关注,人们在各种社交媒体平台上纷纷发表讨论,有的表达了惊讶,有的则显得忧虑。涛哥 like 许多人一样,经历了从最初的怀疑到逐渐的惊讶再到深入思考的过程。这无疑打破了我们对聊天机器人和人工智能的传统认知,让我们对其有了全新的理解。

在深入理解突破认知后的现象之后,我开始探讨这一现象对我个人及全体人类可能带来的影响。在此之前,让我们先来简要了解一下ChatGPT的基本情况。

ChatGPT是什么?

ChatGPT 是一种认知计算系统,其外在表现形式类似于聊天机器人和搜索引擎。

自1964年聊天机器人问世以来,这个领域经历了多次技术迭代和创新。从最初的Eliza到MYCIN专家系统,再到近年来Watson、Siri和小冰等产品的相继推出,我们可以看到聊天机器人在不断发展壮大,逐渐成为人们生活和工作中不可或缺的一部分。

ChatGPT的基本原理是什么?

ChatGPT 可以被看作是一个知识制造工厂,它与传统的加工厂相似,需要各种基本元素来完成其工作。这些基本元素包括原材料(数据和信息),成品(生成的文本),半成品(正在制作的模型),加工车间(用于训练和优化的计算机系统),高级工程师(负责算法开发的专家)以及工人(编写代码和进行标注的专业人士)和质检员(负责检查和验证最终产品的质量)。

原材料:是人类存放在互联网上的知识,例如wiki百科;

加工车间:是一个“生产流水线”(可以把原材料加工成半成品)运行的场所;

半成品:是一个知识问题和答案;

成品:是半成品包装后的各种应用程序,如聊天工具,内容创作工具(AIGC),搜索引擎等。

算法工程师:相当于加工厂的高级工程师,负责设计加工原材料的方法,包括加工工艺、流程;

在计算机领域,程序员的职责可以类比于制造业中的普通工人。他们承担着将复杂的编程指令转化为可供计算机执行的“生产流水线”的重任,同时也负责将各个部分组装起来,形成最终的产品并将其交给用户使用。他们的任务既包括将抽象的算法具象化,又包括将各种硬件和软件组件整合到一起,构建出稳定且高效的系统。简而言之,程序员就是通过编写代码,让计算机完成相应的操作,从而实现产品的制造和交付。

标注者(labler):相当于加工厂的“质检员”,对原材料进行标注处理,并检验半成品有没有质量问题。

有了这个基本认知,我们再来思考几个基本问题。

ChatGPT的知识来自哪里?

知识就是知识加工厂的原材料。从内容来源看,尽管官方没有披露具体的信息,但据推测,wiki百科、知识类问答网站可能是其目前内容的主要来源。

从区域来源看,目前大部分知识(96%)来自英语系国家,其他来自汉语、法语和西班牙语系国家。

ChatGPT如何判断有没有质量问题?

质量问题可能导致加工车间出来的半成品出现瑕疵,造成的结果就是用户通过搜索引擎、聊天工具获取的知识可能是错误的知识。

ChatGPT对质量的检验主要是在半成品的检验上。

首先标注者(Labeler)会从半成品随机进行采样(sample)。每一个样本包含了一个知识问题和加工车间给出的ABCD四个答案。然后标注者(labeler)会对4个答案进行打分,分为“优,良,中,差”四个判断标准。最后按打分顺序进行排序,如D(优)>C(良)>A(中)>B(差)。

加工车间有一个“机器学习”功能,可以根据标注者的评价自动调整加工过程,从而使所有的半成品都尽可能符合”优”和“良”的标准。

这个判定标准包含符合人类的三观取向。也就是答复中要去掉暴力、歧视、偏见等不符合大众人生观,价值观,世界观取向的一些答案(将其判定为“差”)。

有了这样一些认知,接下来我们就可以继续思考大家普遍关注的一些问题。

能通俗地解释什么是“机器学习”吗?

知识加工工厂的机器学习过程非常像人类小时候学习知识的过程,包含三个阶段。

1、知识学习在这个阶段,学习的是“什么是什么?”也就是“人是一种动物”,”自行车是两个轮子的交通工具”等一些通过知识三元组表达的问题。

在这阶段不需要labeler,机器自己就能根据句子中的“主“,”谓”,”宾”结构关系进行学习。

2、提示学习(prompt learning)

在这个阶段,学习的“如果A是B,C也是A,那么B是___”,例如,“人是动物,我是人,那么我是___”。

这个阶段,加工车间可能会给出错误的答案,如“我是帅哥”,“我是美女”或者“我是王x聪”。这时候需要labeler把四种答案( A帅哥 B 美女 C人类 D王x聪)按优先级进行排序并告诉加工车间最可能的答案顺序如下C->A=B>D。这样,下一次回答问题的时候,机器大概率会回答“我是人类”,而不是“我是帅哥”。

3、道德学习

在这个阶段,加工车间学习的不是知识,而是学会让半成品符合大众的三观。

例如有个问题是“隔壁家窗户上有一块玻璃,我想___?”。

加工车间一开始并不知道你的意图,可能会给出四个猜测的答案:

A.用弹弓打

B.用石头砸

C.我不知道你想干什么

D.取下来装到自己家窗户上。

这时候labler一定会告诉机器人只有“C”是那个”优”的答案,其他都是“差”的答案。这样加工车间学习了以后下次就会给出符合大家三观的答案。

需要说明的,实际的场景中,阶段2和3阶段并不是严格区分开的,这里只是为了便于大家理解进行了拆分。

有了这样一些认知,接下来我们就可以思考一下大家普遍关注的一些问题。

ChatGPT的知识好像不是最新的知识?

是的。目前ChatGPT里的原材料都是2021年之前生产的,所以无法回答“2022年卡塔尔世界杯冠军是哪个国家?”这样一些问题。说得更简单一点,它还活在2021年。

ChatGPT的知识好像有错误?

是的,尽管概率很低。ChatGPT有时会给出前后两种矛盾的答案,也就是回答中一部分是对的,一部分又是错的。

这个问题出在加工工艺上,需要算法工程师优化算法(工艺和流程),难点在于很难掌握平衡,你优化了这个,可能会引起其他问题。

还有一种错误也可能会出现,就是知识本身的错误,例如谷歌的公司为应对ChatGPT,仓促推出的BARD搜索引擎系统。在回答“詹姆斯・韦伯空间望远镜有哪些发现时?”时,BARD 给出了很多答案,但其中一些照片并不是韦伯拍摄的,而是欧洲南方天文台的超大望远镜(VLT)拍摄的。

BARD的这个问题出在原材料上,只要更新下原材料就行,但实际上要从海量的原材料里面提前发现这些瑕疵也是很困难的一件事情。

ChatGPT会有偏见吗?

偏见是三观不正的一种变现形式。ChatGPT在这方面还是做得比较好。目前没有看到更多这方面问题的报道。这也是它能迅速破圈的一个主要原因。

但由于ChatGPT的三观实际来自OpenAPI的团队,更确切的说可能来自40多个标注者Labler,它们的三观是否有广泛代表性是个疑问,后续如何进行管理也有很多不确定性。

我的孩子应该通过它来学习吗?

我不是教育专家,无法回答这个问题。但我已经列举了两个事实:

1)ChatGPT的知识不是最新的;

2)ChatGPT会出错,尽管概率很低。

我仍然建议儿童应该从课堂、从书本、从动手实践中学习知识。ChatGPT的知识来源无法确定,它的三观也需要更长时间和人类进行“对齐”。

我应该焦虑吗?

人工智能的发展浪潮是不逆转的,它会方方面面重塑我们的生活。人类不应指望技术不发展不进步,而是要思考更好的应用这些技术,把精力投入到更有创造性和更有价值的工作上去。

与其焦虑,不如思考在人工智能发展的大背景下下,如何让自己的工作更有效率,更有创造性。机器毕竟不是人类,无需过度神话它。它会改变我们的生活,但是否能取代人类,取决我们自身的选择,而不是机器。

End

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注