文章主题:贪吃蛇, 手机游戏, 人工智能, 代码生成

666AI工具大全,助力做AI时代先行者!

原标题:百度交出一款“贪吃蛇”和一个文心一言“加强版”

时间是残酷游戏,比如当惊艳的Apple Vision Pro终于出场,早已无人惦记遥远的诺基亚。

对于所有手机游戏开发者来说,包括那些即将登录Apple Vision Pro的开发者Ryan McLeod,都应该向1997年诺基亚首次将《贪吃蛇》内置的决定表示敬意。这一举动被认为是开启手机游戏历史的重要事件,它为手机游戏的普及和发展奠定了基础。

《贪吃蛇》这款游戏的逻辑基础相当简单,玩家只要操控角色吃掉果实就能获得分数,同时角色的身体也会随着变长。不过,要避免碰到边界或者自己,这就需要玩家在操作过程中保持谨慎。尽管诺基亚这个品牌已经逐渐淡出人们的视野,但是以《贪吃蛇》为主题的游戏却依然生命力旺盛。甚至在开发者社区中,“如何用尽可能少的代码编写一个贪吃蛇游戏”仍然是一个具有吸引力的热门话题。

现在这个充满古典美感且引人入胜的游戏已经演变为衡量人工智能能力的重要指标 during the era of large-scale models. Thanks to the new code assistant Comate, which was recently launched by Baidu Cloud AI Platform Manager Xishan, the process of building a game like “Snake” from scratch was transformed into an assessment of AI capabilities. With the help of the platform, AI completed most of the coding work involved in bringing the snake to life, showcasing its remarkable abilities in this modern age of large-scale models.

整个过程不到5分钟。

开发者的Comate

在当前大模型的短暂且激烈的竞争中,外界的目光尚未从神秘的面纱中解脱出来。尽管许多宏伟的愿景已经逐渐退去浮华,回归到对具体事务的关注,但仍有许多未解之谜。其中,生成式AI就是一个备受关注的焦点。人们纷纷探讨,生成式AI究竟能为各行业带来何等的新的生产力。然而,在这场竞争的余波中,我们仍需保持警惕,避免被黑箱的迷雾所迷惑。只有这样,我们才能在变革的大潮中,找到属于我们的方向。

在6月6日于成都举行的一场名为文心大模型技术交流会的活动中,百度推出了code助手Comate邀测。这个工具与GitHub Copilot等代码编写助手有着相似的功能,的不同之处在于,Comate使用了更多的中文注释和开发文档作为训练数据,从而更好地学习和理解开发者的需求。在编码过程中,Comate能够根据开发者当前正在编写的代码,进行推理并预测出他们可能会选择的下一行代码。这种智能化的开发工具,无疑将极大地提高开发效率,提升代码质量。

文心大模型是宏大的,Comate是具体的。

在开发《贪吃蛇》这款网页版游戏的过程中,首要任务是在画布上绘制底部,同时设定键盘操作规则以及游戏结束的标准。此外,还需要对游戏的速度等环境因素进行精细调控。而对于Comate来说,只需输入“canvas”以及“弹性布局,水平居中,垂直居中”的关键词,便可自动生成游戏画布的代码。接下来,再输入“param color”、“left”、”food=”等关键词,Comate便会根据上下文自动解析指令,补充完整代码,并在多组推荐代码中进行切换,最终直接生成可运行的《贪吃蛇》游戏。

原内容提到了 Comate 技术在百度各业务线中的成功应用以及其在百度核心研发部门中的广泛接受程度。为了进一步拓展此话题,我们可以将这两个方面进行更深入的探讨。首先,让我们看看 Comate 技术在百度各业务线中的成功应用。据百度介绍,目前 Comate 能力已经率先集成在百度所有业务线中并实现了很好的使用效果。这意味着,无论是在搜索、推荐、知识问答还是其他业务领域,Comate 技术都能够有效地支持百度的工作流程,提高工作效率和质量。接下来,我们来关注一下 Comate 技术在百度核心研发部门中的应用情况。从去年开始,Comate 已经在百度内部进行了大量测试,并取得了显著的成果。测试结果显示,在“Comate”辅助编写的代码中,近 50% 的建议代码被开发者采纳,并且在目前的百度内部已经广泛应用到各类产品开发中。这充分证明了 Comate 技术的实用性和价值,也反映了百度对于技术创新的高度重视和积极态度。综上所述,Comate 技术在百度的成功应用和推广表明了百度在人工智能领域的技术实力和创新能力,同时也为其他企业提供了借鉴和学习的机会。未来,随着 Comate 技术的不断发展和完善,我们有理由相信,它将在更多的行业和领域中发挥出更大的作用,为人类社会的发展做出更大的贡献。

作为一款具备高度智能化特性的代码辅助工具,Comate不仅能够整合百度内部丰富的代码资源,还能兼容并利用高质量的GitHub代码库。目前,Comate已经能实现包括代码自动生成、自动补全、智能搜索、优质代码推荐以及自动化测试代码生成等在内的多种便捷功能。在推理速度方面,Comate的表现同样令人满意,其上单请求的执行速度大约在300ms左右。这意味着,开发者可以继续专注于编码工作,而无需频繁暂停等待代码生成的过程。综上所述,Comate以其出色的表现,完全能够满足开发者在编写代码过程中的各种需求,成为一款值得信赖的代码辅助工具。

当前Comate代码助手支持主流开发语言/框架30余种,对于C/C++、Java、Python等主流语言Comate专门做了数据优化,可达到更好的代码推荐效果。此外,Comate还支持前后端、软硬件不同场景、以及程序员常用的多种IDE。

从这个角度来看,《贪吃蛇》是一次直观却并不充分的演示。施恩也表示,《贪吃蛇》的代码开发其实已经可以完全依靠大模型来不加干涉的自动生成。只不过有趣的是,Comate从原本百度内部智能工作平台推出的一个“代码推荐工具”到现在的“代码生成助手”,本身也得益于大模型的能力加持。

百度智能云AI平台副总经理施恩 图源:百度

Comate的孵化开始于2018年左右,百度内部在寻找提升开发效能的办法时已经提到了代码生成。但技术不够成熟,所以先选择通过检索算法并做算法推荐的方式来提效。“那时候技术探索已经在尝试了。但在文心大模型出现之后,我们才把真正的代码生成在更广泛的场景应用起来”,百度智能云AI平台副总经理李景秋对品玩表示。

Comate从搜索逻辑过渡到生成逻辑,大模型的能力开始在开发环节呈现出生产力变革的姿态。而如果说Comate是文心大模型对开发者的一次回答,那“文心一言- Turbo”则是文心一言上线两个月后,百度给产业交出的一个新方案。藏于其后的,是文心千帆大模型平台在两个月后逐渐清晰的迭代路线。

文心千帆的迭代方向:效果+效率

百度将文心千帆定义为全球首个一站式的企业级大模型平台。具体来看,文心千帆不仅提供包括文心一言底层模型(Ernie bot)在内的大模型服务,还提供了各种AI开发工具链和整套开发环境。此外,大模型平台还支持各类第三方的开源和闭源的大模型。自3月27日首次启动内测开始,在文心千帆的支撑下,文心一言在两个月内完成了四次技术迭代。

在4月25日的一场技术交流会上,百度集团副总裁侯震宇透露自内测以来,通过算法和模型的持续优化,文心一言推理效率提升10倍,推理成本降为原来十分之一。一个半月后,文心一言的高性能模式“文心一言- Turbo”作为文心千帆第一阶段迭代的结语成果出现。在一些高频、核心场景,在满足同样客户需求的情况下,推理服务的整体性能总共提升了50倍。

多次迭代后,文心千帆的两个进化方向也已经显现出来:效果效率

在效果上,除了推理性能的大幅提升外,“文心一言- Turbo”支持SFT训练,同时针对不同场景和效果提供多种训练方式,Bloom7B(70亿参数)第三方大模型可支持 P-tuning、SFT、Lora等不同训练方式。并且由于企业对于大模型再训练的需求以及私有化部署的考虑,文心千帆将开放插件协议,能够让第三方企业基于插件协议共享插件,通过插件的方式,把内部的数据完全接入,同时实现更好的大模型效果。

除此之外,文心千帆将会提供一部分预制的Prompt模板,同时支持Prompt模板的增删改查以及支持参数插值的调用模板,支持通过服务接口形式调用Prompt模板,用于获得更好的推理效果。

与效果并行的则是效率,或者也可以理解成性价比。

“文心一言- Turbo”推理效率的50倍增长意味着大模型推理成本的大幅下降,这将是文心一言大模型内测仅一个月后,大模型推理成本降为原来1/10之后的又一次提升。并且在数据标注方面,“文心一言- Turbo”未来能够批量生成标注数据并快速用于后续训练,相比于此前手动的数据标注形式将会大大降低数据标注成本。

在部署方式上,文心千帆也在逐步增加应对客户的灵活度。

文心千帆对外提供“3+3”的交付方式。在公有云服务侧提供推理(直接调用大模型的推理能力)、微调(通过高质量精标业务数据,高效训练出特定行业的大模型)、托管(将模型发布在百度智能云,以实现更加稳定高效的运行)三种服务来降低企业部署大模型的门槛。

而在颇受关注的私有化部署侧,文心千帆支持软件授权(提供在企业环境中运行的大模型服务)、软硬一体(提供整套大模型服务及对应的硬件基础设施)以及租赁服务(提供机器和平台的租赁满足客户低频需求)。其中最新加入的租赁服务意在满足预算有限,或对模型训练需求更低频的客户。

文心千帆大模型平台在两个月内急速的迭代脚步,以及在效果和效率两端清晰的路线规划,并不只是算力的优势作用,背后体现出更多的是百度AI四层架构的整体优势。

李彦宏 图源:搜狐

李彦宏曾公开表示,百度是全球唯一在芯片、框架、模型和应用这四层进行全栈布局的人工智能公司。昆仑芯作为百度在底层芯片上的布局,已经有两代产品实现数万片的部署,第三代预计在明年年初量产;飞桨已经是国内综合市场份额第一的深度学习框架;文心大模型家族中除了文心一言,还有包括NLP、CV、跨模态等通用大模型及11行业大模型,并与应用层的丰富积累互为羽翼卷起数据飞轮。这个完整布局也让当下文心千帆在面对300家生态伙伴以及400多个企业内部场景时有了灵活进化的前提条件。

文心千一言每一次技术演进都是从芯片层到框架层、到模型层以及应用层多个团队的共同努力。“我们内部会拉一个工作群,这里有昆仑芯片的人,有飞桨框架团队的人,有大模型NLP算法策略的人,也有我们大模型平台工具链的人,还有终端应用智能客服的人。每个月会设定共同的目标,比如这个月性能必须提升到什么样的水平。”李景秋表示。

也如百度集团副总裁侯震宇在5月初的一次闭门会上所说,“大模型时代下,企业的创新要脱颖而出,不但需要智能的算力、灵活的框架平台、丰富的大模型体系以及优质的应用方案,还需要这四者之间端到端的适配与优化,这是一个‘既要、又要、还要’的端到端创新工程。”

而几乎所有人都能感觉到,百度在大模型这一仗上,开始显出后劲了。返回搜狐,查看更多

责任编辑:

贪吃蛇, 手机游戏, 人工智能, 代码生成

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注