文章主题:
百度交出一款“贪吃蛇”和一个文心一言“加强版”
时间是残酷游戏,比如当惊艳的Apple Vision Pro终于出场,早已无人惦记遥远的诺基亚。
🎉🌟致敬游戏史上的里程碑!📱ninety七年的《贪吃蛇》之于Apple Vision Pro,就像Ryan McLeod等开发者今日的创新,开启了手机游戏新时代。那一次诺基亚的独创之举,不仅在用户心中种下欢乐的种子,更深远地塑造了移动娱乐的未来。🏆回忆起那个简单的游戏,不禁感叹其对行业的影响持久而强大!🌍
🎉贪吃蛇游戏玩法📚:简单易懂,一触即发!吞食果实得分,但身体随之变长需巧妙操控。边界与自我间的平衡,考验智慧与反应速度。虽然诺基亚已淡出视线,但这款经典小游戏的影响力依然深远。它不仅历久弥新,还在开发者圈内掀起阵阵编码挑战热潮——如何用最少代码实现贪吃蛇,一直是技术爱好者津津乐道的话题。🌍无论你身在何处,回忆起那条灵活蜿蜒的蛇,是不是都心生怀念呢?snake game, forever iconic!SEO优化提示:贪吃蛇、游戏逻辑、代码挑战、诺基亚遗产、怀旧游戏
🌟🎨游戏进化论:古典美学遇上AI魔力🚀曾经的经典之作,如今在科技的浪潮中焕发新生——它不仅是艺术与技术交融的象征,更是衡量AI智慧精度的不二神器。.baidu.ai智能云的重量级人物施恩,借助创新代码助手Comate的力量,引领我们踏上了一场从零到一的编程之旅。从简单的画布开始,每一笔勾勒都蕴含着AI的深邃思考。它悄然间接手了大部分编码任务,让《贪吃蛇》的诞生不再仅仅依赖人类的手动操作。当那条灵活的贪吃蛇在屏幕上缓缓扭动时,是AI智慧的精准演绎,也是科技力量的生动展现。🏆这样的转变,无疑为我们的创作提供了无限可能,也让AI技术的实用性与美感并存。让我们一起期待,未来更多经典游戏如何在AI的赋能下,以更独特的方式呈现于世人眼前。🌍
整个过程不到5分钟。
开发者的Comate
🎉🔥在人工智能领域的激战中,大模型的较量从未停歇,尽管黑箱效应依旧笼罩,外界焦点悄然转移。🌟🔍如今,我们正从宏大的设想转向实际的应用探索,聚焦于生成式AI如何为各行各业注入创新动力。💡💼无论是催生新的生产方式,还是优化现有的业务流程,这一技术正在以实际行动引领变革。🌍🌈让我们一起期待它带来的惊喜与可能!🏆
🎉【技术盛宴】🎉6月6日,成都文心大模型交流会揭秘!百度Comate代码助手震撼发布!🚀🔥这款创新代码神器,犹如GitHub Copilot的中文版🌟,专为开发者打造,用海量中文注释和文档沃土,孕育出智能编码新高度。💡在编程狂飙中,Comate智慧导航,预测你的下个输入,让编写不再孤单,效率直线上升!🚀无需担心语言障碍,Comate深度理解你的思维,让你的代码更流畅,更具中文特色。📝欲体验科技带来的便捷,赶快加入Comate邀测行列,一起探索智能开发的新可能!👉#百度Comate #智能编码助手 #技术交流会
文心大模型是宏大的,Comate是具体的。
snake_game_dev是一项令人着迷的手动编码挑战,从网页版的创作开始,开发者需巧手绘制底图,定义键盘导航与游戏终结的精明逻辑。同时,环境因素如爬行速度的微调亦不可或缺。对于Comate这款神器,只需轻点”canvas”键,附上”布局中心化”的简洁指令,就能一键生成游戏画布模板。接着,通过输入诸如”param color”、”left direction”和”food location”等关键词,Comate犹如一位聪明的代码伴侣,能迅速理解并扩展指令。它会在多条代码选项中自如切换,帮你找到最优解,最后直接产出运行流畅的《贪吃蛇》游戏,省时又高效。🚀snake_game_dev, 你的编码乐趣,一触即发!
据百度介绍,目前Comate能力已经率先集成在百度所有业务线中并实现了很好的使用效果:核心研发部门中50%的代码可通过Comate生成。从去年开始Comate已经在百度内部进行了大量测试。测试结果显示,在“Comate”辅助编写的代码中,近50%的建议代码被开发者采纳,目前在百度内部已经广泛应用到各类产品开发中。
Comate深度学习的对象除了百度内部的代码库也包括高质量Github代码库。现在这个代码助手可以实现代码自动生成、代码自动补全、代码智能搜索、高质量代码推荐、测试代码自动生成等多种智能功能。推理速度上单请求可实现300ms左右,这意味着开发者不需要停下来等待代码生成,Comate完全可以匹配上开发者的编码速度。
当前Comate代码助手支持主流开发语言/框架30余种,对于C/C++、Java、Python等主流语言Comate专门做了数据优化,可达到更好的代码推荐效果。此外,Comate还支持前后端、软硬件不同场景、以及程序员常用的多种IDE。
从这个角度来看,《贪吃蛇》是一次直观却并不充分的演示。施恩也表示,《贪吃蛇》的代码开发其实已经可以完全依靠大模型来不加干涉的自动生成。只不过有趣的是,Comate从原本百度内部智能工作平台推出的一个“代码推荐工具”到现在的“代码生成助手”,本身也得益于大模型的能力加持。
百度智能云AI平台副总经理施恩 图源:百度
Comate的孵化开始于2018年左右,百度内部在寻找提升开发效能的办法时已经提到了代码生成。但技术不够成熟,所以先选择通过检索算法并做算法推荐的方式来提效。“那时候技术探索已经在尝试了。但在文心大模型出现之后,我们才把真正的代码生成在更广泛的场景应用起来”,百度智能云AI平台副总经理李景秋对品玩表示。
Comate从搜索逻辑过渡到生成逻辑,大模型的能力开始在开发环节呈现出生产力变革的姿态。而如果说Comate是文心大模型对开发者的一次回答,那“文心一言- Turbo”则是文心一言上线两个月后,百度给产业交出的一个新方案。藏于其后的,是文心千帆大模型平台在两个月后逐渐清晰的迭代路线。
文心千帆的迭代方向:效果+效率
百度将文心千帆定义为全球首个一站式的企业级大模型平台。具体来看,文心千帆不仅提供包括文心一言底层模型(Ernie bot)在内的大模型服务,还提供了各种AI开发工具链和整套开发环境。此外,大模型平台还支持各类第三方的开源和闭源的大模型。自3月27日首次启动内测开始,在文心千帆的支撑下,文心一言在两个月内完成了四次技术迭代。
在4月25日的一场技术交流会上,百度集团副总裁侯震宇透露自内测以来,通过算法和模型的持续优化,文心一言推理效率提升10倍,推理成本降为原来十分之一。一个半月后,文心一言的高性能模式“文心一言- Turbo”作为文心千帆第一阶段迭代的结语成果出现。在一些高频、核心场景,在满足同样客户需求的情况下,推理服务的整体性能总共提升了50倍。
多次迭代后,文心千帆的两个进化方向也已经显现出来:效果和效率。
在效果上,除了推理性能的大幅提升外,“文心一言- Turbo”支持SFT训练,同时针对不同场景和效果提供多种训练方式,Bloom7B(70亿参数)第三方大模型可支持 P-tuning、SFT、Lora等不同训练方式。并且由于企业对于大模型再训练的需求以及私有化部署的考虑,文心千帆将开放插件协议,能够让第三方企业基于插件协议共享插件,通过插件的方式,把内部的数据完全接入,同时实现更好的大模型效果。
除此之外,文心千帆将会提供一部分预制的Prompt模板,同时支持Prompt模板的增删改查以及支持参数插值的调用模板,支持通过服务接口形式调用Prompt模板,用于获得更好的推理效果。
与效果并行的则是效率,或者也可以理解成性价比。
“文心一言- Turbo”推理效率的50倍增长意味着大模型推理成本的大幅下降,这将是文心一言大模型内测仅一个月后,大模型推理成本降为原来1/10之后的又一次提升。并且在数据标注方面,“文心一言- Turbo”未来能够批量生成标注数据并快速用于后续训练,相比于此前手动的数据标注形式将会大大降低数据标注成本。
在部署方式上,文心千帆也在逐步增加应对客户的灵活度。
文心千帆对外提供“3+3”的交付方式。在公有云服务侧提供推理(直接调用大模型的推理能力)、微调(通过高质量精标业务数据,高效训练出特定行业的大模型)、托管(将模型发布在百度智能云,以实现更加稳定高效的运行)三种服务来降低企业部署大模型的门槛。
而在颇受关注的私有化部署侧,文心千帆支持软件授权(提供在企业环境中运行的大模型服务)、软硬一体(提供整套大模型服务及对应的硬件基础设施)以及租赁服务(提供机器和平台的租赁满足客户低频需求)。其中最新加入的租赁服务意在满足预算有限,或对模型训练需求更低频的客户。
文心千帆大模型平台在两个月内急速的迭代脚步,以及在效果和效率两端清晰的路线规划,并不只是算力的优势作用,背后体现出更多的是百度AI四层架构的整体优势。
李彦宏 图源:搜狐
李彦宏曾公开表示,百度是全球唯一在芯片、框架、模型和应用这四层进行全栈布局的人工智能公司。昆仑芯作为百度在底层芯片上的布局,已经有两代产品实现数万片的部署,第三代预计在明年年初量产;飞桨已经是国内综合市场份额第一的深度学习框架;文心大模型家族中除了文心一言,还有包括NLP、CV、跨模态等通用大模型及11行业大模型,并与应用层的丰富积累互为羽翼卷起数据飞轮。这个完整布局也让当下文心千帆在面对300家生态伙伴以及400多个企业内部场景时有了灵活进化的前提条件。
文心千一言每一次技术演进都是从芯片层到框架层、到模型层以及应用层多个团队的共同努力。“我们内部会拉一个工作群,这里有昆仑芯片的人,有飞桨框架团队的人,有大模型NLP算法策略的人,也有我们大模型平台工具链的人,还有终端应用智能客服的人。每个月会设定共同的目标,比如这个月性能必须提升到什么样的水平。”李景秋表示。
也如百度集团副总裁侯震宇在5月初的一次闭门会上所说,“大模型时代下,企业的创新要脱颖而出,不但需要智能的算力、灵活的框架平台、丰富的大模型体系以及优质的应用方案,还需要这四者之间端到端的适配与优化,这是一个‘既要、又要、还要’的端到端创新工程。”
而几乎所有人都能感觉到,百度在大模型这一仗上,开始显出后劲了。返回搜狐,查看更多
责任编辑:
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!