大模型AI最前沿

最新中文大模型测评:腾讯混元稳居第一梯队
AI排名

最新中文大模型测评:腾讯混元稳居第一梯队

最新中文大模型测评:腾讯混元稳居第一梯队,语义理解能力国内第一。 近日,国内权威的大模型评测机构SuperCLUE发布了《中文大模型基准测评2024年度4月报告》,报告显示,腾讯混元大模型不仅稳居第一梯队,而且位于卓越领导者象限,这是继上次国际权威调研机构沙利文的评测之后,腾讯混元大模型又一次低调展现了在基础技术和场景应用上的优势。 据了解,SuperCLUE是国内权威的通用大模型综合性测评基准,本次测评是多层次、多维度的综合性测评,选取了国内外32个大模型4月份的版本,客观真实地反映了大模型在中文领域的综合能力和发展现状。 评估报告显示,腾讯混元大模型各项能力都十分出众,尤其是在语义理解能力方面表现突出,以75.4的高分排名国内第一。除此之外,在角色扮演、安全能力、计算、逻辑推理、工具使用、长文本能力等方面,腾讯混元大模型也均处于国内一流水平,稳坐领先地位。 腾讯混元大模型的成功不仅得益于其持续的技术创新和优秀的性能表现,更得益于腾讯在全链路自主可控技术上的深厚积累。从底层算力到机器学习平台再到上层应用,腾讯混元大模型通过持续迭代和实践,积累了完整的自主技术。比如,其自研的星脉高性能计算网络为AI大模型带来了10倍通信性能提升,训练速度是主流框架的2.6倍,推理成本相比业界主流框架下降70%。此外,腾讯混元大模型率先采用混合专家模型结构,使模型总体效果相比上代模型提升50%。 在应用方面,腾讯混元大模型已经支持了腾讯内部超过400个业务和场景接入,并实现了智能化升级。同时,腾讯混元也已经通过腾讯云面向企业和个人开发者全面开放,为更多用户提供优质的大模型服务。 综合而言,腾讯混元大模型以各项出众的能力,稳居国内第一梯队的地位和卓越领导者象限的表现,再次证明了其在国内大模型领域的领先地位。不难预测,作为腾讯在自主可控技术上的杰出成果,腾讯混元大模型将在未来继续引领行业发展,为用户带来更优质、更智能的服务体验。#腾讯混元再度领跑最新中文大模型测评#
能看长图文会听长语音,讯飞星火大模型有了新变化
星火

能看长图文会听长语音,讯飞星火大模型有了新变化

4月26日,讯飞星火大模型V3.5(以下简称“讯飞星火”)春季上新。科大讯飞发布业界首个长文本、长图文、长语音大模型,不仅能够把各种信息来源的海量文本、图文资料、会议录音等进行快速学习,还能够在各种行业场景给出专业回答。 面向企业应用场景,科大讯飞推出星火智能体平台,帮助企业解决大模型落地的“最后一公里”难题。 科大讯飞分析发现,在知识获取和学习的过程中,广大用户能拿到的资料往往不仅是现成的长文本,还有随手可见的报刊书籍内容、各种研讨会的PPT内容,老师黑板上的板书、同学的笔记,以及各种会议录音、访谈,各种网上的发布会、培训教育视频等。此次推出的首个支持长文本、长图文、长语音的大模型,来解决用户真实场景中多源信息的获取需求。 同时,科大讯飞进一步升级星火语音大模型,首发多情感超拟人合成,具备情绪表达能力,并推出一句话声音复刻功能,让科技更有温度。 除了超拟人对话,科大讯飞还推出“一句话声音复刻”功能,一句话就可以定制你的AI助手声音。比如模仿小朋友的声音,每天给爷爷奶奶读书读报;在我们出差的时候,模仿我们的声音给孩子讲故事。这个功能可以让世界变得更有温度。 用技术进步解决真实刚需,讯飞星火也在获得更多用户认可。据七麦数据显示,讯飞星火APP在安卓端的下载量已经超过9600万次,在国内工具类通用大模型APP中排名第一。 讯飞星火APP数据透露,用户使用的最高峰不是周末,而是工作日的上午9:30和下午3:30。这表明,大部分用户用讯飞星火来解决和工作相关的刚需问题。 科大讯飞还透露,将在6月27日发布讯飞星火大模型V4.0,进一步释放想象力。 南方+记者 郜小平 【作者】 郜小平 【来源】 南方报业传媒集团南方+客户端
「Github一周热点20」本地大模型运行工具、开源CRM等5个火爆项目
大模型教程

「Github一周热点20」本地大模型运行工具、开源CRM等5个火爆项目

GitHub 一周热点汇总第20期(2024/04/21-04/27) ,本周期内其实最热的还是Llama3,但是上周刚刚入选,就换成Ollama了。来看看这一周内火爆的5个项目吧。 #1 ollama 项目名称:ollama – 本地运行LLMGitHub 链接:https://github.com/ollama/ollama上周 Star 数:4300+ Ollama可以说是目前最好的本地运行大模型工具,所以每当有一个现象级的大模型发布后,它也都会跟随着产生一波热度。 Ollama 是一个强大的框架,设计用于在 Docker 容器中部署 LLM。Ollama 的主要功能是在 Docker 容器内部署和管理 LLM 的促进者,它使该过程变得非常简单。它帮助用户快速在本地运行大模型,通过简单的安装指令,可以让用户执行一条命令就在本地运行开源大型语言模型,例如 Llama 3,Mistral, Gemma。 之前我在开源推荐专栏中介绍过Ollama,Ollama是几个本地运行大模型工具中比较不错的一个,现在关于Ollama的介绍越来越多,而且它本身也非常简单,基本不需要过多说明。它支持比较全面,下面是主要支持的模型。 通过Ollama启动一个Llama3非常简单,下载安装包完成安装后,执行以下,就可以在本地运行Llama3了: #拉取llama3 ollama pull llama3 #启动 ollama run llama3 Ollama一个非常方便的地方是提供了本地的HTTP服务,这让和大模型的交互方便了许多。参考如下: #Generate a response curl <http://localhost:11434/api/generate> -d { “model”: “llama3”, “prompt”:“Why...
从质疑到理解,我们在用这些 AI 工具辅助工作与生活
大模型教程

从质疑到理解,我们在用这些 AI 工具辅助工作与生活

引言 自 ChatGPT 和 Stable Diffusion 石破天惊的亮相以来,生成式 AI 的步伐就一刻没有停止过。这种发展速度既让人赞叹,也难免引起一些焦虑和困惑:AI 如今究竟发展到了什么程度?我是不是错过了很多?现在应该从何入手? 为此,我们从少数派的用户和作者中邀请了六位对 AI 有着丰富经验和深入思考的朋友:Fairyex、MrCoffeeTalker、清顺、万千十一、炜智能、玉树芝兰(按用户名的字母和拼音序排列),开展了一次圆桌讨论。他们有的是 ChatGPT 深入教程的作者,有的是教学领域与 AI 密切相关的老师,有的是大量使用 AI 辅助实际工作的科技从业者,还有的是极具动手能力和分享精神的 AI 爱好者。 提问时,我们既包括了工具推荐、选择心得这类实用导向的问题,也涉及了负责任使用、开放与封闭之争等讨论广泛、尚无定论的方法论层面问题,还邀请大家聊了聊自己对 AI 的认识转变和期待展望。我们希望这些问答不仅能帮助你理解 AI 行业的发展现状、选择合适的 AI 工具,以及避免一些陷阱和误区,也能引发思考、抛砖引玉;欢迎大家在评论中积极表达自己观点。 以下回答内容由作者提供,代表作者个人观点,我们仅出于使阅读流畅、控制篇幅目的作部分词句调整和精简。本次问答开展于 2024 年 3 月初,其中信息的有效性可能随时间推移发生变化,请读者注意。 工具推荐 请分享一下你目前主要在用的 AI 工具。 Fairyex 去年年初各种人工智能产品百花齐放的时候,基本上所有产品我都在混搭使用。不过现在随着大模型落地应用越来越成熟,我在用的只有下面这几个,基本上大家没用过也听过: VSCode 上的 Copilot:一个 AI 编程辅助助手,可以帮助你生成代码,解释代码,编写注释,修复 BUG 等等。是推出比较早也最多人使用的...

Midjourney绘画王者

ChatGPTGPT王者

模型大战群模乱舞,千模大战

腾讯混元