CUDA版本不足可能导致Pytorch2.0无法运行
ChatGLM-6B

CUDA版本不足可能导致Pytorch2.0无法运行

这篇文章主要讲述了在运行PyTorch 2.0时,由于其对CUDA版本的要求较高(仅支持CUDA 11.7和11.8),因此需要确保本地CUDA版本满足条件。文章提供了详细的步骤指南,包括查看本地显卡情况,确定CUDA版本,安装PyTorch等。
道以科技在ChatGLM金融大模型挑战赛中斩获季军,实力凸显
ChatGLM-6B

道以科技在ChatGLM金融大模型挑战赛中斩获季军,实力凸显

本文介绍了道以科技在ChatGLM金融大模型挑战赛中荣获季军的消息。该挑战赛旨在激发金融领域智能信息提取与处理的创意和潜力,利用优秀的大语言模型提升AI模型在金融领域的实践应用能力。道以科技的技术方案在产品化可行性和整体方案实践方面表现出色,获得了高度认可与好评。随着人工智能技术的发展, AI金融将在更多领域得到应用,道以科技将继续专注于这些技术的应用实践,为行业发展做出贡献。
探索ChatGLM-6B模型的使用与运行
ChatGLM-6B

探索ChatGLM-6B模型的使用与运行

这篇文章介绍了如何查看GPU监控并使用ChatGLM-6B模型。文中指出,模型占用了13G显存,并且提供了一些免费可运行的ChatGLM-6B演示版本。ChatGLM-6B是一个易于上手的开源大模型,适合想要尝试部署大模型的人。