# chatglm模型
ChatGLM模型微调中LoRa方案的应用
在ChatGLM的模型微调训练中,我们摒弃了官方推荐的方案,而是选择了一种备受好评的LoRa方案。这个方案在显存的利用上表现得尤
ChatGLM-6B对话语言模型
ChatGLM-6B对话语言模型采用GLM架构,支持中英文对话,拥有62亿参数。模型量化后可在一般显卡本地部署,性能媲美Chat
ChatGLM-6B库
ChatGLM-6B提供了一个资源库,供开发人员探索和利用模型的强大功能。
ChatGLM 最新版开源
清华大学最新推出的ChatGLM开源大模型,包含第一、二两代版本,快来体验!
清华团队发布ChatGLM对话机器人和双语模型开源消息
清华大学唐杰团队基于千亿参数大模型推出对话机器人ChatGLM,专门针对中文进行了优化,并且开启邀请制内测。同时,他们还开源了6
Kaggle提供GPU T42资源单机多卡训练Chatglm模型指南
本文将详细介绍如何利用Kaggle平台上的GPU T4*2资源,进行单机双卡训练以实现Chatglm模型微调。同时提供本地CPU
基于GPT模型的Python源码开发智能AI聊天机器人ChatGLM
ChatGLM是基于GPT模型开发的智能AI聊天机器人,通过多项优化算法的结合,实现了更为准确、更流畅、更具智能的自然语言交互。
ChatGPT 6B模型压缩文件chatglm-6b.tgr.7z.012
ChatGPT 6B模型压缩文件chatglm-6b.tgr.7z.012是一种文件格式,用于存储和传输ChatGPT 6B模型
ChatGLM压缩文件及langchain数据集
ChatGLM压缩文件以.tar.gz格式存储,其中包含了ChatGLM模型的相关数据和参数。langchain数据集则可能是一
ChatGPT-6B 模型文件分卷压缩chatglm-6b.tgr.7z.002
ChatGPT-6B 模型文件分卷压缩chatglm-6b.tgr.7z.002是一种文件分卷压缩格式,用于有效管理大型模型的数