清华大学唐杰团队基于千亿参数大模型推出对话机器人ChatGLM,专门针对中文进行了优化,并且开启邀请制内测。同时,他们还开源了62亿参数的双语ChatGLM-6B模型,能够在普通电脑上进行部署,有一块2080Ti就行。ChatGLM能够写博客提纲、创作剧本、解数学题、写代码、扮演高冷御姐等,功能强大,对话效果佳,是值得尝试的工具。此次开源也是为了更好地推动大模型技术的发展。内部测试名为QAGLM(全称qa-glm-v0.7)。 除了ChatGLM,文章还介绍了与GPT4的区别、唐杰团队的研发机构和擅长中文的特点,最后分享了一个文言文致谢词。尽管出现了一个莫名其妙的繁体字,但整体读起来还不错,用排比句增强了气势。
暂无评论