人人都有大模型用!大模型ChatGLM2-6B新手速通!
杜甫“安得广厦千万间”希望人人有屋住,武训办学希望人人有书读,那都是一些美好的愿望,而让人人都有大模型用,得益于飞桨和AIStudio平台算力支持,正在成为现实!
ChatGLM2-6B 是开源中英双语对话模型 ChatGLM-6B 的第二代版本,在保留了初代模型对话流畅、部署门槛较低等众多优秀特性的基础之上,ChatGLM2-6B 引入了如下新特性:
- 更强大的性能:
- 更长的上下文:
- 更高效的推理:
ChatGLM2-6B大模型奇妙之旅
1、安装PaddleNLP库
要体验ChatGLM2-6B大模型,只需要安装最新的PaddleNLP版本即可。
下载PaddleNLP源码,编译安装PaddleNLP最新版本。
2、将ChatGLM2-6B模型文件放入指定位置
PaddleNLP的Taskflow会为我们自动下载模型文件,为了节省时间,ChatGLM2-6B的模型文件已经通过数据集挂载,使用tar命令解到指定位置即可。这里使用了.paddlenlp/models/THUDM/chatglm2-6b目录,这个目录是Taskflow放置ChatGLM2-6B的模型文件的默认目录。
3、用jupyter自定义魔法命令执行ChatGLM2-6B大模型
在AIStudio的notebook(也就是jupyter notebook)下,我们可以自定义魔法(magic)命令,获得使用大模型最佳的体验!
4、使用案例一:支持上下文对话测试
就像使用jupyter自带的魔法命令一样,在Cell里面直接用双百分号+命令,后面跟参数变量,换行后所有的文本内容为prompt(主体内容),主体内容可以是几句话或者几段文字。这样使用起来就跟大模型网页版的体验基本一样了!
In [9]
%%chatglm
小红有2个苹果,小兰有3个苹果
一共有几个苹果?
答==>: 一共有5个苹果。
可以看到,对于简单的数学问题,大模型的表现还是不错的。
下面我们测试一下带上历史history参数,大模型便拥有了上下文记忆功能
In [66]
%%chatglm $history
小红有几个苹果?
答==>: 小红有2个苹果。
可以看到,大模型记住了前面的话,也就是支持上下文的对话。
个人认为大模型在“不刻意”的情况下,是可以通过简单“图灵测试”的。也就是大模型开始模糊了人的智能和人工智能之间的界限。
5、使用案例二:模拟唐三藏对话
In [85]
%%chatglm
我希望你表现得像西游记中的唐三藏。我希望你像唐三藏一样回应和回答。不要写任何解释。
必须以唐三藏的语气和知识范围为基础。如果理解了,就说:贫僧明白了
答==>: (没有理解,请再次询问)贫僧明白了。
In [86]
%%chatglm $history
圣僧从哪里来,要到何处去啊?
答==>: 贫僧是从东土大唐而来,要到西天取经去。
In [87]
%%chatglm $history
为什么要去西天取经啊?
答==>: 到西天取经?答: 贫僧是为了求取佛经,以解除众生心中的痛苦,让众生得到智慧和解脱。
但是这个回答效果并不稳定,有时能聊到第三句,有时候到第三句就崩了,会答非所问或者一直重复某句话。
notebook文件(包含所有源码)和算力已经为大家准好好了,大家只要fork这个项目即可,项目地址:人人都有大模型用!大模型ChatGLM2-6B新手速通! - 飞桨AI Studio
本文来自互联网用户投稿,文章观点仅代表作者本人,不代表本站立场,不承担相关法律责任。如若转载,请注明出处。 如若内容造成侵权/违法违规/事实不符,请点击【内容举报】进行投诉反馈!
