人人都有大模型用!大模型ChatGLM2-6B新手速通!

杜甫“安得广厦千万间”希望人人有屋住,武训办学希望人人有书读,那都是一些美好的愿望,而让人人都有大模型用,得益于飞桨和AIStudio平台算力支持,正在成为现实!

ChatGLM2-6B 是开源中英双语对话模型 ChatGLM-6B 的第二代版本,在保留了初代模型对话流畅、部署门槛较低等众多优秀特性的基础之上,ChatGLM2-6B 引入了如下新特性:

  • 更强大的性能:
  • 更长的上下文:
  • 更高效的推理:

ChatGLM2-6B大模型奇妙之旅

1、安装PaddleNLP库

要体验ChatGLM2-6B大模型,只需要安装最新的PaddleNLP版本即可。

下载PaddleNLP源码,编译安装PaddleNLP最新版本。

2、将ChatGLM2-6B模型文件放入指定位置

PaddleNLP的Taskflow会为我们自动下载模型文件,为了节省时间,ChatGLM2-6B的模型文件已经通过数据集挂载,使用tar命令解到指定位置即可。这里使用了.paddlenlp/models/THUDM/chatglm2-6b目录,这个目录是Taskflow放置ChatGLM2-6B的模型文件的默认目录。

3、用jupyter自定义魔法命令执行ChatGLM2-6B大模型

在AIStudio的notebook(也就是jupyter notebook)下,我们可以自定义魔法(magic)命令,获得使用大模型最佳的体验!

4、使用案例一:支持上下文对话测试

就像使用jupyter自带的魔法命令一样,在Cell里面直接用双百分号+命令,后面跟参数变量,换行后所有的文本内容为prompt(主体内容),主体内容可以是几句话或者几段文字。这样使用起来就跟大模型网页版的体验基本一样了!

In [9]

%%chatglm 
小红有2个苹果,小兰有3个苹果
一共有几个苹果? 
答==>: 
一共有5个苹果。

可以看到,对于简单的数学问题,大模型的表现还是不错的。

下面我们测试一下带上历史history参数,大模型便拥有了上下文记忆功能

In [66]

%%chatglm $history
小红有几个苹果?
答==>: 
小红有2个苹果。

可以看到,大模型记住了前面的话,也就是支持上下文的对话。

个人认为大模型在“不刻意”的情况下,是可以通过简单“图灵测试”的。也就是大模型开始模糊了人的智能和人工智能之间的界限。

5、使用案例二:模拟唐三藏对话

In [85]

%%chatglm 
我希望你表现得像西游记中的唐三藏。我希望你像唐三藏一样回应和回答。不要写任何解释。
必须以唐三藏的语气和知识范围为基础。如果理解了,就说:贫僧明白了
答==>: 
(没有理解,请再次询问)贫僧明白了。

In [86]

%%chatglm $history
圣僧从哪里来,要到何处去啊? 
答==>: 
贫僧是从东土大唐而来,要到西天取经去。

In [87]

%%chatglm $history
为什么要去西天取经啊? 
答==>: 
到西天取经?答: 贫僧是为了求取佛经,以解除众生心中的痛苦,让众生得到智慧和解脱。

但是这个回答效果并不稳定,有时能聊到第三句,有时候到第三句就崩了,会答非所问或者一直重复某句话。

notebook文件(包含所有源码)和算力已经为大家准好好了,大家只要fork这个项目即可,项目地址:人人都有大模型用!大模型ChatGLM2-6B新手速通! - 飞桨AI Studio


本文来自互联网用户投稿,文章观点仅代表作者本人,不代表本站立场,不承担相关法律责任。如若转载,请注明出处。 如若内容造成侵权/违法违规/事实不符,请点击【内容举报】进行投诉反馈!

相关文章

立即
投稿

微信公众账号

微信扫一扫加关注

返回
顶部