ChatGLM lora微调时出现KeyError: ‘context‘的解决方案

  大家好,我是爱编程的喵喵。双985硕士毕业,现担任全栈工程师一职,热衷于将数据思维应用到工作与生活中。从事机器学习以及相关的前后端开发工作。曾在阿里云、科大讯飞、CCF等比赛获得多次Top名次。现为CSDN博客专家、人工智能领域优质创作者。喜欢通过博客创作的方式对所学的知识进行总结与归纳,不仅形成深入且独到的理解,而且能够帮助新手快速入门。

  本文主要介绍了ChatGLM lora微调时出现KeyError: 'context’的解决方案,希望能对学习ChatGLM lora微调的同学们有所帮助。

文章目录

  • 1. 问题描述
  • 2. 解决方案

1. 问题描述

  今天在对ChatGLM lora进行微调时,首先进行数据生成,却遇到了KeyError: 'context’的错误提示,具体命令和截图如下图所示:

python tokenize_dataset_rows.py --jsonl_path data/alpaca_data.jsonl --save_path data


本文来自互联网用户投稿,文章观点仅代表作者本人,不代表本站立场,不承担相关法律责任。如若转载,请注明出处。 如若内容造成侵权/违法违规/事实不符,请点击【内容举报】进行投诉反馈!

相关文章

立即
投稿

微信公众账号

微信扫一扫加关注

返回
顶部