
基于LoRA和P-Tuning v2的ChatGLM-6B高效参数微调Python代码.zip
5星
- 浏览量: 0
- 大小:None
- 文件类型:None
简介:
本资源提供了一种利用LoRA和P-Tuning v2技术对ChatGLM-6B模型进行高效参数微调的方法,附带详细的Python实现代码。
基于LoRA和 P-Tuning v2 的ChatGLM-6B高效参数微调python源码.zip
ChatGLM-6B 是一个由清华大学开源的、支持中英双语对话的语言模型,它采用了 General Language Model (GLM) 架构,并拥有 62 亿个参数。通过大约1T标识符的中英文训练数据以及监督微调、反馈自助和人类偏好强化学习等技术的支持,ChatGLM-6B 已经能够生成符合人类偏好的回答。
本项目实现了对 ChatGLM-6B 模型基于 LoRA 和 P-Tuning v2 的参数高效微调。具体要求如下:
transformers==4.28.1
datasets==2.10.1
cpm_kernels
torch==1.13.0+cu116
peft==0.3.0.dev0
gradio==3.27.0
全部评论 (0)
还没有任何评论哟~


