【手把手带你实战HuggingFace Transformers-高效微调篇】Prompt-Tuning原理与实战
【入门】大语言模型常用微调框架介绍|LoRA&Prefix-Tuning&Prompt-Tuning&P-Tuning v2&RLHF微调原理简介
【训练自己的AI助手】ChatGLM3-6B部署和微调!清华大佬手把手教学ChatGLM3微调及部署,微信集成ChatGLM3,打造一个属于自己的专属ai助手
chatglm3模型本地部署及微调
「教程」一起聊聊GLM CookBook:如何使用GLM API(Demo演示)
最新Qwen2大模型环境配置+LoRA模型微调+模型部署详细教程!真实案例对比GLM4效果展示!
ChatGLM一站式微调整合包(基于lora)
【自娱自乐读paper】p-tuning v2论文精读
ChatGLM与ChatGPT什么区别??
在阿里云上微调chatGLM-6B
30分钟学会运行ChatGLM3-6B模型的P-Turning V2高效微调及全量微调代码
2024吃透AI大模型微调全套视频教程,15天学完,让你少走99%弯路【通俗易懂,附课件代码资料】
【保姆级教程】使用ChatGLM3-6B+oneAPI+Fastgpt+LLaMA-Factory实现本地大模型微调+知识库+接口管理
「官方教程」GLM-4-9B 实战部署和微调
ChatGLM3模型微调,二次微调
【报告】从GLM-130B到ChatGLM:大模型预训练与微调
大模型微调数据构造(补充课程)
吹爆!全网最通俗易懂的ChatGLM预训练+微调教程,北大博士后手把手带你调用属于自己的对话大模型—ChatGLM!
大模型时代必学!ChatGLM2-6B模型部署与微调教程,大模型训练流程及原理+微调容易踩的坑全详解!
【大模型微调】ChatGLM3-6b大模型微调 | 基于开源的大模型的微调 | 使用自己的数据集来微调大模型 | 垂直领域大模型 | lora微调大模型