社区
刘高联的课程社区_NO_1
亲自动手写一个深度学习框架
帖子详情
添砖加瓦:实现模型微调功能(fine-tune)
轩辕十四
2023-01-12 23:40:43
课时名称
课时知识点
添砖加瓦:实现模型微调功能(fine-tune)
微调、fine-tune、预训练模型、迁移学习、梯度下降、激活函数、多层感知器、池化层、卷积层、卷积神经网络 、卷积 、神经网络、深度学习、矩阵求导、前向传播、反向传播
...全文
110
回复
打赏
收藏
添砖加瓦:实现模型微调功能(fine-tune)
课时名称课时知识点添砖加瓦:实现模型微调功能(fine-tune)微调、fine-tune、预训练模型、迁移学习、梯度下降、激活函数、多层感知器、池化层、卷积层、卷积神经网络 、卷积 、神经网络、深度学习、矩阵求导、前向传播、反向传播
复制链接
扫一扫
分享
转发到动态
举报
AI
作业
写回复
配置赞助广告
用AI写文章
回复
切换为时间正序
请发表友善的回复…
发表回复
打赏红包
[大
模型
]Qwen-7B-chat 全量
微调
首先我们要准训练
模型
的代码,这里我们使用的modelscope上的
模型
,大家自行下载即可。OK,
模型
下载完毕之后,我们就要准备代码文件。其实全量
微调
和Lora
微调
的代码基本一样,都采用了Trainer类来进行训练。只不过在...
[大
模型
]Atom-7B-chat 全量
微调
首先我们要准备训练
模型
的代码,这里我们使用的modelscope上的
模型
,大家自行下载即可。OK,
模型
下载完毕之后,我们就要准备代码文件。其实全量
微调
和Lora
微调
的代码基本一样,都采用了Trainer类来进行训练。只不过...
读懂RAG这一篇就够了,万字详述RAG的5步流程和12个优化策略
为了跨越这些障碍,提升
模型
的效能,研究者们探索出两条主要路径:一是通过
微调
(
Fine
Tune
)技术,让
模型
在既有基础上进一步精进;二是赋予
模型
与外界交互的能力,使其能够以多元的方式汲取新知。
一文详解RAG的5步流程和12个优化策略,看这一篇就够了!
为了跨越这些障碍,提升
模型
的效能,研究者们探索出两条主要路径:一是通过
微调
(
Fine
Tune
)技术,让
模型
在既有基础上进一步精进;二是赋予
模型
与外界交互的能力,使其能够以多元的方式汲取新知。
微调
技术,无疑...
NLP-预训练
模型
-202401-NLU:BCE Embedding:为RAG而生【包含EmbeddingModel、RerankerModel】【网易有道】
开源目的 给RAG社区一个可以直接拿来用,尽可能不需要用户
fine
tune
的中英双语和跨语种二阶段检索
模型
库,包含EmbeddingModel和RerankerModel。 只需一个
模型
:EmbeddingModel覆盖 中英双语和中英跨语种 检索任务,...
刘高联的课程社区_NO_1
1
社区成员
75
社区内容
发帖
与我相关
我的任务
刘高联的课程社区_NO_1
多年图像处理、机器视觉项目经验,硕士研究生
复制链接
扫一扫
分享
社区描述
多年图像处理、机器视觉项目经验,硕士研究生
社区管理员
加入社区
获取链接或二维码
近7日
近30日
至今
加载中
查看更多榜单
社区公告
暂无公告
试试用AI创作助手写篇文章吧
+ 用AI写文章