课程介绍
从0到1训练私有大模型 ,企业急迫需求,抢占市场先机视频教程。本课深入企业需求,从ChatGPT背后原理、技术、不同大模型知识开始,带你从0到1训练出一个大模型,运用PEFT技巧微调大模型解决场景需求,最后用LangChain+训练的大模型搭建知识库问答。让你掌握大模型LLM构建的原理、技术、流程与实战,超越大多数竞争者,抢占先机,脱颖而出。
相关推荐
极客时间-AI 大模型应用开发实战营
ChatGPT入门实战课 成为AI时代更有竞争力的开发者
你将学会
从0到1训练你自己的大模型
ChatGPT等大模型的训练原理
多NLP任务逻辑解决实际问题
PEFT微调大模型解决场景需求
揭密核心BERT和GPT等大模型
LangChain+大模型问答搭建
资源目录
.
1-课程介绍/
[ 40M] 1-1 [导航]课程导学&让你快速了解课程
[ 11M] 1-2 [内容安排]课程安排和学习建议
[ 39M] 1-3 [行业发展]ChatGPT对行业、社会有什么影响,我们要如何应对
[ 15M] 1-4 [发展史]ChatGPT的简要历史
[6.3M] 1-5 [学习须知]本课程为什么使用gpt2而不是gpt3
2-训练模型与开发平台环境/
[8.9M] 2-1 [认知]为什么要引入paddle?平时使用torch,学习paddle貌似没用怎么办?
[9.0M] 2-2 [框架]paddle和torch与tensorflow对比
[5.3M] 2-3 [NLP工具和预训练模型]paddleNLP和huggingface
[ 24M] 2-4 [平台]介绍aistudio
[ 19M] 2-5 [工具]介绍基于gpt4的IDE cursor
3-chatGPT初始技术词向量原理剖析与实战/
[6.9M] 3-1 [认知]词向量,词向量与gpt的关系
[ 20M] 3-2 [语言模型]语言模型和评估指标PPL
[ 16M] 3-3 [词向量模型]word2vec-cbow和skipgram
[ 22M] 3-4 [softmax加速]是softmax 树型优化
[ 18M] 3-5 [softmax加速]softmax负采样优化
[ 57M] 3-6 [数据准备与预处理]word2vec实战(1)
[ 42M] 3-7 [数据准备与预处理]word2vec实战(2)
[ 26M] 3-8 [模型训练]word2vec实战-模型开发和训练(1)
[ 36M] 3-9 [模型训练]word2vec实战-模型开发和训练(2)
[ 18M] 3-10 [激活函数]常见七种激活函数对比
[ 36M] 3-11 [预训练语言模型]RNN-LSTM-ELMO
[5.0M] 3-12 本章梳理小结
4-chatGPT基石模型——基于Transformer架构的语言模型/
[2.2M] 4-1 本章介绍
[ 21M] 4-2 seq2seq结构和注意力
[ 11M] 4-3 seq2seq-attention的一个案例
[ 49M] 4-4 transformer的multi-head attention 多头注意力机制
[ 16M] 4-5 transformer的残差链接-解决梯度消失问题
[9.7M] 4-6 transformer的layernorm-归一化提升训练稳定性
[ 19M] 4-7 transformer的decoder 解码器
[ 10M] 4-8 sparse-transformer 稀疏模型
[ 33M] 4-9 transformer-xl 解决长序列的问题(1)
[ 36M] 4-10 transformer-xl解决长序列的问题(2)
[6.0M] 4-11 本章梳理总结
5-基于Transformer另一分支Bert系列分析与实战/
[1.8M] 5-1 本章介绍
[ 31M] 5-2 metric-评估指标(BLUE-rouge-L-METOER-NIST)
[9.5M] 5-3 常见 subword 算法(BPE-wordpiece)
[9.5M] 5-4 常见的NLP任务
[ 50M] 5-5 bert 预训练模型
[ 43M] 5-6 bert情感分析实战-paddle(1)
[ 49M] 5-7 bert情感分析实战-paddle(2)
[ 24M] 5-8 evaluate和predict方法-paddle
[ 39M] 5-9 bert(transformer encoder)主要源码分析-paddle(1)
[ 39M] 5-10 bert(transformer encoder)主要源码分析-paddle(2)
[ 68M] 5-11 bert(transformer encoder)的完整源码cache部分分析-paddle
[ 34M] 5-12 Ernie文心一言基础模型(1)
[ 15M] 5-13 Ernie文心一言基础模型(2)
[ 33M] 5-14 plato百度对话模型(1)
[ 31M] 5-15 plato 百度对话模型(2)
[ 15M] 5-16 本章总结
6-chatGPT的核心技术——强化学习/
[ 18M] 6-1 RL是什么&为什么要学习RL
[4.0M] 6-2 强化学习章介绍
[ 11M] 6-3 RL基础概念
[ 25M] 6-4 RL马尔可夫过程
[ 29M] 6-5 RL三种方法(1)
[ 10M] 6-6 RL三种方法(2)
[ 16M] 6-7 DQN和DQN的2种改进算法(1)
[ 25M] 6-8 DQN和DQN的2种改进算法(2)
[ 42M] 6-9 actor-critic(1)
[ 11M] 6-10 actor-critic(2)
[ 46M] 6-11 TRPO+PPO(1)
[ 31M] 6-12 TRPO+PPO(2)
[ 45M] 6-13 DQN代码实践torch-1
[ 47M] 6-14 DQN代码实践torch-2
[ 47M] 6-15 DoubleDQN+DuelingDQ代码torch
[ 47M] 6-16 REINFORCE代码torch
[ 63M] 6-17 PPO代码实践torch
[ 20M] 6-18 强化学习-本章总结
7-chatGPT技术演变——从GPT 1 开始的大模型发展与演化/
[认准一手完整 www.ukoou.com]
[ 30M] 7-1 GPT1 模型
[ 32M] 7-2 GPT2 模型
[ 35M] 7-3 GPT3 模型-1
[ 27M] 7-4 GPT3 模型-2
[ 27M] 7-5 gpt-codex 基于GPT技术开发的模型
[ 35M] 7-6 alphaCode基于GPT技术开发的模型-1
[ 20M] 7-7 alphaCode基于GPT技术开发的模型-2
[ 23M] 7-8 instruct-gpt 基于GPT技术开发的模型-1
[ 26M] 7-9 instruct-gpt 基于GPT技术开发的模型-2
[ 44M] 7-10 Antropic LLM大型语言模型
[ 16M] 7-11 GPT-本章总结
8-RLHF训练类ChatGPT模型代码实战/
[ 11M] 8-1 chatGPT训练实战
[ 61M] 8-2 SFT有监督的训练-数据处理
[ 39M] 8-3 SFT有监督训练-trainer
[ 62M] 8-4 SFT有监督训练-train
[ 34M] 8-5 RM训练-model+dataset(1)
[ 30M] 8-6 RM训练-model+dataset(2)
[ 30M] 8-7 RM训练-trainer
[ 38M] 8-8 RM训练-train-rm
[ 17M] 8-9 RLHF强化学习人类反馈的训练-dataset
[ 27M] 8-10 RLHF强化学习人类反馈的训练-model-base
[ 17M] 8-11 RLHF强化学习人类反馈的训练-model-opt
[ 46M] 8-12 RLHF强化学习人类反馈的训练-generation(1)
[ 48M] 8-13 RLHF强化学习人类反馈的训练-generation(2)
[ 36M] 8-14 RLHF强化学习人类反馈的训练-exp_maker(1)
[ 42M] 8-15 RLHF强化学习人类反馈的训练-exp_maker(2)
[ 59M] 8-16 RLHF强化学习人类反馈的训练-buffer-utils
[ 46M] 8-17 RLHF强化学习人类反馈的训练-buffer-loss
[ 57M] 8-18 RLHF强化学习人类反馈的训练-trainer
[ 66M] 8-19 RLHF强化学习人类反馈的训练-main
评论0