瞿炜深度学习必修课进击算法工程师02-2-2-2微积分 02-3-2-3概率 03-1-3-1CUDAAnaconda深度学习环境搭建 03-1-3课程使用的技术栈 03-2-3-2conda实用命令 03-3-3-3JupyterNotebook快速上手 03-4-3-4深度学习库PyTorch安装 04-1-4-1神经网络原理 04-2-4-2多层感知机 04-3-4-3前向传播和反向传播 04-4-4-4多层感知机代码实现 04-5-4-5回归问题 04-6-4-6线性回归代码实现 04-7-4-7分类问题 04-8-4-8多分类问题代码实现 05-1-5-1训练的常见问题 05-2-5-2过拟合欠拟合应对策略 05-3-5-3过拟合和欠拟合示例 05-4-5-4正则化 05-5-5-5Dropout 05-6-5-6Dropout代码实现 05-7-5-7梯度消失和梯度爆炸 05-8-5-8模型文件的读写 06-1-6-1最优化与深度学习 06-10-6-10Adam算法 06-11-6-11梯度下降代码实现 06-12-6-12学习率调节器 06-2-6-2损失函数 06-3-6-3损失函数性质 06-4-6-4梯度下降 06-5-6-5随机梯度下降法 06-6-6-6小批量梯度下降法 06-7-6-7动量法 06-8-6-8AdaGrad算法 06-9-6-9RMSProp_Adadelta算法 07-1-7-1全连接层问题 07-2-7-2图像卷积 07-3-7-3卷积层 07-4-7-4卷积层常见操作 07-5-7-5池化层Pooling 07-6-7-6卷积神经网络代码实现(LeNet) 08-1-8-1AlexNet 08-2-8-2VGGNet 08-3-8-3批量规范化 08-4-8-4GoogLeNet 08-5-8-5ResNet 08-6-8-6DenseNet 09-1-9-1序列建模 09-2-9-2文本数据预处理 09-3-9-3循环神经网络 09-4-9-4随时间反向传播算法 09-5-9-5循环神经网络代码实现 09-6-9-6RNN的长期依赖问题 10-1-10-1深度循环神经网络 10-2-10-2双向循环神经网络 10-3-10-3门控循环单元 10-4-10-4长短期记忆网络 10-5-10-5复杂循环神经网络代码实现 10-6-10-6编码器-解码器网络 10-7-10-7序列到序列模型代码实现 10-8-10-8束搜索算法 10-9-10-9机器翻译简单代码实现 11-1-11-1什么是注意力机制 11-2-11-2注意力的计算 11-3-11-3键值对注意力和多头注意力 11-4-11-4自注意力机制 11-5-11-5注意力池化及代码实现 11-6-11-6Transformer模型 11-7-11-7Transformer代码实现 12-1-12-1BERT模型 12-2-12-2GPT系列模型 12-3-12-3T5模型 12-4-12-4ViT模型 12-5-12-5SwinTransformer模型 12-6-12-6GPT模型代码实现 13-1-13-1蒙特卡洛方法 13-2-13-2变分推断 13-3-13-3变分自编码器 13-4-13-4生成对抗网络 13-5-13-5Diffusion扩散模型 13-6-13-6图像生成 14-1-14-1自定义数据加载 14-2-14-2图像数据增强 14-3-14-3迁移学习 14-4-14-4经典视觉数据集 14-5-14-5项目实战:猫狗大战 15-1-15-1词嵌入和word2vec 15-2-15-2词义搜索和句意表示 15-3-15-3预训练模型 15-4-15-4HuggingFace库介绍 15-5-15-5经典NLP数据集 15-6-15-6项目实战:电影评论情感分析 16-1-16-1InstructGPT模型 16-2-16-2CLIP模型
声明:本站大部分资源来源于网络,除本站组织的资源外,版权归原作者所有,如有侵犯版权,请立刻和本站联系并提供证据,本站将在三个工作日内改正。 本站仅提供学习的平台,将不对任何资源负法律责任,只作为购买原版的参考,并无法代替原版,所有资源请在下载后24小时内删除;资源版权归作者所有,如果您觉得满意,请购买正版。您若发现本站侵犯了你的版权利益,请来信本站将立即予以删除!