【百战程序员】AI算法工程师就业班 - 带源码课件 - 盘搜天堂 - 搜索网盘资源的天堂!
- file:课件.zip
- file:9:推导激活函数的导函数.mp4
- file:7:导数求解的四则运算法则.mp4
- file:5:导数的几何意义和物理意义.mp4
- file:54:拉格朗日函数.mp4
- file:53:凸优化的性质_一般表达形式.mp4
- file:50:坐标下降法_数值优化面临的问题.mp4
- file:数学.pdf
- file:4:导数的定义_左导数和右导数.mp4
- file:49:牛顿法公式推导以及优缺点.mp4
- file:48:梯度下降法的推导.mp4
- file:46:迭代求解的原因.mp4
- file:45:最优化的基本概念.mp4
- file:42:常用随机变量服从的分布.mp4
- file:41:数学期望和方差.mp4
- file:44:最大似然估计思想.mp4
- file:43:随机向量_独立性_协方差_随机向量的正太分布.mp4
- file:3:最优化知识_数学内容学习重点.mp4
- file:39:条件概率_贝叶斯公式.mp4
- file:38:概率论_随机事件与随机事件概率.mp4
- file:37:SVD用于协同过滤_求逆矩阵.mp4
- file:35:奇异值分解性质_数据压缩.mp4
- file:9:无监督机器学习任务与本质.mp4
- file:6:机器学习不同的学习方式.mp4
- file:7:深度学习比传统机器学习有优势.mp4
- file:5:人工智能常见流程.mp4
- file:2:人工智能适合人群与必备技能.mp4
- file:67:代码实战_DPPO_GlobalPPO和Workers交替执行.mp4
- file:65:DPPO分布式PPO.mp4
- file:64:代码实战_剖析PPO代码中如何体现Off-Policy的学习方式_效果展示.mp4
- file:63:代码实战_定义PPO1和PPO2不同版本Actor的Loss计算逻辑.mp4
- file:62:代码实战_PPO与环境整体交互_Actor与Critic网络构建.mp4
- file:61:PPO_PPO1、TRPO、PPO2三种不同的方式解决两个分布不同的问题.mp4
- file:60:PPO_重要性采样的问题_期望矫正但是方差还是不同带来的问题.mp4
- file:59:PPO_通过重要性采样使得PPO可以做Off-Policy学习.mp4
- file:58:PPO_强调AC如何输出连续型动作_区分On-Policy与Off-Policy.mp4
- file:57:TD3_使用DoubleNetwork优化DDPG.mp4
- file:56:代码实战_DDPG_与环境之间的互动_AC训练调整参数_效果展示.mp4
- file:55:代码实战_DDPG_Critic网络构建_Actor网络链式求导.mp4
- file:54:代码实战_DDPG_构建Actor和Critic四个网络_定义Critic求loss和求梯度的逻辑.mp4
- file:53:DDPG解决DQN不能输出连续型动作的问题_DDPG如何训练Actor和Critic.mp4
- file:52:代码实战_A3C_讲解线程中worker和GlobalNet交互_代码运行效果展示.mp4
- file:50:代码实战_A3C_结合流程图分三点总结前面讲的代码.mp4
- file:49:代码实战_A3C_定义AC网络结构_定义worker拉取参数和更新全局网络参数的逻辑.mp4
- file:48:代码实战_A3C_增加actor探索性用到熵_定义worker正太分布抽样和求梯度的逻辑.mp4
- file:47:代码实战_A3C_定义Worker计算loss的逻辑_针对连续型的action提高actor探索性.mp4
- file:46:代码实战_A3C_讲解Coordinator调度多线程运算.mp4
- file:45:Pendulum环境_根据网络预测的μ和σ得到连续型的action值.mp4
- file:44:A3C架构和训练流程.mp4
- file:43:代码实战_详解Critic网络构建及训练.mp4
- file:40:AdvantageActorCritic_共享参数和修改reward技巧.mp4
- file:39:ActorCritic原理_把PG和QLearning结合起来.mp4
- file:38:策略梯度PG_同一个回合中不同的action回溯不同的TotalReward_代码实战.mp4
- file:37:策略梯度PG_对TotalReward进行均值归一化.mp4
- file:36:代码实战_策略梯度PG选择行为和参数训练.mp4
- file:33:策略梯度PG_讲解CartPole环境.mp4
- file:32:策略梯度PG_总结整体流程_对比交叉熵损失函数求导.mp4
- file:31:策略梯度PG_简化导函数的公式推导.mp4
- file:29:策略梯度PG_对比基于值和基于策略网络的区别.mp4
- file:28:Rainbow_DQN如何计算连续型的Actions.mp4
- file:27:计算Action的方差避免风险.mp4
- file:26:困难样本挖掘_Multi-step_NoiseyNet系统的探索.mp4
- file:25:DuelingDQN.mp4
- file:24:DoubleDQN代码实战.mp4
- file:23:DoubleDQN缓解over-estimate.mp4
- file:21:代码实战DQN_训练阶段最小化损失_记录loss方便展示_随着learn的越多选择action随机性减小.mp4
- file:20:代码实战DQN_训练阶段得到Q网络的预测值和真实值.mp4
- file:19:代码实战DQN_定义损失函数_构建Target网络更新逻辑.mp4
- file:18:代码实战DQN_构建Q网络.mp4
- file:17:代码实战DQN_Agent和Env整体交互.mp4
- file:16:ε-greedy_ReplayBuffer_FixedQ-targets.mp4
- file:9:代码实战Q-Learning智能体选择行为.mp4
- file:7:理解Q-table_创建maze交互环境.mp4
- file:6:SARSA算法和Q-learning算法.mp4
- file:2:引入马尔科夫链和价值评估的Q值与V值.mp4
- file:13:代码实战SarsaLambda_训练模型.mp4
- file:5:蒙特卡洛和时序差分估算状态V值.mp4
- file:3:详解Q值和V值以及它们之间关系.mp4
- file:1:强化学习通过智能体与环境交互进行学习.mp4
- folder:【百战程序员】AI算法工程师就业班 - 带源码课件
- folder:31、【加课】强化学习【新增】
- folder:27-【加课】算法与数据结构
- folder:26-【加课】Linux环境编程基础
- folder:25、【加课】百度飞桨PaddlePaddle实战【新增】
- folder:24-【加课】Pytorch项目实战
- folder:21-深度学习-OCR文本识别
- folder:20-深度学习-NLP自然语言处理项目实战
- folder:17-深度学习-语义分割原理和实战
- folder:16-深度学习-目标检测YOLO(V1-V4全版本)实战
- folder:12-机器学习与大数据-推荐系统项目实战
- folder:09、机器学习-概率图模型
- folder:03、人工智能基础-Python科学计算和可视化
- folder:04、人工智能基础-高等数学知识强化
- folder:章节5:DDPG、PPO、DPPO算法
- folder:章节4:ActorCritic(A3C)
- folder:章节3:PolicyGradient策略梯度
- folder:章节2:DeepQ-LearningNetwork
- folder:章节1:Q-Learning与SARSA算法
- folder:章节1:Linux
- folder:章节5:PaddleNLP模块_物流信息提取(BiGRU+CRF)
- folder:章节4:PaddleOCR工具_车牌识别(目标检测+CRNN+CTCLoss)
- folder:章节3:PaddleDetection工具_PCB电路板缺陷检测
- folder:章节2:PaddlePaddle卷积网络_病理性近视识别
- folder:章节5:PyTorch编码器解码器_机器翻译
- folder:章节3:PyTorch卷积神经网络_实战CIFAR10
- folder:章节2:PyTorch基础_Tensor张量运算
- folder:章节1:PyTorch运行环境安装_运行环境测试
- folder:章节7:GPT2聊天机器人
- folder:章节5:实战NER命名实体识别项目
- folder:章节6:BERT新浪新闻10分类项目
- folder:章节2:自然语言处理--情感分析
- folder:章节4:ELMO_BERT_GPT
- folder:章节3:从Attention机制到Transformer
- folder:章节2:循环神经网络原理与优化
- folder:章节3:蒙版弹幕MaskRCNN语义分割
- folder:章节2:医疗图像UNet语义分割
- folder:章节1:上采样_双线性插值_转置卷积
- folder:章节5:YOLOv4详解
- folder:章节2:自然场景下的目标检测及源码分析
- folder:章节3:图像风格迁移
- folder:章节5:现代目标检测之FasterRCNN
- folder:章节4:古典目标检测
- folder:章节3:经典卷积网络算法
- folder:章节3:反向传播推导_Python代码实现神经网络
- folder:章节2:TensorFlow深度学习工具
- folder:章节3:推荐系统--模型使用和推荐服务
- folder:章节2:推荐系统--数据预处理和模型构建评估实战
- folder:章节3:Spark机器学习MLlib和ML模块
- folder:章节2:Spark计算框架深入
- folder:章节2:网页分类案例
- folder:章节2:集成学习和随机森林
- folder:章节2:EM算法和GMM高斯混合模型
- folder:章节2:Softmax回归
- folder:章节5:Lasso回归_Ridge回归_多项式回归
- folder:章节3:数据处理分析模块Pandas
- folder:章节1:科学计算模型Numpy
- folder:章节2:Python基础语法
分享时间 | 2024-06-04 |
---|---|
入库时间 | 2025-03-12 |
状态检测 | 有效 |
资源类型 | QUARK |
分享用户 | 嘀嘟*享 |
资源有问题?点此举报