成为机器学习者所需的一切
此资源列表专门针对 Web 开发人员和数据科学家。...因此,您可以根据自己的意愿使用它...
此列表大量借鉴了sindresorhus创建的多个列表
机器学习是人工智能的一个子领域,广义上定义为机器模仿人类智能行为的能力。人工智能系统用于以类似于人类解决问题的方式执行复杂任务。
计算机科学与人工智能实验室(CSAIL)首席研究员兼信息实验室负责人鲍里斯·卡茨(Boris Katz)表示 ,人工智能的目标是创建能够像人类一样表现出“智能行为”的计算机模型。这意味着机器能够识别视觉场景、理解自然语言文本或在现实世界中执行动作。
机器学习是人工智能的一种应用方式。人工智能先驱 亚瑟·塞缪尔在20世纪50年代将其定义 为“赋予计算机无需明确编程即可学习能力的研究领域”。
-
[📖]传递幸福
-
[📖] Google 的运作方式
-
[📖]重做
-
[📖] Airbnb 的故事
-
[📖]个人 MBA
-
[ ] Facebook:数字营销:入门
-
[ ] Moz:SEO初学者指南
-
[ ] Smartly:营销基础知识
-
[🅤]ꭏ应用盈利
-
[🅤]ꭏ应用营销
-
[🅤]ꭏ如何创建一家初创公司
自然语言处理
自然语言处理是机器学习的一个领域,它使机器能够学习理解人类口语和书面语的自然语言,而不是通常用于计算机编程的数据和数字。这使得机器能够识别、理解和响应语言,以及创建新文本和进行语言间翻译。自然语言处理使诸如聊天机器人和 Siri 或 Alexa 等数字助理等常见技术成为可能。
神经网络
神经网络是一类常用的特定机器学习算法。人工神经网络以人脑为模型,其中数千甚至数百万个处理节点相互连接并组织成层。
在人工神经网络中,细胞(或称节点)彼此连接,每个细胞处理输入并产生输出,该输出被发送到其他神经元。标记数据在节点(或称细胞)之间移动,每个细胞执行不同的功能。在一个被训练用于识别图片中是否包含猫的神经网络中,不同的节点会评估这些信息,并得出一个输出,指示图片中是否包含猫。
熟悉机器学习在其他公司的应用方式
-
[📰]谷歌翻译的最新进展
-
- [ ] Andrej Karpathy 谈特斯拉的人工智能(全栈深度学习 - 2018 年 8 月)
- [ ] Jai Ranganathan,Uber 数据科学(全栈深度学习 - 2018 年 8 月)
- [ ]思科的 John Apostolopoulos 讨论“网络中的机器学习”
0:48:44
- [ ] Facebook 应用机器学习总监 Joaquin Candela 与 Esteban Arcaute 对话
0:52:27
- [ ] Eric Colson,Stitch Fix 首席算法官
0:53:57
- [ ] Claudia Perlich,Dstillery 顾问兼纽约大学斯特恩商学院兼职教授
0:51:59
- [ ] Jeff Dean,谷歌高级研究员兼谷歌人工智能高级副总裁 - 深度学习解决挑战性问题
0:58:45
- [ ] James Parr,FDL Europe 前沿发展实验室 (NASA) 主任兼 Trillium Technologies 首席执行官
0:55:46
- [ ] Insitro 创始人兼首席执行官 Daphne Koller - 与 Carlos Bustamante 对话
0:49:29
- [ ] Eric Horvitz,微软研究院 - 开放世界中的人工智能:进步、愿景和挑战
0:56:11
- [ ] Tony Jebara,Netflix - 用于推荐和个性化的机器学习
0:55:20
-
[💻]用熊猫分析警察活动
-
使用Python预测客户流失
-
[📺 ] YouTube 如何推荐视频? - AI 解释!
0:33:53
-
[📺 ]谷歌翻译的人工智能是如何工作的?
0:15:02
-
[📺]金融数据科学
0:17:52
-
[📺]人工智能时代
- [ ]多远才算太远? | 人工智能时代
0:34:39
- [ ]通过人工智能治愈 | 人工智能时代
0:39:55
- [ ]利用人工智能塑造更美好的人类 | 人工智能时代
0:44:27
- [ ]爱情、艺术与故事:解密 | 人工智能时代
0:38:57
- [ ]火星的“太空建筑师” | 人工智能时代
0:30:10
- [ ]机器人会抢走我的工作吗? | 人工智能时代
0:36:14
- [ ]用算法拯救世界 | 人工智能时代
0:46:37
- [ ]人工智能如何搜寻外星人 | 人工智能时代
0:36:12
- [ ]多远才算太远? | 人工智能时代
-
[📺] Alexa 中的自然语言理解
-
[📺 ]第 13 讲:研究方向
-
[📺] Vicki Boykis 探讨跨行业的机器学习
0:34:02
-
[📺 ] Rachael Tatman - 会话 AI 和语言学
0:36:51
-
[📺] Nicolas Koumchatzky - 自动驾驶汽车生产中的机器学习
0:44:56
-
[📺] Brandon Rohrer - 机器人生产中的机器学习
0:34:31
能够构建机器学习问题
-
[ ] AWS:机器学习解决方案的类型
-
[📰]将机器学习应用于您的业务
-
[📰]软件 2.0
-
[📰] ICML 2020 精彩集锦
-
[📰]机器学习趋势一瞥
-
[📰]如何交付机器学习项目
-
[📰]数据科学作为产品
-
[📰]深度学习的过去 5 年
-
[📖]人类的机器智能指南
-
[📖]计算未来
-
[💻]人人皆可参与的数据科学
-
[💻]人人皆可学习机器学习
-
[💻]管理者的数据科学
-
[G]机器学习问题框架简介
-
[ ] 2020年人工智能现状报告
-
[📺] Hugging Face,Transformers | NLP 研究与开源 | Julien Chaumond 访谈
-
[📺]建立模型之前先建立直觉
熟悉数据伦理
-
[ ] Netflix:编码偏见
-
[ ] Netflix:大黑客
-
[ ] Netflix:社交困境
-
[ ]实用数据伦理
- [ ]第一课:虚假信息
- [ ]第二课:偏见与公平
- [ ]第三课:道德基础与实用工具
- [ ]第四课:隐私与监控
- [ ]第四课(续):隐私与监控
- [ ]第 5.1 课:指标的问题
- [ ]第 5.2 课:我们的生态系统、风险投资和超速增长
- [ ]第 5.3 课:只见树木不见森林,客座讲师:Ali Alkhatib
- [ ]第六课:算法殖民主义及其后续步骤
-
[📺 ]讲座 9:伦理学(全栈深度学习 - 2021 年春季)
1:04:50
-
[📺] SE4AI:道德与公平
1:18:37
-
[📺] SE4AI:安全
1:18:24
-
[📺] SE4AI:安全
1:17:37
能够从多个来源导入数据
能够有效地设置数据注释
-
[📰]我们需要合成数据
-
[📰]在线讨论的弱监督
-
[📰]注释者间协议 (IAA)
-
[📺 ]讲座 8:数据管理(全栈深度学习 - 2021 年春季)
0:59:42
-
[📺]实验 6:数据标记(全栈深度学习 - 2021 年春季)
0:05:06
-
[📺 ]讲座 6:数据管理
-
[📺] SE4AI:数据质量
1:07:15
-
[📺] SE4AI:数据编程和大数据处理简介
0:33:04
-
[📺] SE4AI:管理和处理大型数据集
1:21:27
能够使用 Numpy 处理数据
-
[📰] NumPy 和数据表示的视觉介绍
-
[💻] Python 数据科学简介
能够使用 Pandas 操作数据
-
[💻] Pandas 基础
-
[📰]现代熊猫
- [ ]现代熊猫(上)
- [ ]现代熊猫(第二部分)
- [ ]现代熊猫(第三部分)
- [ ]现代熊猫(第四部分)
- [ ]现代熊猫(第五部分)
- [ ]现代熊猫(第六部分)
- [ ]现代熊猫(第七部分)
- [ ]现代熊猫(第八部分)
能够处理电子表格中的数据
-
[💻]电子表格基础知识
-
[💻]使用电子表格进行数据分析
-
[💻]数据科学中级电子表格
-
[💻]使用电子表格的数据透视表
-
[💻]电子表格中的统计数据简介
-
[💻]电子表格中的条件格式
-
电子表格中的营销分析
能够操作数据库中的数据
-
[💻]数据科学 SQL 简介
-
[💻]中级 SQL
-
[💻] SQL 中的探索性数据分析
-
Python数据库简介
-
[💻] SQL 报告
-
[💻] SQL 中的数据驱动决策
-
[💻]数据库设计
-
[🅤]ꭏ SQL 用于数据分析
-
[🅤]ꭏ关系数据库简介
-
[🅤]ꭏ数据库系统概念与设计
能够使用Linux
-
[ ] Calmcode: entr
-
[ ] Codecademy:学习命令行
-
[💻] Shell 数据科学简介
-
[💻] Bash 脚本简介
-
[💻] Shell 中的数据处理
-
- [ ]讲座 1:课程概述 + Shell(2020)
0:48:16
- [ ]讲座 2:Shell 工具和脚本(2020)
0:48:55
- [ ]讲座 3:编辑器 (vim) (2020)
0:48:26
- [ ]讲座 4:数据整理 (2020)
0:50:03
- [ ]讲座 5:命令行环境(2020)
0:56:06
- [ ]讲座 6:版本控制 (git) (2020)
1:24:59
- [ ]讲座 7:调试和分析(2020)
0:54:13
- [ ]第 8 讲:元编程(2020)
0:49:52
- [ ]讲座9:安全与密码学(2020)
1:00:59
- [ ]第十讲:百花香 (2020)
0:57:54
- [ ]第11讲:问答(2020)
0:53:52
- [ ]讲座 1:课程概述 + Shell(2020)
-
[ ] Thoughtbot:tmux
-
Linux命令行基础
-
[🅤]ꭏ Shell 工作坊
-
[🅤]ꭏ配置 Linux Web 服务器
-
[ ] Web Bos:命令行高级用户
-
[📺] GNU 并行
能够执行特征选择和工程
-
[📰]高级特征工程技巧
-
[📰]为机器学习模型准备数据
-
[📰]机器学习模型的特征选择
-
[📰]从不平衡数据中学习
-
[📰]机器学习数据准备黑客指南
-
使用Python分析社交媒体数据
-
[💻] Python 中的降维
-
[💻]数据科学的数据类型
-
使用Python导入和管理财务数据
-
使用Python分析物联网数据
-
[💻] Python 中的探索性数据分析
-
[ ] edX:数据科学基础
-
[🅤]ꭏ创建分析数据集
-
[📺]应用机器学习 2020 - 04 - 预处理
1:07:40
-
[📺] AppliedMachine Learning 2020 - 11 - 模型检查与特征选择
1:15:15
能够在笔记本上进行实验
能够可视化数据
-
Python数据可视化简介
-
[💻] Seaborn 简介
-
[💻] Matplotlib 简介
-
使用Python改进数据可视化
-
[📺] AppliedMachine Learning 2020 - 02 可视化与 matplotlib
1:07:30
能够利用研究论文进行文献综述
-
[ ]论文:神经概率语言模型
-
[ ]论文:因式分解机
-
[ ]论文:通用句子编码器
-
[ ]论文:后续问题生成
-
[ ]论文:硬件彩票
能够用数学方法建模问题
-
- [ ]微积分的本质,第 1 章
0:17:04
- [ ]导数悖论 | 微积分的本质,第二章
0:17:57
- [ ]几何学中的导数公式 | 微积分的本质,第 3 章
0:18:43
- [ ]链式法则和乘积法则的可视化 | 微积分的本质,第四章
0:16:52
- [ ]欧拉常数 e 有何特别之处?| 微积分的本质,第五章
0:13:50
- [ ]隐式微分,这到底是怎么回事?| 微积分的本质,第六章
0:15:33
- [ ]极限、洛必达规则和 epsilon delta 定义 | 微积分的本质,第 7 章
0:18:26
- [ ]积分与微积分基本定理 | 微积分的本质,第 8 章
0:20:46
- [ ]面积和斜率有什么关系?| 微积分精髓,第九章
0:12:39
- [ ]高阶导数 | 微积分的本质,第 10 章
0:05:38
- [ ]泰勒级数 | 微积分的本质,第 11 章
0:22:19
- [ ]微积分课上不会教你的东西
0:16:22
- [ ]微积分的本质,第 1 章
-
- [ ]向量究竟是什么? | 线性代数精髓,第一章
0:09:52
- [ ]线性组合、跨度和基向量 | 线性代数的本质,第二章
0:09:59
- [ ]线性变换和矩阵 | 线性代数的本质,第 3 章
0:10:58
- [ ]矩阵乘法的复合 | 线性代数的本质,第四章
0:10:03
- [ ]三维线性变换 | 线性代数的本质,第五章
0:04:46
- [ ]行列式 | 线性代数的本质,第六章
0:10:03
- [ ]逆矩阵、列空间与零空间 | 线性代数精髓,第七章
0:12:08
- [ ]非方阵作为维度间的变换 | 线性代数精髓,第 8 章
0:04:27
- [ ]点积与对偶 | 线性代数精髓,第九章
0:14:11
- [ ]叉积 | 线性代数的本质,第 10 章
0:08:53
- [ ]线性变换中的叉积 | 线性代数精髓 第 11 章
0:13:10
- [ ]克莱姆规则的几何解释 | 线性代数的本质,第 12 章
0:12:12
- [ ]基的变换 | 线性代数的本质,第13章
0:12:50
- [ ]特征向量和特征值 | 线性代数的本质,第 14 章
0:17:15
- [ ]抽象向量空间 | 线性代数的本质,第15章
0:16:46
- [ ]向量究竟是什么? | 线性代数精髓,第一章
-
[ ] 3Blue1Brown:神经网络
- [ ]但什么是神经网络? | 深度学习,第一章
0:19:13
- [ ]梯度下降,神经网络的学习方式 | 深度学习,第二章
0:21:01
- [ ]反向传播究竟在做什么?| 深度学习,第三章
0:13:54
- [ ]反向传播演算 | 深度学习,第 4 章
0:10:17
- [ ]但什么是神经网络? | 深度学习,第一章
-
[📰]反向传播的视觉之旅
-
[📰]熵、交叉熵和 KL 散度
-
[📰]概率分布面试指南
-
[📰]概率分布的熵——通俗地说
-
[📰] KL 散度 — 通俗来讲
-
[📰]概率分布
-
[📰]将矩阵重新学习为线性函数
-
[📰]交叉熵和 KL 散度
-
[📰]为什么随机性就是信息?
-
[📰]基本概率论
-
[📖]机器学习的线性代数基础
-
[💻] Python 统计学简介
-
Python概率论基础
-
[💻] Python 中的统计模拟
-
[ ]程序员的计算线性代数
-
[ ]可汗学院:预备微积分
-
[ ]可汗学院:概率
-
[ ]可汗学院:微积分
-
[ ]可汗学院:多元微积分
-
[ ]可汗学院:线性代数
-
- [ ] 1. 线性方程的几何
0:39:49
- [ ] 2. 矩阵消去。
0:47:41
- [ ] 3. 乘法和逆矩阵
0:46:48
- [ ] 4. 分解为 A = LU
0:48:05
- [ ] 5. 转置、排列、空间 R^n
0:47:41
- [ ] 6. 列空间与零空间
0:46:01
- [ ] 9.独立性、基础和维度
0:50:14
- [ ] 10. 四个基本子空间
0:49:20
- [ ] 11. 矩阵空间;秩 1;小世界图
0:45:55
- [ ] 14. 正交向量和子空间
0:49:47
- [ ] 15. 子空间投影
0:48:51
- [ ] 16. 投影矩阵和最小二乘法
0:48:05
- [ ] 17. 正交矩阵与Gram-Schmidt
0:49:09
- [ ] 21. 特征值和特征向量
0:51:22
- [ ] 22. 对角化和 A 的幂
0:51:50
- [ ] 24. 马尔可夫矩阵;傅里叶级数
0:51:11
- [ ] 25. 对称矩阵与正定性
0:43:52
- [ ] 27. 正定矩阵与最小值
0:50:40
- [ ] 29. 奇异值分解
0:40:28
- [ ] 30. 线性变换及其矩阵
0:49:27
- [ ] 31. 基础变更;图像压缩
0:50:13
- [ ] 33. 左逆和右逆;伪逆
0:41:52
- [ ] 1. 线性方程的几何
-
[ ] StatQuest:统计基础知识
- [ ] StatQuest:直方图,清晰解释
0:03:42
- [ ] StatQuest:什么是统计分布?
0:05:14
- [ ] StatQuest:正态分布,解释得很清楚!!!
0:05:12
- [ ]统计学基础知识:总体参数
0:14:31
- [ ]统计学基础:平均值、方差和标准差
0:14:22
- [ ] StatQuest:什么是统计模型?
0:03:45
- [ ] StatQuest:抽样分布
0:03:48
- [ ]假设检验与零假设
0:14:40
- [ ]备选假设:主要思想!!!
0:09:49
- [ ] p 值:它们是什么以及如何解释它们
0:11:22
- [ ]如何计算 p 值
0:25:15
- [ ] p-hacking:它是什么以及如何避免它!
0:13:44
- [ ]统计功效,解释清楚!!!
0:08:19
- [ ]功率分析,解释得很清楚!!!
0:16:44
- [ ]协方差和相关性 第一部分:协方差
0:22:23
- [ ]协方差和相关性(第 2 部分):皮尔逊相关性
0:19:13
- [ ] StatQuest:R平方解释
0:11:01
- [ ]中心极限定理
0:07:35
- [ ] StatQuickie:标准差与标准误差
0:02:52
- [ ] StatQuest:标准误差
0:11:43
- [ ] StatQuest:技术和生物学重复
0:05:27
- [ ] StatQuest - 样本量和有效样本量清晰解释
0:06:32
- [ ]条形图比饼图更好
0:01:45
- [ ] StatQuest:箱线图,清晰解释
0:02:33
- [ ] StatQuest:对数(对数),清晰解释
0:15:37
- [ ] StatQuest:置信区间
0:06:41
- [ ] StatQuickie:显著性阈值
0:06:40
- [ ] StatQuickie:使用哪种 t 检验
0:05:10
- [ ] StatQuest:单尾或双尾 P 值
0:07:05
- [ ]二项分布与检验,解释得清清楚楚!!!
0:15:46
- [ ] StatQuest:分位数和百分位数,解释清楚!!!
0:06:30
- [ ] StatQuest:分位数-分位数图(QQ 图),清晰解释
0:06:55
- [ ] StatQuest:分位数归一化
0:04:51
- [ ] StatQuest:概率与可能性
0:05:01
- [ ] StatQuest:最大似然法,解释得很清楚!!!
0:06:12
- [ ]指数分布的最大似然法,解释得清清楚楚!V2.0
0:09:39
- [ ]为什么除以 N 会低估方差
0:17:14
- [ ]二项分布的最大似然法,解释得很清楚!!!
0:11:24
- [ ]正态分布的最大似然法,一步一步来!
0:19:50
- [ ] StatQuest:赔率和对数(赔率),解释得很清楚!!!
0:11:30
- [ ] StatQuest:优势比和对数(优势比),解释得很清楚!!!
0:16:20
- [ ] 2020-04-20 直播!!! 预期值
0:33:00
- [ ] StatQuest:直方图,清晰解释
-
[🅤]ꭏ特征向量和特征值
-
[🅤]ꭏ线性代数复习
-
[🅤]ꭏ统计数据
-
[🅤]ꭏ描述统计学简介
-
[🅤]ꭏ推论统计学简介
能够设置项目结构
-
[📰] pydantic
-
[📰]超现代 Python
-
[ ] Calmcode: 日志记录
-
[ ] Calmcode: tqdm
-
[ ] Calmcode: 虚拟环境
-
[💻]数据工程简介
-
[💻] Conda 基本信息
-
[💻] Conda 用于构建和分发软件包
-
Python中的面向对象编程
-
Python 中的命令行自动化
-
[ ]开发 Python 包
-
[🅤]ꭏ编写 README
-
[📺]讲座 1:深度学习简介
-
[📺 ]讲座 4:基础设施和工具
-
[📺] Hydra 配置
-
[📺]持续集成
-
[📺]数据工程 + 机器学习 + 软件工程 // Satish Chandra Gupta // MLOps 咖啡会议 #16
-
[📺 ]讲座 13:机器学习团队(全栈深度学习 - 2021 年春季)
0:58:13
-
[📺 ]讲座 5:机器学习项目(全栈深度学习 - 2021 年春季)
1:13:14
-
[📺 ]讲座 6:基础设施与工具(全栈深度学习 - 2021 年春季)
1:07:21
能够对代码进行版本控制
-
[💻]数据科学 Git 简介
-
[🅤]ꭏ GitHub 与协作
-
[🅤]ꭏ使用 Git 进行版本控制
-
[📺] 045 Git LFS 简介
-
[📺] Git 与脚本
能够对数据进行版本控制
-
[📺] DVC 基础知识
- [ ]使用 DVC 进行数据版本控制(实践教程!)
0:13:04
- [ ]使用 DVC 共享数据和模型(实践数据科学教程!)
0:08:53
- [ ]使用 DVC 进行数据版本控制(实践教程!)
-
[📺]机器学习项目中的数据版本控制 - Dmitry Petrov
0:34:44
能够使用实验管理工具
-
[📰]存储机器学习实验的元数据
-
[📺]权重和偏差教程
-
[📺]实验 5:实验管理(全栈深度学习 - 2021 年春季)
0:30:41
-
[📺 ]讲座 5:跟踪实验
-
[📺 ]权重与偏差
-
[📺] SE4AI:版本控制、出处和可重复性
1:18:29
能够设置模型验证
-
[📰]评估机器学习模型
-
[📰]验证你的机器学习模型
-
[📰]衡量绩效:混淆矩阵
-
[📰]衡量性能:准确性
-
[📰] ROC 曲线:通过可视化获得直觉
-
[📰]代理指标
-
[📺]准确性失败
-
[📺] AppliedMachine Learning 2020 - 09 - 模型评估与指标
1:18:23
-
[📺]机器学习基础:交叉验证
0:06:04
-
[📺]机器学习基础:混淆矩阵
0:07:12
-
[📺]机器学习基础:敏感性和特异性
0:11:46
-
[📺]机器学习基础:偏差和方差
0:06:36
-
[📺 ] ROC 和 AUC,解释清楚!
0:16:26
熟悉模型的内部工作原理
贝叶斯定理非常有趣且适用 ==> - [📰]朴素贝叶斯分类
-
[📰]线性回归
-
[📰]多项式回归
-
[📰]逻辑回归
-
[📰]决策树
-
[📰] K 最近邻
-
[📰]支持向量机
-
[📰]随机森林
-
[📰]增强树木
-
[📰]神经网络:激活函数
-
[📰]感知器到深度神经网络
-
[📰]一对多和一对一多类别分类
-
深度学习算法- 完整指南
-
[📰]机器学习技术入门
-
[ ] AWS:理解神经网络
-
[📖]探索深度学习
-
[📖]创建你自己的神经网络
-
[💻] Python 中的集成方法
-
[ ] StatQuest:机器学习
- [ ] StatQuest:用线拟合数据,又称最小二乘法,又称线性回归。
0:09:21
- [ ] StatQuest:线性模型 Pt.1 - 线性回归
0:27:26
- [ ] StatQuest:StatQuest:线性模型 Pt.2 - t 检验和方差分析
0:11:37
- [ ] StatQuest:赔率和对数(赔率),解释得很清楚!!!
0:11:30
- [ ] StatQuest:优势比和对数(优势比),解释得很清楚!!!
0:16:20
- [ ] StatQuest:逻辑回归
0:08:47
- [ ]逻辑回归详解 Pt1:系数
0:19:02
- [ ]逻辑回归详解第 2 部分:最大似然法
0:10:23
- [ ]逻辑回归详解第 3 部分:R 平方和 p 值
0:15:25
- [ ]饱和模型和偏差
0:18:39
- [ ]残差偏差
0:06:18
- [ ]正则化第一部分:岭(L2)回归
0:20:26
- [ ]正则化第二部分:Lasso(L1)回归
0:08:19
- [ ] Ridge 与 Lasso 回归,可视化!!!
0:09:05
- [ ]正则化第三部分:弹性网络回归
0:05:19
- [ ] StatQuest:主成分分析(PCA),分步指南
0:21:57
- [ ] StatQuest:仅需 5 分钟即可了解 PCA 主要思想!!!
0:06:04
- [ ] StatQuest:PCA - 实用技巧
0:08:19
- [ ] StatQuest: Python 中的 PCA
0:11:37
- [ ] StatQuest:清晰解释线性判别分析(LDA)。
0:15:12
- [ ] StatQuest: MDS 和 PCoA
0:08:18
- [ ] StatQuest:t-SNE 的清晰解释
0:11:47
- [ ] StatQuest:层次聚类
0:11:19
- [ ] StatQuest:K均值聚类
0:08:57
- [ ] StatQuest:K 最近邻,清晰解释
0:05:30
- [ ]朴素贝叶斯,解释得很清楚!!!
0:15:12
- [ ]高斯朴素贝叶斯,解释得很清楚!!!
0:09:41
- [ ] StatQuest:决策树
0:17:22
- [ ] StatQuest:决策树,第 2 部分 - 特征选择和缺失数据
0:05:16
- [ ]回归树,解释得很清楚!!!
0:22:33
- [ ]如何修剪回归树,解释清楚!!!
0:16:15
- [ ] StatQuest:随机森林第 1 部分 - 构建、使用和评估
0:09:54
- [ ] StatQuest:随机森林第 2 部分:缺失数据和聚类
0:11:53
- [ ]链式法则
0:18:23
- [ ]梯度下降,一步一步
0:23:54
- [ ]随机梯度下降,解释得很清楚!!!
0:10:53
- [ ] AdaBoost,清晰解释
0:20:54
- 第一部分:回归的主要思想
0:15:52
- [⨊ ]第 2 部分:回归细节
0:26:45
- 第 3部分:分类
0:17:02
- [⨊ ]第四部分:分类详情
0:36:59
- [⨊ ]支持向量机,解释得很清楚!!!
0:20:32
- [ ]支持向量机(第二部分):多项式核函数
0:07:15
- [ ]支持向量机第 3 部分:径向基函数 (RBF) 核
0:15:52
- [ ] XGBoost 第一部分:回归
0:25:46
- [ ] XGBoost 第二部分:分类
0:25:17
- [ ] XGBoost 第 3 部分:数学细节
0:27:24
- [ ] XGBoost 第 4 部分:超酷的优化
0:24:27
- [ ] StatQuest:将曲线拟合到数据,又名 lowess,又名 loess
0:10:10
- [ ]统计学基础知识:总体参数
0:14:31
- [ ]主成分分析(PCA)清晰解释(2015)
0:20:16
- [ ] Python 中的决策树从头到尾
1:06:23
- [ ] StatQuest:用线拟合数据,又称最小二乘法,又称线性回归。
-
[🅤]ꭏ分类模型
-
- [ ]从头开始的神经网络 - P.1 简介和神经元代码
0:16:59
- [ ]从零开始的神经网络 - P.2 编码层
0:15:06
- [ ]从零开始的神经网络 - P.3 点积
0:25:17
- [ ]从零开始的神经网络 - P.4 批次、层和对象
0:33:46
- [ ]从头开始的神经网络 - P.5 隐藏层激活函数
0:40:05
- [ ]从头开始的神经网络 - P.1 简介和神经元代码
-
[📺] AppliedMachine Learning 2020 - 03 监督学习和模型验证
1:12:00
-
[📺] AppliedMachine Learning 2020 - 05 - 线性回归模型
1:06:54
-
[📺] AppliedMachine Learning 2020 - 06 - 分类的线性模型
1:07:50
-
[📺] AppliedMachine Learning 2020 - 07 - 决策树和随机森林
1:07:58
-
[📺] AppliedMachine Learning 2020 - 08 - 梯度提升
1:02:12
-
[📺]应用机器学习 2020 - 18 - 神经网络
1:19:36
-
[📺] AppliedMachine Learning 2020 - 12 - AutoML(以及一些特征选择)
1:25:38
能够改进模型
-
[📰]批量标准化
-
[📰]解决类别不平衡的简单方法
-
[📺] AppliedMachine Learning 2020 - 10 - 校准、不平衡数据
1:16:14
-
[📺 ]讲座 10:深度神经网络故障排除
熟悉机器学习的基本概念
-
[📰] MLE 和 MAP — 通俗来讲
-
[ ]梯度下降优化算法概述
-
[📰] 2017 年深度学习优化亮点
-
[📰]梯度下降
-
[📰]设置神经网络的学习率
-
[📰]交叉熵分类
-
[💻]人工智能基础知识
-
[ ]人工智能的要素
-
[ ] edX:机器学习原理
-
[ ] edX:数据科学基础
-
[📺 ]深层双重下降
在 scikit-learn 中实现模型
-
[📰] Python 校准图指南
-
[ ] Calmcode:人类学习
-
使用 Python 中的基于树的模型进行机器学习
-
Python线性建模简介
-
[💻] Python 中的广义线性模型
-
[ ]视频:人类学习
-
[📺] dabl:人类参与的自动机器学习
00:25:43
-
[📺]多标签和多输出分类 - 使用 TensorFlow 和 scikit-learn 在 Python 上进行机器学习
能够在 Tensorflow 和 Keras 中实现模型
-
[💻] Python 中的深度学习
-
[G]机器学习速成课程
能够在 PyTorch 中实现模型
-
[📰] PyTorch Lightning 0.9 — 同步 BatchNorm、DataModules 和最终 API!
-
PyTorch Lightning:指标
-
Wadhwani AI 如何利用 PyTorch 赋能棉农
-
PyTorch 损失函数:终极指南
-
[📰]模型并行
-
[ ]笔记本:张量算术
-
[ ]笔记本:Autograd
-
[ ]笔记本:优化
-
[ ]笔记本:网络模块
-
PyTorch深度学习简介
-
PyTorch Lightning 101
-
PyTorch性能调优指南
26:41:00
-
- [ ] [第 1 部分] 使用 PyTorch 检测皮肤癌
0:10:21
- [ ] [第 2 部分] 使用 PyTorch 检测皮肤癌
0:21:57
- [ ] [第 3 部分] 使用 PyTorch 检测皮肤癌
0:22:24
- [ ] [第 1 部分] 使用 PyTorch 检测皮肤癌
-
PyTorch 教程 - RNN、LSTM 和 GRU - 循环神经网络
00:15:51
-
[📺] Pytorch 从零到全
- [ ] PyTorch 讲座 01:概述
0:10:18
- [ ] PyTorch 讲座 02:线性模型
0:12:52
- [ ] PyTorch 讲座 03:梯度下降
0:08:24
- [ ] PyTorch 讲座 04:反向传播和自动求导
0:15:25
- [ ] PyTorch 讲座 05:PyTorch 方式的线性回归
0:11:50
- [ ] PyTorch 讲座 06:逻辑回归
0:10:41
- [ ] PyTorch 讲座 07:广度与深度
0:10:37
- [ ] PyTorch讲座08:PyTorch DataLoader
0:06:41
- [ ] PyTorch 讲座 09:Softmax 分类器
0:18:47
- [ ] PyTorch 讲座 10:CNN 基础
0:15:52
- [ ] PyTorch 讲座 11:高级 CNN
0:12:58
- [ ] PyTorch 讲座 12:RNN1 - 基础知识
0:28:47
- [ ] PyTorch 讲座 13:RNN 2 - 分类
0:17:22
- [ ] PyTorch 讲座 01:概述
-
[📺 ]什么是自动微分?
能够使用云服务实现模型
-
[ ] AWS:机器学习考试基础
能够应用无监督学习算法
-
[📰]对比自监督学习
-
[📰]自监督表征学习
-
[📰]自监督学习:智力的暗物质
-
[📰]自动编码器简介
-
[📰]变分自动编码器
-
[📰]深入探究自动编码器
-
[📰]亲和传播算法详解
-
[📰]算法解析:亲和传播
-
[📰]主成分分析(PCA)
-
- [ ] L1 简介 -- CS294-158-SP20 深度无监督学习 -- 加州大学伯克利分校,2020 年春季
1:10:02
- [ ] L2 自回归模型 -- CS294-158-SP20 深度无监督学习 -- 加州大学伯克利分校,2020 年春季
2:27:23
- [ ] L3 流模型 -- CS294-158-SP20 深度无监督学习 -- 加州大学伯克利分校 -- 2020 年春季
1:56:53
- [ ] L4 潜在变量模型 (VAE) -- CS294-158-SP20 深度无监督学习 -- 加州大学伯克利分校
2:19:33
- [ ]讲座 5 隐式模型——GAN 第一部分 --- 加州大学伯克利分校,2020 年春季
2:32:32
- [ ]讲座 6 隐式模型 / GAN 第二部分 --- CS294-158-SP20 深度无监督学习 -- 伯克利
2:09:14
- [ ]讲座 7:自监督学习 -- 加州大学伯克利分校 2020 年春季 - CS294-158 深度无监督学习
2:20:41
- [ ] L8 无监督学习方法的优缺点总结——加州大学伯克利分校 SP20
0:41:51
- [ ] L9 半监督学习和无监督分布对齐 -- CS294-158-SP20 加州大学伯克利分校
2:16:00
- [ ] L10 压缩 - 加州大学伯克利分校,2020 年春季,CS294-158 深度无监督学习
3:09:49
- [ ] L11 语言模型 -- 客座讲师:Alec Radford (OpenAI) --- 深度无监督学习 SP20
2:38:19
- [ ] L12 强化学习的表征学习 --- CS294-158 加州大学伯克利分校 2020 年春季
2:01:56
- [ ] L1 简介 -- CS294-158-SP20 深度无监督学习 -- 加州大学伯克利分校,2020 年春季
-
Python 中的无监督学习
-
[ ] DeepMind:数据效率低下
-
[G]聚类
-
[🅤]ꭏ分割与聚类
-
[📺] AppliedMachine Learning 2020 - 14 - 聚类和混合模型
1:26:33
-
[📺] AppliedMachine Learning 2020 - 13 - 降维
1:30:34
-
[📺 ]变分自动编码器 - 解释!
0:17:36
-
[ ] 2020 年夏季深度学习讲座
-
[📺]自监督学习 - 下一步是什么? - ECCV 2020 研讨会,8 月 28 日
- [ ]自我监督学习的下一个挑战 - Aäron van den Oord
0:20:13
- [ ]无监督表征学习的观点 - Paolo Favaro
0:42:41
- [ ]使用少量标签学习和迁移视觉表征 - Carl Doersch
0:32:53
- [ ]自我监督作为后数据集时代的道路 - Alexei Alyosha Efros
0:38:06
- [ ]自我监督学习的下一个挑战 - Aäron van den Oord
-
[📺]聚类算法
能够实现 NLP 模型
-
[📰]解构 BERT
-
[📰]文档语义搜索
-
[📰]无监督同义词收集
-
[📰]学习选择迁移学习的数据
-
[📰] T5 — 探索迁移学习极限的模型
-
[📰] NLP 中的迁移学习现状
-
[📰]自然语言处理的常识推理
-
[📰]语言模型
-
[📰]释义
-
[📰]文本生成
-
[📰]图解变压器
-
[📰]图解 Word2vec
-
[📰]带有产品密钥的大型内存层
-
[📰]模式利用训练
-
[📰]现有的命名实体识别工具
-
[📰]图解 Wav2vec
-
[📰]追踪自然语言处理的进展
-
[📰]一个提示值多少个数据点?
-
[📰] NLP:预训练情绪分析
-
[📰]广义语言模型
-
[📰]学习词嵌入
-
[📰]降低语言模型中的毒性
-
[📰] Transformer 家族
-
[📰]关于词嵌入 - 第一部分
-
[📰] 2020 年最先进的语言模型
-
[📰]循环神经网络简介
-
[📰]理解 LSTM 网络
-
[📰]搜索(第一部分)— 简介
-
[📰]改进的少样本文本分类
-
[📰]多标签文本分类
-
[📰]语义搜索能为您做什么
-
[📰]文档聚类
-
[📰]使用片段嵌入进行文档搜索
-
[ ]文档:标记器摘要
-
[📰]语言建模的评估指标
-
[📰]表征学习与检索
-
[📰]跨语言词嵌入模型综述
-
[📰]无监督跨语言表征学习
-
[📰]语言模型微调的最新进展
-
[📰]关键词提取的主题建模
-
[📰]用于聚类的高斯混合模型
-
[📰] GPT-2 知道你的电话号码吗?
-
[📰]如何用言语和反击做事
-
[📰]自动摘要特朗普的国情咨文
-
[📰]语义蕴涵
-
[📰]模糊匹配/模糊逻辑解释
-
[📰] RNN 底层原理
-
[📰]困惑直觉(及其推导)
-
[📰] NLP 年度回顾
-
[📰]探索 LSTM
-
[📰]介绍 spaCy
-
[📰]通过示例理解 LSTM
-
[📰] Transformer 详解
-
[📰]带注释的 GPT-2
-
[📰]字符级语言模型 RNN
-
[📰]使文本增强适应行业问题
-
OpenAI 的GPT -3 语言模型:技术概述
-
[📰] NLP 中的 4 个最大开放问题
-
GPT3 的工作原理
-
[📰]打破拼写检查的魔咒
-
[📰]如何编写拼写检查器
-
[📰]计算机拼写检查
-
[📰]旋转嵌入:一场相对革命
-
[📰]学习对餐厅进行排名
-
[📰]词义消歧已经过时了吗?
-
[📰] Ngram 模糊匹配方法比较
-
[📰]词到向量的演化
-
[ ]循环神经网络的简单介绍
-
[📖]自然语言处理中的嵌入
-
[ ] Coursera:序列模型
-
- [ ] CMU 低资源 NLP 训练营 2020 (1):NLP 任务
1:46:06
- [ ] CMU 低资源 NLP 训练营 2020 (2):语言学 - 音系学与形态学
1:24:08
- [ ] CMU 低资源 NLP 训练营 2020 (3):机器翻译
1:55:59
- [ ] CMU 低资源 NLP 训练营 2020 (4):语言学 - 句法与形态句法
2:00:21
- [ ] CMU 低资源 NLP 训练营 2020 (5):神经表征学习
1:19:57
- [ ] CMU 低资源 NLP 训练营 2020 (6):多语言 NLP
2:04:34
- [ ] CMU 低资源 NLP 训练营 2020 (7):语音合成
2:22:14
- [ ] CMU 低资源 NLP 训练营 2020 (1):NLP 任务
-
- [ ] CMU 2021 年 NLP 神经网络 (1):引言
1:22:40
- [ ] CMU 2021 年 NLP 神经网络 (2):语言建模、效率 / 训练技巧
0:58:24
- [ ] CMU 2021 年 NLP 神经网络 (3):构建 NLP 神经网络工具包,minnn
0:34:42
- [ ] CMU 2021 年 NLP 神经网络 (4):神经网络的效率技巧
0:43:28
- [ ] CMU 2021 年 NLP 神经网络 (5):循环神经网络
0:38:50
- [ ] CMU 2021 年 NLP 神经网络 (6):条件生成
0:45:06
- [ ] CMU 2021 年自然语言处理神经网络 (7):注意力机制
0:38:23
- [ ] CMU 2021 年 NLP 神经网络 (8):分布语义与词向量
0:42:44
- [ ] CMU 2021 年 NLP 神经网络 (9):句子和上下文词表示
0:50:53
- [ ] CMU 2021 年自然语言处理神经网络 (11):基于局部独立性假设的结构化预测
0:36:43
- [ ] CMU 2021 年自然语言处理神经网络 (10):神经网络调试(自然语言处理)
0:43:58
- [ ] CMU 2021 年自然语言处理神经网络 (12):模型解释
0:28:52
- [ ] CMU 2021 年 NLP 神经网络 (13):生成树和图
0:41:05
- [ ] CMU 2021 年自然语言处理神经网络 (14):基于边际和强化学习的结构化预测
0:47:20
- [ ] CMU 2021 年自然语言处理神经网络 (15):序列到序列预训练
0:27:22
- [ ] CMU 2021 年自然语言处理神经网络 (16):使用神经网络进行机器阅读
0:43:08
- [ ] CMU 2021 年 NLP 神经网络 (17):神经网络 + 知识库
0:44:19
- [ ] CMU 2021 年自然语言处理神经网络 (18):高级搜索算法
0:47:58
- [ ] CMU 2021 年自然语言处理神经网络 (19):对抗方法
0:41:56
- [ ] CMU 2021 年自然语言处理神经网络 (20):包含潜在随机变量的模型
0:41:06
- [ ] CMU 2021 年自然语言处理神经网络 (21):多语言学习
0:33:10
- [ ] CMU 2021 年自然语言处理神经网络 (22):自然语言处理中的偏差
0:32:44
- [ ] CMU 2021 年自然语言处理神经网络 (23):文档级模型
0:40:04
- [ ] CMU 2021 年 NLP 神经网络 (1):引言
-
[ ] CMU 多语言 NLP 2020
- [ ] CMU 多语言 NLP 2020 (1): 引言
1:17:29
- [ ] CMU 多语言 NLP 2020 (2): 类型学 - 语言空间
0:37:13
- [ ] CMU 多语言 NLP 2020 (3):词汇、词性、形态
0:38:58
- [ ] CMU 多语言 NLP 2020 (4):文本分类与序列标注
0:45:56
- [ ] CMU 多语言 NLP 2020 (5):高级文本分类/标注
0:49:40
- [ ] CMU 多语言 NLP 2020 (6):翻译、评估与数据集
0:46:17
- [ ] CMU 多语言 NLP 2020 (7):机器翻译 / 序列到序列模型
0:43:51
- [ ] CMU 多语言 NLP 2020 (8):机器翻译的数据增强
0:24:42
- [ ] CMU 多语言 NLP 2020 (9):跨语言接触与相似性
0:30:25
- [ ] CMU 多语言 NLP 2020 (10):多语言训练与跨语言迁移
0:39:58
- [ ] CMU 多语言 NLP 2020 (11):无监督翻译
0:51:17
- [ ] CMU 多语言自然语言处理 2020 (12):代码转换、洋泾浜语和克里奥尔语
0:46:37
- [ ] CMU 多语言 NLP 2020 (13): 演讲
0:41:16
- [ ] CMU 多语言 NLP 2020 (14):自动语音识别
0:39:33
- [ ] CMU 多语言自然语言处理 2020 (15):低资源自动语音识别
0:43:38
- [ ] CMU 多语言 NLP 2020 (16):文本转语音
0:39:00
- [ ] CMU 多语言自然语言处理 2020 (17):形态分析与词形变化
0:45:22
- [ ] CMU 多语言 NLP 2020 (18):依存句法分析
0:38:15
- [ ] CMU 多语言 NLP 2020 (19):数据标注
0:53:08
- [ ] CMU 多语言 NLP 2020 (20): 主动学习
0:28:37
- [ ] CMU 多语言 NLP 2020 (21):信息提取
0:41:00
- [ ] CMU 多语言 NLP 2020 (22):面向本土语言的多语言 NLP
1:21:58
- [ ] CMU 多语言自然语言处理 2020 (23):大规模通用翻译
1:27:33
- [ ] CMU 多语言 NLP 2020 (1): 引言
-
[ ] CS685:高级自然语言处理
- [ ] UMass CS685(高级 NLP):注意力机制
0:48:53
- [ ] UMass CS685(高级 NLP):问答
0:59:50
- [ ] UMass CS685(高级 NLP):更好的 BERT
0:52:23
- [ ] UMass CS685(高级NLP):文本生成解码与评估
1:02:32
- [ ] UMass CS685(高级 NLP):释义生成
1:10:59
- [ ] UMass CS685(高级 NLP):众包文本数据收集
0:58:31
- [ ] UMass CS685(高级 NLP):模型蒸馏和安全威胁
1:09:25
- [ ] UMass CS685(高级 NLP):检索增强语言模型
0:52:13
- [ ] UMass CS685(高级 NLP):实现 Transformer
1:12:36
- [ ] UMass CS685(高级 NLP):视觉 + 语言
1:06:28
- [ ] UMass CS685(高级 NLP):考试复习
1:24:36
- [ ] UMass CS685(高级 NLP):中级微调
1:10:35
- [ ] UMass CS685(高级 NLP):NLP 中的伦理
0:56:57
- [ ] UMass CS685(高级 NLP):探测任务
0:54:30
- [ ] UMass CS685(高级 NLP):语义解析
0:48:49
- [ ] UMass CS685(高级 NLP):常识推理(Lorraine Li 客座讲座)
0:58:53
- [ ] UMass CS685(高级 NLP):注意力机制
-
使用Python构建聊天机器人
-
[💻] Python 中的机器翻译
-
Python自然语言处理基础知识
-
[💻] Python 中的自然语言生成
-
[💻] RNN 用于语言建模
-
Python 中的正则表达式
-
[💻] Python 中的情感分析
-
[💻] Python 中的口语处理
-
[ ]笔记本:Word2Vec
-
[ ] RNN 和 LSTM
-
[ ] Spacy 教程
-
[ ]斯坦福 CS224U:自然语言理解 | 2019 年春季
- [ ]讲座 1 – 课程概述 | 斯坦福 CS224U:自然语言理解 | 2019 年春季
1:12:59
- [ ]讲座 2 – 词向量 1 | 斯坦福 CS224U:自然语言理解 | 2019 年春季
1:17:10
- [ ]讲座 3 – 词向量 2 | 斯坦福 CS224U:自然语言理解 | 2019 年春季
1:16:52
- [ ]讲座 4 – 词向量 3 | 斯坦福 CS224U:自然语言理解 | 2019 年春季
0:38:20
- [ ]讲座 5 – 情感分析 1 | 斯坦福 CS224U:自然语言理解 | 2019 年春季
1:10:44
- [ ]讲座 6 – 情感分析 2 | 斯坦福 CS224U:自然语言理解 | 2019 年春季
1:03:23
- [ ]讲座 7 – 关系提取 | 斯坦福 CS224U:自然语言理解 | 2019 年春季
1:19:04
- [ ]讲座 8 – NLI 1 | 斯坦福 CS224U:自然语言理解 | 2019 年春季
1:15:02
- [ ]讲座 9 – NLI 2 | 斯坦福 CS224U:自然语言理解 | 2019 年春季
1:15:35
- [ ]讲座 10 – 基础 | 斯坦福 CS224U:自然语言理解 | 2019 年春季
1:23:15
- [ ]第 11 讲 – 语义解析 | 斯坦福 CS224U:自然语言理解 | 2019 年春季
1:07:05
- [ ]第 12 讲 – 评估方法 | 斯坦福 CS224U:自然语言理解 | 2019 年春季
1:18:32
- [ ]第 13 讲 – 评估指标 | 斯坦福 CS224U:自然语言理解 | 2019 年春季
1:11:32
- [ ]讲座 14 – 语境向量 | 斯坦福 CS224U:自然语言理解 | 2019 年春季
1:14:33
- [ ]第 15 讲 – 展示你的工作 | 斯坦福 CS224U:自然语言理解 | 2019 年春季
1:15:11
- [ ]讲座 1 – 课程概述 | 斯坦福 CS224U:自然语言理解 | 2019 年春季
-
[ ]斯坦福 CS224N:斯坦福 CS224N:深度学习与自然语言处理 | 2019 年冬季
- [ ]斯坦福 CS224N:基于深度学习的自然语言处理 | 2019 年冬季 | 讲座 1 – 简介和词向量
1:21:52
- [ ]斯坦福 CS224N:基于深度学习的自然语言处理 | 2019 年冬季 | 讲座 2 – 词向量和词义
1:20:43
- [ ]斯坦福 CS224N:基于深度学习的自然语言处理 | 2019 年冬季 | 讲座 3 – 神经网络
1:18:50
- [ ]斯坦福 CS224N:深度学习与自然语言处理 | 2019 年冬季 | 讲座 4 – 反向传播
1:22:15
- [ ]斯坦福 CS224N:基于深度学习的自然语言处理 | 2019 年冬季 | 讲座 5 – 依存句法分析
1:20:22
- [ ]斯坦福 CS224N:基于深度学习的自然语言处理 | 2019 年冬季 | 讲座 6 – 语言模型和 RNN
1:08:25
- [ ]斯坦福 CS224N:深度学习与自然语言处理 | 2019 年冬季 | 讲座 7 – 消失梯度,花式 RNN
1:13:23
- [ ]斯坦福 CS224N:基于深度学习的自然语言处理 | 2019 年冬季 | 讲座 8 – 翻译、Seq2Seq、注意力机制
1:16:56
- [ ]斯坦福 CS224N:深度学习与自然语言处理 | 2019 年冬季 | 讲座 9 – 项目实用技巧
1:22:39
- [ ]斯坦福 CS224N:基于深度学习的自然语言处理 | 2019 年冬季 | 讲座 10 – 问答
1:21:01
- [ ]斯坦福 CS224N:基于深度学习的自然语言处理 | 2019 年冬季 | 讲座 11 – 用于自然语言处理的卷积网络
1:20:18
- [ ]斯坦福 CS224N:基于深度学习的自然语言处理 | 2019 年冬季 | 讲座 12 – 子词模型
1:15:30
- [ ]斯坦福 CS224N:基于深度学习的自然语言处理 | 2019 年冬季 | 讲座 13 – 上下文词嵌入
1:20:18
- [ ]斯坦福 CS224N:深度学习与自然语言处理 | 2019 年冬季 | 讲座 14 – Transformers 与 Self-Attention
0:53:48
- [ ]斯坦福 CS224N:基于深度学习的自然语言处理 | 2019 年冬季 | 讲座 15 – 自然语言生成
1:19:37
- [ ]斯坦福 CS224N:基于深度学习的自然语言处理 | 2019 年冬季 | 讲座 16 – 共指消解
1:19:20
- [ ]斯坦福 CS224N:基于深度学习的自然语言处理 | 2019 年冬季 | 第 17 讲 – 多任务学习
1:11:54
- [ ]斯坦福 CS224N:基于深度学习的自然语言处理 | 2019 年冬季 | 讲座 18 – 成分分析、TreeRNN
1:20:37
- [ ]斯坦福 CS224N:深度学习与自然语言处理 | 2019 年冬季 | 讲座 19 – 人工智能中的偏见
0:56:03
- [ ]斯坦福 CS224N:基于深度学习的自然语言处理 | 2019 年冬季 | 第 20 讲 – 自然语言处理 + 深度学习的未来
1:19:15
- [ ]斯坦福 CS224N:基于深度学习的自然语言处理 | 2020 年冬季 | 低资源机器翻译
1:15:45
- [ ]斯坦福 CS224N:基于深度学习的自然语言处理 | 2020 年冬季 | BERT 及其他预训练语言模型
0:54:28
- [ ]斯坦福 CS224N:基于深度学习的自然语言处理 | 2019 年冬季 | 讲座 1 – 简介和词向量
-
[ ]斯坦福:自然语言处理 | Dan Jurafsky、Christopher Manning
- [ ]课程介绍
0:12:52
- [ ]正则表达式
0:11:25
- [ ]实用 NLP 中的正则表达式
0:06:05
- [ ]词法分析
0:14:26
- [ ]词规范化和词干提取
0:11:48
- [ ]句子分割
0:05:34
- [ ]定义最小编辑距离
0:07:05
- [ ]计算最小编辑距离
0:05:55
- [ ]计算比对的回溯
0:05:56
- [ ]加权最小编辑距离
0:02:48
- [ ]计算生物学中的最小编辑距离
0:09:30
- [ ] N-gram简介
0:08:41
- [ ]估计 N 元模型概率
0:09:38
- [ ]评估与困惑
0:11:09
- [ ]泛化和零点
0:05:15
- [ ]平滑加一
0:06:31
- [ ]插值
0:10:25
- [ ]良好的图灵平滑度
0:15:35
- [ ] Kneser Ney 平滑
0:08:59
- [ ]拼写纠正任务
0:05:40
- [ ]拼写的噪声通道模型
0:19:31
- [ ]真实单词拼写纠正
0:09:20
- [ ]最先进的系统
0:07:10
- [ ]什么是文本分类
0:08:12
- [ ]朴素贝叶斯
0:03:20
- [ ]形式化朴素贝叶斯分类器
0:09:29
- [ ]朴素贝叶斯学习
0:05:23
- [ ]朴素贝叶斯与语言建模的关系
0:04:36
- [ ]多项式朴素贝叶斯示例
0:08:59
- [ ]准确率、召回率和 F 值
0:16:17
- [ ]文本分类评估
0:07:17
- [ ]文本分类中的实际问题
0:05:57
- [ ]什么是情绪分析
0:07:18
- [ ]情绪分析基线算法
0:13:27
- [ ]情感词典
0:08:38
- [ ]学习情感词典
0:14:46
- [ ]其他情绪任务
0:11:02
- [ ]生成模型 vs 判别模型
0:07:50
- [ ]从文本中获取特征,用于判别式 NLP 模型
0:18:12
- [ ]基于特征的线性分类器
0:13:35
- [ ]构建 Maxent 模型的基本要素
0:08:05
- [ ]生成模型 vs 判别模型
0:12:10
- [ ]最大化可能性
0:10:30
- [ ]信息提取简介
0:09:19
- [ ]命名实体识别评估
0:06:35
- [ ]命名实体识别的序列模型
0:15:06
- [ ]最大熵序列模型
0:13:02
- [ ]什么是关系提取
0:09:47
- [ ]使用模式提取关系
0:06:17
- [ ]监督关系提取
0:10:51
- [ ]半监督和无监督关系提取
0:09:53
- [ ]最大熵模型介绍
0:12:14
- [ ]特征重叠 特征交互
0:12:52
- [ ]条件 Maxent 模型用于分类
0:04:11
- [ ] Maxent 模型的平滑正则化先验
0:29:24
- [ ]词性和词性标注简介
0:13:19
- [ ]词性标注序列模型的一些方法与结果
0:13:04
- [ ]句法结构成分 vs 依存关系
0:08:46
- [ ]经验数据驱动的解析方法
0:07:11
- [ ]解析中的指数问题
0:14:31
- [ ]讲师聊天
0:09:03
- [ ] CFG 和 PCFG
0:15:30
- [ ]语法变换
0:12:06
- [ ] CKY解析
0:23:26
- [ ] CKY 示例
0:21:25
- [ ]成分解析器评估
0:09:46
- [ ] PCFG 的词汇化
0:07:03
- [ ]查尼亚克模型
0:18:24
- [ ] PCFG独立性假设
0:09:44
- [ ]非词汇化PCFG的回归
0:20:53
- [ ]潜变量PCFG
0:12:08
- [ ]依存句法分析介绍
0:10:25
- [ ]基于贪婪转换的解析
0:31:05
- [ ]依赖关系编码关系结构
0:07:21
- [ ]信息检索简介
0:09:16
- [ ]词条文档关联矩阵
0:08:59
- [ ]倒排索引
0:10:43
- [ ]使用倒排索引进行查询处理
0:06:44
- [ ]短语查询和位置索引
0:19:46
- [ ]引入排序检索
0:04:27
- [ ]使用杰卡德系数评分
0:05:07
- [ ]词频加权
0:06:00
- [ ]逆文档频率加权
0:10:17
- [ ] TF IDF 加权
0:03:42
- [ ]向量空间模型
0:16:23
- [ ]计算 TF IDF 余弦分数
0:12:48
- [ ]评估搜索引擎
0:09:03
- [ ]词义和词语关系
0:11:50
- [ ] WordNet 和其他在线叙词表
0:06:23
- [ ]词语相似度与同义词库方法
0:16:18
- [ ]词语相似度分布相似度 I
0:13:15
- [ ]词语相似度分布相似度 II
0:08:16
- [ ]什么是问答
0:07:29
- [ ]答案类型和查询表述
0:08:48
- [ ]段落检索和答案提取
0:06:38
- [ ]在 QA 中运用知识
0:04:25
- [ ]高级解答复杂问题
0:04:53
- [ ]摘要介绍
0:04:46
- [ ]生成代码片段
0:07:35
- [ ]评估摘要 ROUGE
0:05:03
- [ ]汇总多个文档
0:10:42
- [ ]讲师聊天 II
0:05:24
- [ ]课程介绍
-
[ ] TextBlob 教程系列
- [ ]使用 TextBlob 的自然语言处理教程 - 标记、翻译和 Ngram
0:11:01
- [ ]使用 TextBlob 和 Python 的 NLP 教程 - 词性标注
0:05:59
- [ ]使用 TextBlob 和 Python 的 NLP 教程 - 词形还原
0:06:32
- [ ] TextBlob & Python 的 NLP 教程 - 情感分析(极性、主观性)
0:06:31
- [ ]使用 TextBlob 构建基于 NLP 的 Flask 应用
0:37:30
- [ ]使用 Polyglot 进行自然语言处理 - 安装和介绍
0:12:49
- [ ]使用 TextBlob 的自然语言处理教程 - 标记、翻译和 Ngram
-
[📺] fast.ai Code-First 自然语言处理简介
- [ ]什么是NLP?(NLP视频1)
0:22:42
- [ ]使用 SVD 和 NMF 进行主题建模(NLP 视频 2)
1:06:39
- [ ]主题建模与 SVD 重温(NLP 视频 3)
0:33:05
- [ ]使用朴素贝叶斯进行情绪分类(NLP 视频 4)
0:58:20
- [ ]使用朴素贝叶斯和逻辑回归进行情绪分类(续)(NLP 视频 5)
0:51:29
- [ ]朴素贝叶斯推导与数值稳定性(NLP 视频 6)
0:23:56
- [ ]重温朴素贝叶斯和正则表达式(NLP 视频 7)
0:37:33
- [ ]语言建模简介(NLP 视频 8)
0:40:58
- [ ]迁移学习(NLP 视频 9)
1:35:16
- [ ]非英语语言的 ULMFit(NLP 视频 10)
1:49:22
- [ ]理解 RNN(NLP 视频 11)
0:33:16
- [ ] Seq2Seq 翻译(NLP 视频 12)
0:59:42
- [ ]词向量化量化百年来的性别和种族刻板印象——Nikhil Garg(NLP 视频 13)
0:47:17
- [ ]文本生成算法(NLP 视频 14)
0:25:39
- [ ]实现 GRU(NLP 视频 15)
0:23:13
- [ ]算法偏见(NLP 视频 16)
1:26:17
- [ ] Transformer 简介(NLP 视频 17)
0:22:54
- [ ]用于语言翻译的 Transformer(NLP 视频 18)
0:55:17
- [ ]你需要了解的关于虚假信息的知识(NLP 视频 19)
0:51:21
- [📰]使用 fastai 从零到英雄 - 初学者
- [📰]使用 fastai 从零到英雄 - 中级
- [ ]什么是NLP?(NLP视频1)
-
[ ] NLP课程 | 为你
- [ ]词嵌入
- [ ]文本分类
- [ ]语言建模
- [ ] Seq2seq 和注意力机制
-
[📺] BERT 研究系列
-
[📺 ] RASA 算法白板
- [ ]算法白板介绍
0:01:16
- [ ] Rasa 算法白板 - 饮食架构 1:工作原理
0:23:27
- [ ] Rasa 算法白板 - Diet 架构 2:设计决策
0:15:06
- [ ] Rasa 算法白板 - 饮食架构 3:基准测试
0:22:34
- [ ] Rasa 算法白板 - 嵌入 1:仅字母
0:13:48
- [ ] Rasa 算法白板 - Embeddings 2:CBOW 和 Skip Gram
0:19:24
- [ ] Rasa 算法白板 - 嵌入 3:GloVe
0:19:12
- [ ] Rasa 算法白板 - Embeddings 4:Whatlies
0:14:03
- [ ] Rasa 算法白板 - Attention 1:Self Attention
0:14:32
- [ ] Rasa 算法白板 - 注意 2:键、值、查询
0:12:26
- [ ] Rasa 算法白板 - Attention 3:多头注意力
0:10:55
- [ ] Rasa 算法白板:注意力机制 4 - Transformers
0:14:34
- [ ] Rasa 算法白板 - StarSpace
0:11:46
- [ ] Rasa 算法白板 - TED 政策
0:16:10
- [ ] Rasa 算法白板 - TED 实践
0:14:54
- [ ] Rasa 算法白板 - 响应选择
0:12:07
- [ ] Rasa 算法白板 - 响应选择:实现
0:09:25
- [ ] Rasa 算法白板 - 计数向量
0:13:32
- [ ] Rasa 算法白板 - 子词嵌入
0:11:58
- [ ] Rasa 算法白板 - Subword Embeddings 的实现
0:10:01
- [ ] Rasa 算法白板 - BytePair 嵌入
0:12:44
- [ ]算法白板介绍
-
[📰] BERT 中的嵌入层是如何实现的
-
[📺]文本分类的简单数据增强
-
[📺 ] Spacy IRL 2019
- [ ] Sebastian Ruder:开源自然语言处理中的迁移学习(spaCy IRL 2019)
0:31:24
- [ ] Giannis Daras:改进稀疏 Transformer 模型以实现高效的自注意力 (spaCy IRL 2019)
0:20:13
- [ ] Peter Baumgartner:应用 NLP:来自现场的经验教训 (spaCy IRL 2019)
0:18:44
- [ ] Justina Petraitytė:帮助推出对话式 AI 助手的经验教训 (spaCy IRL 2019)
0:23:48
- [ ] Yoav Goldberg:NLP 中缺失的元素(spaCy IRL 2019)
0:30:27
- [ ] Sofie Van Landeghem:spaCy 中的实体链接功能(spaCy IRL 2019)
0:20:08
- [ ] Guadalupe Romero:重新思考基于规则的词形还原 (spaCy IRL 2019)
0:14:49
- [ ] Mark Neumann:ScispaCy:用于科学和生物医学文本的 spaCy 流程和模型(spaCy IRL 2019)
0:18:59
- [ ] Patrick Harrison:标普全球的金融 NLP(spaCy IRL 2019)
0:21:42
- [ ] McKenzie Marshall:资产管理中的自然语言处理 (spaCy IRL 2019)
0:20:32
- [ ] David Dodson:spaCy 新闻:Quartz 的 NLP 流程(spaCy IRL 2019)
0:20:56
- [ ] Matthew Honnibal 和 Ines Montani:spaCy 与 Explosion:过去、现在和未来(spaCy IRL 2019)
0:54:13
- [ ] Sebastian Ruder:开源自然语言处理中的迁移学习(spaCy IRL 2019)
-
[📺]自然语言处理的未来
-
[📺 ] NLP 与朋友的谈话
- [ ] NLP 与朋友,推荐朋友:汤姆·麦考伊
0:36:48
- [ ] NLP 与朋友,推荐朋友:Maarten Sap
0:36:11
- [ ] NLP 与朋友,推荐朋友:Nitika Mathur
1:01:42
- [ ] NLP 与朋友,推荐朋友:Sabrina J Mielke
1:01:28
- [ ] NLP 与朋友,推荐朋友:汤姆·麦考伊
-
- [ ] [第 1 部分] 使用 PyTorch 进行不诚实问题分类
0:22:34
- [ ] [第 2 部分] 使用 PyTorch 进行不诚实问题分类
0:33:53
- [ ] [第 3 部分] 使用 PyTorch 进行不诚实问题分类
0:23:49
- [ ] [第四部分] 使用 PyTorch 进行不诚实问题分类
0:14:25
- [ ] [第 1 部分] 使用 PyTorch 进行不诚实问题分类
-
[ ]速成课程:语言学
- [ ]速成语言学预览
0:02:50
- [ ]什么是语言学?:语言学速成课程 #1
0:11:11
- [ ]速成语言学预览
-
[📺] spaCy v3.0:将最先进的 NLP 从原型带入生产
00:22:40
-
[📺]使用 Transformer 和基于规则的系统的对话式 AI
1:53:24
-
[ ]演讲:高性能自然语言处理
-
[📺]研究论文讲解
- [ ]使用句子嵌入进行简单的无监督关键词提取 | 研究论文讲解
0:21:23
- [ ]利用 BERT 进行课堂文本摘要 | 研究论文讲解
0:20:10
- [ ] NLP 中文本分类的数据增强技术 | 研究论文讲解
0:14:33
- [ ] CRIM SemEval-2018 任务 9:上位词发现的混合方法 | 研究论文讲解
0:23:47
- [ ]使用预训练 Transformer 模型(BERT、GPT2 等)进行数据增强 | 研究论文讲解
0:17:43
- [ ]一种有监督的科学论文摘要提取方法 | 研究论文讲解
0:19:01
- [ ] BLEURT:学习稳健的文本生成指标 | 研究论文讲解
0:13:38
- [ ] DeepWalk:社交表征的在线学习 | 基于图的机器学习 | 研究论文讲解
0:17:44
- [ ] LSBert:一个简单的词汇简化框架 | 研究论文演练
0:20:27
- [ ] SpanBERT:通过表示和预测跨度改进预训练 | 研究论文讲解
0:14:21
- [ ]使用 BERT 和 GPT-2 对 COVID-19 医学文章进行文本摘要 | 研究论文讲解
0:21:52
- [ ]使用 Transformer 语言模型进行抽取式和抽象式摘要 | 研究论文讲解
0:16:58
- [ ]使用神经文档模型进行无监督多文档摘要 | 研究论文讲解
0:15:11
- [ ] SummPip:基于句子图压缩的多文档摘要 | 研究论文讲解
0:16:54
- [ ]将 BERT 与静态词嵌入相结合,对社交媒体进行分类 | 研究论文讲解
0:13:51
- [ ]将无监督风格迁移重新表述为释义生成 | 研究论文讲解
0:19:41
- [ ] PEGASUS:利用间隙句进行抽象概括的预训练 | 研究论文讲解
0:15:04
- [ ]文本生成评估:综述 | 以人为本的评估 | 研究论文讲解
0:15:54
- [ ] TOD-BERT:面向任务的对话系统的预训练 Transformer(研究论文演练)
0:15:25
- [ ] TextRank:使文本有序(研究论文演练)
0:14:34
- [ ] Node2Vec:面向网络的可扩展特征学习 | 基于图形的机器学习(研究论文讲解)
0:14:33
- [ ] HARP:网络分层表示学习 | 基于图形的机器学习(研究论文讲解)
0:15:10
- [ ] URL2Video:从网页自动创建视频 | 人工智能与创造力(研究论文讲解)
0:15:21
- [ ]关于生成长文档的扩展摘要(研究论文演练)
0:14:24
- [ ]细胞核采样:神经文本退化的奇特案例(研究论文演练)
0:12:48
- [ ] T5:探索使用文本到文本 Transformer 进行迁移学习的局限性(研究论文演练)
0:12:47
- [ ] DialoGPT:对话响应生成的生成训练(研究论文演练)
0:13:17
- [ ]用于长文档分类的分层 Transformer(研究论文演练)
0:12:46
- [ ]超越准确性:使用 CheckList 对 NLP 模型进行行为测试(ACL 2020 最佳论文)
0:14:00
- [ ]使用句子嵌入进行简单的无监督关键词提取 | 研究论文讲解
-
[ ] 2020 年 NLP 峰会
- [ ] 2020 年应用自然语言处理趋势 | 2020 年 NLP 峰会
0:21:10
- [ ] NLP 行业调查分析:2020 年自然语言用例格局 | NLP 峰会 2020
0:20:23
- [ ]自动 NLP:无需编码即可预训练、调整和部署最先进的模型
0:19:57
- [ ]概念验证的喜悦 | 2020 年 NLP 峰会
0:16:50
- [ ]面向金融工程的分布式自然语言处理应用程序 | 2020 年 NLP 峰会
0:34:49
- [ ] 2020 Transformers 的前沿应用 | 2020 年 NLP 峰会
0:33:34
- [ ] Freshworks Freddy AI 如何利用 NLP 打造“道德至上”的客户体验 | 2020 年 NLP 峰会
0:26:49
- [ ]招聘自动化的 NLP:根据职位描述构建聊天机器人 | 2020 年 NLP 峰会
0:22:31
- [ ] 2020 年应用自然语言处理趋势 | 2020 年 NLP 峰会
-
[📺]自然语言处理的可解释性
-
[📺 ]乱码检测器
-
[📺] NLP 讲座 7 成分分析
- [ ] NLP 讲座 7 - 成分分析概述讲座
0:01:50
- [ ] NLP 讲座 7 - 成分句法分析简介
0:10:29
- [ ] NLP 讲座 7(a) - 上下文无关语法
0:17:03
- [ ] NLP 讲座 7(b) - 成分分析
0:13:28
- [ ] NLP 讲座 7(c) - 统计成分分析
0:09:38
- [ ] NLP 讲座 7(d) - 依存句法分析
0:17:15
- [ ] NLP 讲座 7 - 成分分析概述讲座
-
[📺 ] LING 83 教学视频:成分句分析
-
[📺]使用 Python 教程进行数字人文学科的 SpaCy
- [ ] SpaCy 简介及数据清洗(DH 的 SpaCy 和 Python 教程 - 01)
0:06:07
- [ ]如何安装 SpaCy 和模型 (DH 02 的 Spacy 和 Python 教程)
0:07:40
- [ ]如何在 SpaCy 中分离句子(SpaCy 和 Python DH 教程 - 03)
0:08:33
- [ ] Spacy 和命名实体识别 NER(DH 04 的 Spacy 和 Python 教程)
0:08:32
- [ ]查找词性(DH 05 的 SpaCy 和 Python 教程)
0:02:55
- [ ]提取名词和名词块(DH 06 的 SpaCy 和 Python 教程)
0:05:46
- [ ]提取动词和动词短语(DH 07 的 SpaCy 和 Python 教程)
0:08:10
- [ ]词形还原:寻找词根 (DH 08 的 Spacy 和 Python 教程)
0:04:52
- [ ]使用 DisplaCy 进行数据可视化(DH 09 的 Spacy 和 Python 教程)
0:09:13
- [ ]自定义 DisplaCy 渲染数据可视化(DH 10 的 Spacy 和 Python 教程)
0:08:19
- [ ]在句子中查找引号(DH 11 的 SpaCy 和 Python 教程)
0:08:45
- [ ]命名实体识别简介(NER for DH 01)
0:16:43
- [ ]使用 Python 和 spaCy 进行机器学习 NER(用于 DH 03 的 NER)
0:13:36
- [ ]如何使用 spaCy 的 EntityRuler(DH 04 命名实体识别 | 第 01 部分)
0:36:50
- [ ]如何使用 spaCy 创建 NER 训练集(DH 04 命名实体识别 | 第 02 部分)
0:10:32
- [ ]如何训练 spaCy NER 模型(DH 04 命名实体识别 | 第 03 部分)
0:15:40
- [ ]检查文件夹中的 spaCy 模型(DH 05 的命名实体识别)
0:15:06
- [ ]什么是词向量(DH 06 命名实体识别)
0:18:49
- [ ]如何在 Gensim 中生成自定义词向量(DH 07 命名实体识别)
0:23:05
- [ ]如何将自定义词向量加载到 spaCy 模型中(DH 08 命名实体识别)
0:10:46
- [ ]获取自定义标签的数据(DH 09.01 的大屠杀 NER)
0:11:00
- [ ]如何在 spaCy 中添加自定义 NER 管道和自定义标签(适用于 DH 09.02 的 NER)
0:07:49
- [ ]如何将自定义实体训练到 spaCy 模型中(DH 09 03 命名实体识别)
0:15:29
- [ ]如何将其他模型中的管道添加并放置到新模型中(DH 09 04 的 NER)
0:12:24
- [ ]如何向 spaCy 管道添加自定义函数(DH 09.05 的 NER)
0:15:20
- [ ]精确度与召回率以及将人物添加到大屠杀 NER 管道(命名实体识别 DH 09.06)
0:26:02
- [ ]完成大屠杀 NER 管道(DH 09.07 的命名实体识别)
0:14:16
- [ ]古典拉丁语命名实体识别(NER for DH 10.01)
0:55:30
- [ ]如何打包 spaCy 模型(即使使用自定义工厂)(DH 11 的 NER)
0:15:31
- [ ] SpaCy 简介及数据清洗(DH 的 SpaCy 和 Python 教程 - 01)
-
[📺]十亿级近似最近邻搜索
-
[📺]最小编辑距离动态规划
-
[📺 ]名字代表什么?快速模糊字符串匹配 - Seth Verrinder & Kyle Putnam - Midwest.io 2015
-
[📺] 1 + 1 = 1 或使用 Python 进行记录重复数据删除 | Flávio Juvenal @ PyBay2018
-
[📺] Librosa 使用 Python 进行音频和音乐信号分析 | SciPy 2015 | Brian McFee
-
- [ ] 1- 使用 Python 进行音频深度学习:课程概述
0:08:02
- [ ] 2- 人工智能、机器学习和深度学习
0:31:15
- [ ] 3- 从头实现人工神经元
0:19:05
- [ ] 4- 向量和矩阵运算
0:25:51
- [ ] 5- 神经网络中的计算
0:23:19
- [ ] 6- 使用 Python 从头实现神经网络
0:21:03
- [ ] 7- 训练神经网络:反向传播和梯度下降
0:21:41
- [ ] 8- 训练神经网络:从头实现反向传播和梯度下降
1:03:00
- [ ] 9- 如何用 TensorFlow 2 实现一个(简单的)神经网络
0:24:37
- [ ] 10 - 理解深度学习的音频数据
0:32:55
- [ ] 11- 深度学习的音频数据预处理
0:25:05
- [ ] 12- 音乐流派分类:准备数据集
0:37:45
- [ ] 13- 实现音乐流派分类的神经网络
0:33:25
- [ ] 14- 解决神经网络中的过拟合问题
0:26:29
- [ ] 15- 卷积神经网络简单解释
0:35:23
- [ ] 16- 如何实现 CNN 进行音乐流派分类
0:49:10
- [ ] 17- 循环神经网络简单解释
0:28:35
- [ ] 18- 轻松解释长短期记忆(LSTM)网络
0:28:08
- [ ] 19- 如何实现 RNN-LSTM 网络进行音乐流派分类
0:14:29
- [ ] 1- 使用 Python 进行音频深度学习:课程概述
-
- [ ] AIR-2021课程介绍
0:21:39
- [ ] IR 速成课程 - 基础知识
0:46:31
- [ ] IR速成课程 - 评估
0:37:15
- [ ] IR 速成课程 - 测试集
0:51:12
- [ ]词汇表征学习
0:42:02
- [ ]使用 CNN 和 RNN 进行序列建模
0:55:04
- [ ] Transformer 和 BERT 预训练
0:47:15
- [ ]神经重排序简介
0:59:20
- [ ] Transformer 语境化重排序
0:49:06
- [ ]特定领域的应用
0:38:32
- [ ]密集检索 ❤ 知识提炼
0:59:28
- [ ] AIR-2021课程介绍
-
[📺]密集文本表示简介
- [ ]密集文本表示简介 - 第一部分
0:12:56
- [ ]密集文本表示简介 - 第 2 部分
0:23:13
- [ ]密集文本表示简介 - 第 3 部分
0:38:07
- [ ]训练最先进的句子嵌入模型
0:43:43
- [ ]密集文本表示简介 - 第一部分
-
[📺 ]反馈分析中的 NLP - 岳宁
-
[📺] AppliedMachine Learning 2020 - 15 - 处理文本数据
1:27:08
-
[📺] AppliedMachine Learning 2020 - 16 - 文本数据的主题模型
1:18:34
-
[📺] AppliedMachine Learning 2020 - 17 - 词向量和文档嵌入
1:03:04
-
[📺]话语表征理论简介
-
[📺 ] Huggingface 课程第 1 部分
-
[📺 ]我们应该关心语言学吗?
-
[📺]从零开始的变形金刚
- [ ]如何使用 HuggingFace 的数据集 - 从头开始构建 Transformers #1
0:14:21
- [ ]构建自定义 Transformer Tokenizer - 从头开始构建 Transformers #2
0:14:17
- [ ]构建 MLM 训练输入管道 - 从头开始构建 Transformers #3
0:23:11
- [ ]训练和测试意大利语 BERT - 从头开始的 Transformers #4
0:30:38
- [ ]如何使用 HuggingFace 的数据集 - 从头开始构建 Transformers #1
熟悉多模态机器学习
-
- [ ]讲座 1.1:课程介绍
- [ ]讲座 1.2:多模态应用和数据集
- [ ]讲座 2.1:基本概念:神经网络
- [ ]讲座 2.2:基本概念:网络优化
- [ ]讲座 3.1:视觉单峰表征
- [ ]讲座 3.2:语言单模态表征
- [ ]讲座 4.1:多模态表征学习
- [ ]讲座 4.2:协调表示
- [ ]讲座 5.1:多模态比对
- [ ]讲座 5.2:对齐和表示
- [ ]讲座 7.1:对齐与翻译
- [ ]讲座 7.2:概率图模型
- [ ]讲座 8.1:判别图模型
- [ ]讲座 8.2:深度生成模型
- [ ]讲座 9.1:强化学习
- [ ]讲座 9.2:多模态强化学习
- [ ]讲座 10.1:融合与共同学习
- [ ]讲座 10.2:新的研究方向
熟悉推荐系统
能够实现计算机视觉模型
-
[📰]卷积神经网络的常见架构
-
[📰]卷积神经网络
-
[📰]理解深度卷积网络的感受野
-
[📰]物体检测概述:单阶段方法
-
[📰]语义图像分割概述
-
[📰]评估图像分割模型
-
[📰]神经网络时代的语义分割
-
[📰]群组规范化
-
[📰]生成对抗网络简介
-
[📰]人体姿势估计
-
[📰]从头构建图像搜索服务
-
[📰]非组合
-
[📰] OCR 简介
-
[📰] ECCV 2020:一些亮点
-
[ ] AWS:语义分割详解
-
[ ] Coursera:卷积神经网络
-
[💻] Python 中的图像处理
-
[G]机器学习实习:图像分类
-
- [ ] CS231n 2016 年冬季:讲座 1:简介和历史背景
1:19:08
- [ ] CS231n 2016 年冬季:讲座 2:数据驱动方法、kNN、线性分类 1
0:57:28
- [ ] CS231n 2016 年冬季:讲座 3:线性分类 2、优化
1:11:23
- [ ] CS231n 2016 年冬季:讲座 4:反向传播,神经网络 1
1:19:38
- [ ] CS231n 2016 年冬季:讲座 5:神经网络第 2 部分
1:18:37
- [ ] CS231n 2016 年冬季:讲座 6:神经网络第 3 部分 / 卷积神经网络简介
1:09:35
- [ ] CS231n 2016 年冬季:讲座 7:卷积神经网络
1:19:01
- [ ] CS231n 2016 年冬季:讲座 8:定位与检测
1:04:57
- [ ] CS231n 2016 年冬季:第 9 讲:可视化、Deep Dream、神经风格、对抗性示例
1:18:20
- [ ] CS231n 2016 年冬季:第 10 讲:循环神经网络、图像字幕、LSTM
1:09:54
- [ ] CS231n 2016 年冬季:讲座 11:实践中的卷积网络
1:15:03
- [ ] CS231n 2016 年冬季:讲座 12:深度学习库
1:21:06
- [ ] CS231n 2016 年冬季:讲座 14:视频和无监督学习
1:17:36
- [ ] CS231n 2016 年冬季:讲座 13:分割、软注意力、空间变换器
1:10:59
- [ ] CS231n 2016 年冬季:讲座 15:Jeff Dean 特邀演讲
1:14:49
- [ ] CS231n 2016 年冬季:讲座 1:简介和历史背景
-
[📺]自动编码器 - 解释
0:10:53
-
[📺]使用神经网络构建图像字幕
0:12:54
-
[📺]卷积神经网络 - 解释
0:19:20
-
[📺]深度可分离卷积 - 更快的卷积!
0:12:43
-
[📺]生成对抗网络 - 未来主义和有趣的人工智能!
0:14:20
-
[📺]卷积的工作原理
-
[📺 ]基于掩模区域的卷积神经网络 - 解释!
0:09:34
-
[📺]使用卷积神经网络播放声音
0:11:57
-
[📺]卷积神经网络的演进
0:24:02
-
[📺]人脸生成的演变 | GAN 的演变
0:12:23
-
[📺]高效扩展的卷积网络
0:13:19
-
[📺]从头实现 ResNet
-
[📺]使用 CycleGAN 进行非配对图像到图像的翻译
0:16:22
-
[📺 ] MathSeer 项目中的公式索引、搜索和输入
0:52:07
-
[📺]计算机视觉领域的新进展 | 七月昆士兰人工智能
1:21:33
能够对图形和网络数据进行建模
能够实现时间序列和预测模型
-
Python时间序列分析简介
-
[💻] Python 中的财务预测
-
[💻] Python 中的欺诈检测
-
[💻] Python 投资组合分析简介
-
[💻] Python 中的信用风险建模
-
[🅤]ꭏ机器学习在交易中的应用
-
[🅤]ꭏ时间序列预测
-
[📺]应用机器学习 2020-21-时间序列和预测
1:12:36
熟悉强化学习的基础知识
-
- [ ]强化学习系列介绍 - 课程大纲概述
0:05:51
- [ ]马尔可夫决策过程 (MDP) - 构建强化学习问题
0:06:34
- [ ]预期回报 - 什么驱动 MDP 中的强化学习代理
0:06:47
- [ ]策略和价值函数 - 强化学习代理的良好行动
0:06:52
- [ ]强化学习算法学什么 - 最优策略
0:06:21
- [ ] Q-Learning 详解 - 一种强化学习技术
0:08:37
- [ ]探索与利用 - 学习最优强化学习策略
0:10:06
- [ ] OpenAI Gym 和 Python 用于 Q-learning - 强化学习代码项目
0:07:52
- [ ]使用 Python 训练 Q-learning Agent - 强化学习代码项目
0:08:59
- [ ]观看 Q-learning Agent 使用 Python 玩游戏 - 强化学习代码项目
0:07:22
- [ ]深度Q学习——结合神经网络和强化学习
0:10:50
- [ ]重放记忆详解 - 深度 Q 网络训练经验
0:06:21
- [ ]训练深度Q网络 - 强化学习
0:09:07
- [ ]训练具有固定 Q 目标的深度 Q 网络 - 强化学习
0:07:35
- [ ] Deep Q-Network 代码项目介绍 - 强化学习
0:06:26
- [ ]构建深度Q网络 - 强化学习代码项目
0:16:51
- [ ]深度Q网络图像处理与环境管理 - 强化学习代码项目
0:21:53
- [ ]深度Q网络训练代码 - 强化学习代码项目
0:19:46
- [ ]强化学习系列介绍 - 课程大纲概述
能够执行超参数调整
-
[ ]训练神经网络的秘诀
-
[📰]机器学习模型的超参数调整
-
[📰]超参数调优黑客指南
-
[📰]环境和分布转变
-
[💻] Python 中的模型验证
-
[G]测试和调试
-
[ ]深度神经网络故障排除
-
[📺 ] GPU 如何加速神经网络训练?
0:08:19
-
[📺 ]为什么要在神经网络中使用 GPU?
0:09:43
熟悉模型可解释性的文献
-
[📰]模型解释框架
-
[📺] SE4AI:可解释性和可解读性(第 1 部分)
1:17:45
-
[📺] SE4AI:可解释性和可解读性(第 2 部分)
1:21:50
能够优化推理模型
-
[📰] NLP 中模型压缩方法综述
-
[📰]神经网络修剪
-
[📰] FasterAI
能够编写单元测试
-
[📰]机器学习系统的有效测试
-
[📰]数据科学家的单元测试
-
[📰]安全的生产测试
-
[🅤]ꭏ软件分析与测试
-
[🅤]ꭏ软件测试
-
[🅤]ꭏ软件调试
-
[📺 ]讲座 10:机器学习测试与可解释性(全栈深度学习 - 2021 年春季)
1:41:12
-
[📺]实验 8:测试和持续集成(全栈深度学习 - 2021 年春季)
0:13:26
熟悉机器学习系统设计
-
[📰]构建机器学习管道
-
[📰]结合规则引擎和机器学习
-
[📰]部署机器学习模型:清单
-
[📰]将机器学习投入生产
-
[📰]机器学习到生产
-
[📰]机器学习正在走向实时化
-
如何部署机器学习模型
-
[📰]构建特征存储
-
[📰]模型文物:战争故事
-
[📰]机器学习系统设计
-
[📰]什么是机器学习模型治理?
-
[📰]保护机器学习应用程序
-
[📰]数据管道 - 敏捷考虑
-
[📰]数据沿袭 — 运营视角
-
[📰]模型再训练终极指南
-
[📖]机器学习系统设计
-
[ ]文档:讲座 3:数据工程
-
[💻]人人皆可参与的数据工程
-
[📺]在生产中应用机器学习
- [ ]目标 · 在生产中应用机器学习
0:02:38
- [ ]解决方案 · 在生产中应用机器学习
0:08:53
- [ ]评估 · 在生产中应用机器学习
0:04:02
- [ ]迭代 · 在生产中应用机器学习
0:04:35
- [ ]注释·生产环境中应用机器学习
0:14:34
- [ ]探索性数据分析 (EDA) · 生产中的应用机器学习
0:09:02
- [ ]目标 · 在生产中应用机器学习
-
[📺] SE4AI:人工智能系统的软件架构
1:14:24
-
[📺] SE4AI:特邀演讲 Molham Aref “机器学习的商业系统”
0:47:53
-
[📺] MLOps #4:Shubhi Jain - 构建机器学习平台 @SurveyMonkey
0:55:42
-
[📺] MLOps 聚会 #6:与 Venkata Pingali 博士一起进行中型生产特征工程
1:01:35
-
[📺] MLOps 聚会 #5 与 Flavio CLesio 一起探讨高风险机器学习
0:55:27
-
[📺] MLOps 聚会 #7 Alex Spanos // TrueLayer 的 MLOps 管道
0:56:17
-
[📺] #11 与 Carlos de la Torre 在 Mercado Libre 进行大规模机器学习
0:59:28
-
[📺] MLOps #14:Kubeflow 与 MLflow 对比(Byron Allen 著)
0:54:57
-
[📺] MLOps #15 - 与 Robert Munro 一起扩展人机交互机器学习
0:55:04
-
[📺 ] MLOps #18 // Nubank - 在机器学习上运行金融科技
0:53:19
-
[📺]特征存储:机器学习堆栈中构建优质数据的重要组成部分 / Kevin Stumpf - Tecton 首席技术官
1:05:46
-
[📺] MLOps #31 机器学习的生产和货币化之路 // Vin Vashishta - 数据科学家
0:56:35
-
[📺] MLOps #35:使用 Apache Kafka 和分层存储进行流式机器学习 // Kai Waehner,Confluent
0:52:50
-
[📺] Luigi 在生产中的应用 // MLOps Coffee Sessions #18 // Luigi Patruno 机器学习在生产中的应用
0:47:23
-
[📺 ]当前的 MLOps 格局 // Nathan Benaich 和 Timothy Chen // MLOps 聚会 #43
0:58:31
-
[📺 ] MLSys 研讨会 2020 年秋季
- [ ]斯坦福 MLSys 研讨会第 0 集:机器学习 + 系统
0:11:49
- [ ]斯坦福 MLSys 研讨会第 1 集:Marco Tulio Ribeiro
1:00:38
- [ ]斯坦福 MLSys 研讨会第 2 集:Matei Zaharia
0:59:44
- [ ]斯坦福 MLSys 研讨会第 3 集:Virginia Smith
1:00:55
- [ ]斯坦福 MLSys 研讨会第 4 集:Alex Ratner
1:13:34
- [ ]斯坦福 MLSys 研讨会第 5 集:Chip Huyen
1:06:44
- [ ]斯坦福 MLSys 研讨会第 0 集:机器学习 + 系统
-
[📺]系统设计简介
-
[📺] NoSQL 数据库简介
-
[📺 ]什么是 API 以及如何设计它?
-
[📺]微服务中的服务发现和心跳
-
[📺 ]什么是负载均衡?
-
[📺 ]什么是微服务架构及其优势?
-
[📺 ]什么是消息队列以及它在哪里使用?
-
[📺 ]什么是数据库分片?
-
[📺 ]什么是发布者订阅者模型?
-
[📺 ]什么是事件驱动系统?
-
[📺 ]什么是 API 以及如何设计它?
-
[📺]微服务中的服务发现和心跳
能够服务机器学习模型
-
[📰]使用 PyTorch、Hugging Face 的 Transformers 和 FastAPI 将 BERT 部署为 REST API 进行情绪分析
-
[📰]指数退避和抖动
-
[📰]如何服务模型
-
[📰]批量推理 vs 在线推理
-
[📰]影子模式部署
-
[ ] Cortex 博客
- [ ]服务器端批处理:扩展机器学习中的推理吞吐量
- [ ]我们如何以 0.47 美元的价格在 GPU 上提供 1,000 个模型
- [ ]为数据科学家和工程师设计一个机器学习平台
- [ ]如何使用 TensorFlow Serving 进行批量预测
- [ ]如何部署 Transformer 模型用于语言任务
- [ ]我们如何在 Kubernetes 上扩展机器学习模型部署
- [ ]为什么我们构建了无服务器机器学习平台——而不是使用 AWS Lambda
- [ ]为什么我们不使用 Flask 部署机器学习模型
- [ ]如何将机器学习模型从笔记本部署到生产环境
- [ ]在生产环境中对机器学习模型进行 A/B 测试
- [ ]如何使用 TensorFlow Serving 在一个 CPU 上部署 1,000 个模型
- [ ]如何降低机器学习推理的成本
- [ ]使用 ONNX 和 Hugging Face 将 NLP 推理吞吐量提高 40 倍
- [ ]如何将 PyTorch Lightning 模型部署到生产环境
-
[ ] Django 最佳实践
-
[🅤]ꭏ身份验证和授权:OAuth
-
[🅤]ꭏ HTTP 和 Web 服务器
-
[🅤]ꭏ设计 RESTful API
-
[🅤]ꭏ客户端-服务器通信
-
[📺 ]讲座 11A:部署机器学习模型(全栈深度学习 - 2021 年春季)
0:53:25
-
[📺 ]使用 KFserving 进行实践服务模型 // Theofilos Papapanagiotou // MLOps 聚会 #40
0:57:40
能够设置批量推理
-
[📰] Celery 任务单元测试
-
[📰]测试 Celery 链
-
[📰] Celery 中的任务路由
-
[📰] Celery 中的动态任务路由
-
[📰] Celery 任务异常和自动重试
-
[📰]并发与并行
能够为模型构建交互式UI
能够使用 Docker 进行容器化
-
Docker中的 Tensorflow
-
[📰] Docker 数量过多,危险
-
Docker 在机器学习中的应用– 第一部分
-
Docker 在机器学习中的应用– 第三部分
-
生产环境中有哪些应用在运行?让你的 Docker 镜像可识别
-
Kubernetes机器学习作业
-
Kubernetes CronJobs 用于机器学习
-
Kubernetes机器学习服务
-
面向 Python 开发人员的 Kubernetes:第一部分
-
Docker
-
为什么你的 Web 服务器应该将日志记录到Stdout (尤其是使用 Docker 时)
能够使用云
-
[💻]人人享有云计算
-
[ ] Udemy:AWS 概念
熟悉无服务器架构
能够监控机器学习模型
-
如何监控模型
-
[📰]监控你的机器学习模型
-
[📰]使用 Github Actions 和 Algorithmia Insights 进行持续监控和部署,防止模型漂移
-
[📰]持续监控数据项目
-
[📰]数据科学的质量保证
-
[📰]机器学习系统中的事件管理
-
[📺] MLOps #24 监控机器学习堆栈 // Lina Weichbrodt
0:55:32
-
[📺 ]讲座 11B:监控机器学习模型(全栈深度学习 - 2021 年春季)
0:36:55
-
[📺] MLOps #28 机器学习可观察性 // Aparna Dhinakaran - Arize AI 首席产品官
0:55:04
-
[📺] MLOps #29 持续评估与模型实验 // Danny Ma - 悉尼数据科学创始人
1:00:46
-
[📺] SE4AI:生产中的质量评估
1:18:45
-
[📺] SE4AI:基础设施质量、部署和运营
1:04:54
能够执行负载测试
能够进行 A/B 测试
-
Python中的客户分析和 A/B 测试
-
[🅤]ꭏ A/B 测试
-
[🅤]ꭏ业务分析师的 A/B 测试
-
[📺]数据科学中的假设检验应用
0:10:33
精通 Python
-
[📰] Python 并发:棘手的部分
-
[📖]简明 Python 教程
-
[📖]艰难地学习 Python
-
[📖] Python 201
-
[📖] Python 3 标准库示例
-
[ ] Calmcode: 射线
-
Python数据科学工具箱(第一部分)
-
Python数据科学工具箱(第 2 部分)
-
[💻]金融 Python 入门
-
[📺] Python 并发和多线程
-
[📺] Python 中的整洁架构
对堆栈的其他部分有大致的了解
-
[📖]重构 UI
-
[ ]代码学校:设计基础
-
[ ]树屋:HTML
-
[🅤]ꭏ ES6 - JavaScript 改进
-
[🅤]ꭏ Javascript 简介
-
[🅤]ꭏ面向对象 JS 1
-
[🅤]ꭏ面向对象 JS 2
熟悉基本的计算机科学概念
-
[📖]探索算法
-
[ ] Codecademy:大O
-
[ ]速成课程:计算机科学
-
[ ]可汗学院:数据结构
-
[🅤]ꭏ算法简介
-
[🅤]ꭏ计算机科学简介
-
[🅤]ꭏ理论计算机科学简介
-
[🅤]ꭏ编程语言
-
[🅤]ꭏ Web 开发者网络
能够应用适当的软件工程流程
-
[ ] Thoughtbot:重构
-
[🅤]ꭏ计算机程序设计
-
[🅤]ꭏ产品设计
-
[🅤]ꭏ快速原型制作
-
[🅤]ꭏ软件开发流程
能够高效使用文本编辑器
-
[⚙]和 GitHub
能够良好地沟通和协作
-
[G]技术写作
-
[📖]情商
-
[📖]如何赢得朋友和影响他人
-
[📖]影响力:说服心理学
-
[📖]新的一分钟经理
-
[ ] Calmcode:远程工作
熟悉招聘渠道
-
[📰]系统设计面试指南
-
[📰]冷邮件指南
-
[📰] Uber 数据科学面试
-
[📰] Google 数据科学面试
-
[📰] Facebook 数据科学面试
-
[📰]数据科学面试技巧(二)
-
[📰]亚马逊数据科学面试
-
[📰]微软数据科学面试
-
[📰]微软数据科学面试
-
[📰] LinkedIn 数据科学面试
-
[📰] Netflix 数据科学面试
-
[📰]沃尔玛数据科学面试
-
[📰] Twitter 数据科学面试
-
[📰] Ebay 数据科学面试
-
[📰] Zillow 数据科学面试
-
[📰]英特尔数据科学面试
-
[📰] Adobe 数据科学面试
-
[📰]特斯拉数据科学面试
-
[📰] IBM 数据科学面试
-
[📰] Paypal 数据科学面试
-
[📰] Airbnb 数据科学面试
-
[📰] Spotify 数据科学面试问题
-
[📰] Yelp 数据科学面试
-
[📰] Twitch 数据科学面试
-
[📰] Oracle 数据科学面试
-
[📰] Citrix 数据科学面试
-
[📰] Quora 数据科学面试
-
[📰] Splunk 数据科学面试
-
[📰]摩根大通数据科学面试
-
[📰] Stripe 数据科学面试问题
-
[📰] Box 数据科学面试
-
Instacart数据科学面试题
-
[📰] Square 数据科学面试
-
[📰] AmEx 数据科学面试
-
[📰]花旗银行数据科学面试
-
[📰] Sprint 数据科学面试
-
[📰] Lyft 数据科学面试
-
[📰] Expedia 数据科学面试
-
[📰] Shopify 数据科学面试问题
-
[📰]高盛数据科学面试
-
[📰] Workday 数据科学面试
-
[📰]数据科学面试技巧
-
[📰]数据科学面试问题分析
-
[📰] Visa 数据科学面试
-
[📖]机器学习面试
-
用Python练习机器学习面试题
-
[💻] Kaggle 竞赛
-
[🅤]ꭏ优化你的 GitHub
-
[🅤]ꭏ数据科学面试准备
-
[🅤]ꭏ全栈面试准备
-
[🅤]ꭏ刷新你的简历
-
[🅤]ꭏ撰写你的求职信
-
[🅤]ꭏ技术面试
拓宽视野
-
[📖]原子习惯
-
[📖]深度工作
-
[📖]异类:成功的故事
-
[📖]富爸爸穷爸爸
-
[📖]破产的力量
-
[📖] 10X 规则
-
[📖]百万富翁快车道
-
[📖]不在乎的微妙艺术
-
[ ] Calmcode:番茄工作法
-
[📺] Social Capital 创始人兼首席执行官 Chamath Palihapitiya 认为金钱是变革的工具
-
[📺 ]如何与杰克·布彻一起建立个人垄断
-
[📺]如何使用 Twitter