49


====
论文
====

======
Python
=====
=

=========
Tensorflow
=========

=======
PyTorch
=======

=====
Keras
=====

====
专题
====

====
链接
====

====
视频

====

=======
药物设计

=======

=======
材料科学
=======

============
经济学与金融学
==========
==



===
=

李沐
===
=



李沐的paper reading

动手学深度学习v2

01 课程安排 || B站 02 深度学习介绍 || B站
03 安装 || B站 04 数据操作 + 数据预处理 || B站
05 线性代数 || B站 06 矩阵计算 || B站
07 自动求导 || B站 08 线性回归 + 基础优化算法 || B站
09 Softmax 回归 + 损失函数 + 图片分类数据集 || B站 10 多层感知机 + 代码实现 - 动手学深度学习v2 || B站
11 模型选择 + 过拟合和欠拟合 || B站 12 权重衰退 || B站
13 丢弃法 || B站 14 数值稳定性 + 模型初始化和激活函数 || B站
15 实战:Kaggle房价预测 + 课程竞赛:加州2020年房价预测 || B站 16 PyTorch 神经网络基础 || B站
17 使用和购买 GPU || B站 18 预测房价竞赛总结 || B站
19 卷积层 || B站 20 卷积层里的填充和步幅 || B站
21 卷积层里的多输入多输出通道 || B站 22 池化层 (Bilibli)
23 经典卷积神经网络 LeNet || B站 24 深度卷积神经网络 AlexNet || B站
25 使用块的网络 VGG || B站 26 网络中的网络 NiN || B站
27 含并行连结的网络 GoogLeNet / Inception V3 || B站 28 批量归一化 || B站
29 残差网络 ResNet || 29.2 ResNet为什么能训练出1000层的模型 || B站 30 第二部分完结竞赛:图片分类 || B站
31 深度学习硬件:CPU 和 GPU ||B站 32 深度学习硬件:TPU和其他 || B站
33 单机多卡并行 || B站 34 多GPU训练实现 || B站
35 分布式训练 || B站 36 数据增广 || B站
37 微调 || B站 38 第二次竞赛 树叶分类结果 || B站
39 实战 Kaggle 比赛:图像分类(CIFAR-10) || B站 40 实战 Kaggle 比赛:狗的品种识别(ImageNet Dogs) || B站
41 物体检测和数据集 || B站 42 锚框 || B站
43 树叶分类竞赛技术总结 || B站 44 物体检测算法:R-CNN,SSD,YOLO || B站
45 SSD实现 || B站 46 语义分割和数据集 || B站
47 转置卷积 || B站 48 全连接卷积神经网络 FCN || B站
49 样式迁移 || B站 50 课程竞赛:牛仔行头检测 B站
51 序列模型 || B站 52 文本预处理 || B站
53 语言模型 || B站 54 循环神经网络 RNN B站
55 循环神经网络 RNN 的实现 || B站 56 门控循环单元(GRU) || B站
57 长短期记忆网络(LSTM) || B站 58 深层循环神经网络 || B站
59 双向循环神经网络 || B站 60 机器翻译数据集 || B站
61 编码器-解码器架构【动手学深度学习v2 (Bilibli) 62 序列到序列学习(seq2seq) || B站
63 束搜索 || B站 64 注意力机制 || B站
65 注意力分数 || B站 66 使用注意力机制的seq2seq || B站
67 自注意力 || B站 68 Transformer || B站
69 BERT预训练 || B站 70 BERT微调 || B站
71 目标检测竞赛总结 || B站 72 优化算法 || B站
【完结】73 - 课程总结和进阶学习 || B站  
   
   
   

 

文章精讲

/d2l-zh

   
   
   
   
Deepmind用机器学习指导数学直觉论文逐段精读【论文精读】 || B站 如何判断(你自己的)研究工作的价值【论文精读】|| B站
DETR 逐段精读 AlphaFold 2 论文精读【论文精读】 || B站
Megatron LM 逐段精读 GPipe 逐段精读
Pathways 逐段精读 视频理解论文串讲(下)|| B站
参数服务器(Parameter Server) 逐段精读 视频理解论文串讲(上) || B站
I3D 论文精读 || B站 斯坦福 2022 年 AI 指数报告 精读
AlphaCode 论文精读 || B站 OpenAI Codex 论文精读【论文精读】 || B站
GPT,GPT-2,GPT-3 论文精读【论文精读】 || B站 Two-Stream 逐段精读 || B站
CLIP 逐段精读 || B站 你(被)吐槽过论文不够 novel 吗?【论文精读】 || B站
对比学习论文综述 || B站 MoCo 逐段精读 || B站
如何找研究想法 1 MAE 论文逐段精读【论文精读】|| B站
ViT论文逐段精读【论文精读】 || B站 BERT 论文逐段精读【论文精读】|| B站
GAN论文逐段精读【论文精读】|| B站 零基础多图详解图神经网络(GNN/GCN)|| B站
Transformer论文逐段精读 || B站 ResNet 论文逐段精读 || B站
撑起计算机视觉半边天的 ResNet || B站 AlexNet 论文逐段精读 || B站
9年后重读深度学习奠基作之一:AlexNet || B站 如何读论文 || B站

 

动手学深度学习【斯坦福21秋季:实用机器学习中文版 V1】

1.1 课程介绍 || B站 1.2 数据获取 || B站
1.3 网页数据抓取 || B站 1.4 数据标注|| B站
2.1 探索性数据分析 || B站 2.2 数据清理
2.3 数据变换 2.4 特征工程
2.5 数据科学家的日常  
3.1 8分钟机器学习介绍 || B站 3.2 最简单也最常用的决策树    
3.3 最简单也同样最常用的线性模型 3.4 随机梯度下降 || B站
3.5 多层感知机 3.6 卷积神经网络
3.7 循环神经网络 || B站  
4.1 模型评估 || B站 4.2 过拟合和欠拟合
4.3 模型验证 || B站  
   
5.1 方差和偏差 5.2 Bagging || B站
5.3 Boosting || B站 5.4 Stacking || B站
   
   
   
9.1 模型调参 || B站 9.2 超参数优化
9.3 网络架构搜索 || B站  
   
   
10.1 深度神经网络架构 || B站  
   
11.1 迁移学习 || B站  
11.2 NLP中的微调 || B站  
   
   
   
   
   
   
   
   
   
   

 

李沐

李沐于2004年进入上海交通大学计算机科学与工程系进行本科学习 ;2009年至2010年担任香港科技大学研究助理;2011年至2012年担任百度高级研究员;2012年至2017年在美国卡内基梅隆大学攻读博士学位 。2019年编著的《动手学深度学习》出版。 李沐是深度学习框架MXNet的作者之一。他先后担任过机器学习创业公司Marianas Labs的CTO和百度深度学习研究院的主任研发架构师。他在理论、机器学习、应用和操作系统等多个领域的顶级学术会议(包括FOCS、ICML、NeurIPS、AISTATS、CVPR、KDD 、WSDM、OSDI)上发表过论文

上海市浦东新区沪城环路999号