吴恩达 深度学习

文摘   科学   2023-07-21 11:15   加拿大  

你可能会怀疑这个计划是否适合你,

担心自己没有时间,或者害怕自己无法坚持下去?

开始一项新事物可能会让人望而生畏。



深度学习专业:

  • 模块简洁明了,便于自学。

  • 介绍实用技术,帮助你开始人工智能项目并开发行业组合。

  • 拥有 100 万学习者社区,为你提供支持和指导。

  • 将基础概念分解为通俗易懂的讲座和引人入胜的作业。

  • 紧跟机器学习的前沿。

  • 被 120K+ 学员评为 4.9 分(满分 5 分),是 Coursera 上最受欢迎的数据科学课程之一。



你将获得的技能:

构建和训练深度神经网络,确定关键架构参数,在应用程序中实施矢量化神经网络和深度学习。

训练测试集,分析 DL 应用的差异,使用标准技术和优化算法,在 TensorFlow 中构建神经网络。

构建 CNN 并将其应用于检测和识别任务,使用神经风格转移生成艺术,并将算法应用于图像和视频数据。

构建和训练 RNN,使用 NLP 和单词嵌入,使用 HuggingFace tokenizer 和转换器模型执行 NER 和问题解答。

  • 张量流

  • 人工神经网络

  • 卷积神经网络

  • 递归神经网络

  • 变压器

  • Python 编程

  • 深度学习

  • 反向传播

  • 优化

  • 超参数调整

  • 机器学习

  • 迁移学习

  • 多任务学习

  • 物体检测与分割

  • 人脸识别系统

  • 门控循环单元 (GRU)

  • 长短期记忆 (LSTM)

  • 注意力模型

  • 自然语言处理



第一门课 神经网络和深度学习


第一周:深度学习引言

Introduction to Deep Learning

1.1 欢迎(Welcome)

1.2 什么是神经网络?(What is a Neural Network)

1.3 神经网络的监督学习 (Supervised Learning with Neural Networks)

1.4 为什么神经网络会流行?(Why is Deep Learning taking off?)

1.5 关于本课程 (About this Course)

1.6 课程资源 (Course Resources)

1.7 Geoffery Hinton 专访 (Geoffery Hinton interview)


第二周:神经网络的编程基础

Basics of Neural Network programming

2.1 二分类(Binary Classification)

2.2 逻辑回归(Logistic Regression)

2.3 逻辑回归的代价函数(Logistic Regression Cost Function)

2.4 梯度下降(Gradient Descent)

2.5 导数(Derivatives)

2.6 更多的导数例子(More Derivative Examples)

2.7 计算图(Computation Graph)

2.8 计算图导数(Derivatives with a Computation Graph)

2.9 逻辑回归的梯度下降(Logistic Regression Gradient Descent)

2.10 梯度下降的例子(Gradient Descent on m Examples)

2.11 向量化(Vectorization)

2.12 更多的向量化例子(More Examples of Vectorization)

2.13 向量化逻辑回归 (Vectorizing Logistic Regression)

2.14 向量化逻辑回归的梯度计算(Vectorizing Logistic Regression's Gradient)

2.15 Python中的广播机制(Broadcasting in Python)

2.16 关于 Python与numpy向量的使用(A note on python or numpy vectors)

2.17 Jupyter/iPython Notebooks快速入门(Quick tour of Jupyter/iPython Notebooks)

2.18 逻辑回归损失函数详解(Explanation of logistic regression cost function)


第三周:浅层神经网络

Shallow neural networks

3.1 神经网络概述(Neural Network Overview)

3.2 神经网络的表示(Neural Network Representation)

3.3 计算一个神经网络的输出(Computing a Neural Network's output)

3.4 多样本向量化(Vectorizing across multiple examples)

3.5 向量化实现的解释(Justification for vectorized implementation)

3.6 激活函数(Activation functions)

3.7 为什么需要非线性激活函数?(why need a nonlinear activation function?)

3.8 激活函数的导数(Derivatives of activation functions)

3.9 神经网络的梯度下降(Gradient descent for neural networks)

3.10(选修)直观理解反向传播(Backpropagation intuition)

3.11 随机初始化(Random+Initialization)


第四周:深层神经网络

Deep Neural Networks

4.1 深层神经网络(Deep L-layer neural network)

4.2 前向传播和反向传播(Forward and backward propagation)

4.3 深层网络中的前向和反向传播(Forward propagation in a Deep Network)

4.4 核对矩阵的维数(Getting your matrix dimensions right)

4.5 为什么使用深层表示?(Why deep representations?)

4.6 搭建神经网络块(Building blocks of deep neural networks)

4.7 参数VS超参数(Parameters vs Hyperparameters)

4.8 深度学习和大脑的关联性(What does this have to do with the brain?)




计算语言实践基地
贝贝成,专注于计算语言学领域。