课程↓推荐
2、基于“SWMM+慧天”高效建模技术及在排水防涝、海绵城市设计中应用高级培训班
3、五天教学:基于AI+多技术融合在流域生态系统服务评价、水文水生态分析、碳收支、气候变化影响、制图等领域中的实践应用高级培训班
4、2024最新全流程Python编程、机器学习与深度学习实践技术
5、深度学习全景进阶暨最新python深度学习进阶与前沿应用高级培训班
6、2025年国自然基金项目撰写技巧与ChatGPT融合应用
详细信息、微信咨询:19912110290
全流程基于GIS、Python机器学习技术的地质灾害风险评价、易发性分析与信息化建库及灾后重建中的实践应用高级培训班
本课程将结合项目实践案例和科研论文成果进行讲解。入门篇,ArcGIS软件的快速入门与GIS数据源的获取与理解;方法篇,致灾因子提取方法、灾害危险性因子分析指标体系的建立方法和灾害危险性评价模型构建方法;拓展篇,GIS在灾害重建中的应用方法;高阶篇:Python环境中利用机器学习进行灾害易发性评价模型的建立与优化方法。
学习本课程,您将进一步理解地质灾害形成机理与成灾模式;从空间数据处理、信息化指标空间数据库构建、致灾因子提取,空间分析、危险性评价与制图分析等方面掌握GIS在灾害危险性评价中的方法;在具体实践案例中,学会运用地质灾害危险性评价原理和技术方法,同时学会GIS在灾后重建规划等领域的应用方法,提升GIS技术的应用能力水平;从科研论文成果复现中学会论文撰写的技巧,学会基于机器学习进行滑坡易发性评价与精度评估;本课程方案将为滑坡的防灾减灾提供重要的理论依据。
一、培训时间及方式
直播时间:9月19日-20日、23日-25日 【5天】
直播方式:腾讯会议
二、证书及学时
参加培训的学员可以获得《地质灾害危险性评估技术应用》专业技能培训证书及学时证明,网上可查。此证书可作为个人学习和知识更新、单位在职人员专业技能素质培养及单位人才聘用重要参考依据。证书查询网址:www.aishangyanxiu.com
四、课程大纲
上下滑动查看更多
第一章、基本概念与平台讲解【基础篇】
1、基本概念
2、GIS原理与ArcGIS平台介绍
指标因子相关性分析
2、崩塌易发性评价
4、地质灾害易发性综合评价
4、栅格数据获取与处理
5、NC数据获取与处理
6、遥感云计算平台数据获取与处理
相关概念:
一、线性概率模型——逻辑回归
参数优化
四、方法比较分析
注:请提前自备电脑及安装所需软件。
四、联系方式
详细报名流程,请咨询课程负责人
丁依:19912110290(微电)
2、SWMM HOT!
直播时间:2024年9月20日-24日 武汉
培训方式:线下+直播授课+助学群辅助+导师面对面实践工作交流
课程内容:(上下滑动查看更多)
2.SWMM水质模拟功能:介绍SWMM中水质模拟功能、掌握SWMM水质模拟方法
3.利用快速建模方法实现小海绵结构的SWMM建模:实现径流总量控制率及面源污染削减率的计算。
可对指定淹没深度指定淹没时长的区域进行导出,方便进行内涝风险区的划分。
利用耦合模拟结果及GIS软件的制图功能,生成内涝淹没图及风险区划分图。
注:(请提前配置学习所需软件)。
3、AI+多技术融合 HOT!
培训时间:2024年10月20日-22日、28日-29日
培训方式:直播授课+助学群辅助+导师面对面实践工作交流
课程福利:
1:赠送国内可直接登录一个月ChatGPT4.0账号【无需科学上网】。
2:提供全部课程回放视频,建立助学群,长期辅助交流。
课程内容:(上下滑动查看更多)
4、Python编程 HOT!
培训时间:2024年10月16日-20日【南京】
培训方式:线下+直播授课+助学群辅助+导师面对面实践工作交流
课程内容:(上下滑动查看更多)
第一章:Python基础知识串讲
1、Python环境搭建(Python软件下载、安装与版本选择;PyCharm下载、安装;Python之Hello World;第三方模块的安装与使用;Python 2.x与Python 3.x对比)
2、Python基本语法(Python变量命名规则;Python基本数学运算;Python常用变量类型的定义与操作;Python程序注释)
3、Python流程控制(条件判断;for循环;while循环;break和continue关键字;嵌套循环与可变循环)
4、Python函数与对象(函数的定义与调用;函数的参数传递与返回值;变量作用域与全局变量;对象的创建与使用)
5、Matplotlib的安装与图形绘制(设置散点、线条、坐标轴、图例、注解等属性;绘制多图;图的嵌套)
6、科学计算模块库(Numpy的安装;ndarray类型属性与数组的创建;数组索引与切片;Numpy常用函数简介与使用;Pandas常用函数简介与使用)
第二章:PyTorch简介与环境搭建
1、深度学习框架概述(PyTorch、Tensorflow、Keras等)
2、PyTorch简介(PyTorch的版本、动态计算图与静态计算图、PyTorch的优点)
3、PyTorch的安装与环境配置(Pip vs. Conda包管理方式、验证是否安装成功、CPU版与GPU版的安装方法)
第三章:PyTorch编程入门与进阶
1、张量(Tensor)的定义,以及与标量、向量、矩阵的区别与联系)
2、张量(Tensor)的常用属性与方法(dtype、device、layout、requires_grad、cuda等)
3、张量(Tensor)的创建(直接创建、从numpy创建、依据数值创建、依据概率分布创建)
4、张量(Tensor)的运算(加法、减法、矩阵乘法、哈达玛积(element wise)、除法、幂、开方、指数与对数、近似、裁剪)
5、张量(Tensor)的索引与切片
6、PyTorch的自动求导(Autograd)机制与计算图的理解
7、PyTorch常用工具包及API简介(torchvision(transforms、datasets、model)、torch.nn、torch.optim、torch.utils(Dataset、DataLoader))
第四章:Python统计分析与可视化
1、统计数据的描述与可视化(数据的描述性统计:均值、中位数、众数、方差、标准差、极差、四分位数间距等;条形图、直方图、散点图、箱线图等)
2、概率分布与统计推断(离散概率分布:二项分布、泊松分布;连续概率分布:正态分布、均匀分布、指数分布;点估计与区间估计;最大似然估计与贝叶斯估计;假设检验:t检验、卡方检验、F检验;P值与显著性水平等)
3、回归分析(多元线性回归模型;最小二乘法估计;变量选择与模型优化;多重共线性与解决方法;Ridge回归;LASSO回归;ElasticNet回归等)
第五章:Python前向型神经网络
1、BP神经网络的基本原理(人工神经网络的分类有哪些?有导师学习和无导师学习的区别是什么?BP神经网络的拓扑结构和训练过程是怎样的?什么是梯度下降法?BP神经网络建模的本质是什么?)
2、BP神经网络的Python代码实现(怎样划分训练集和测试集?为什么需要归一化?归一化是必须的吗?什么是梯度爆炸与梯度消失?)
3、PyTorch代码实现神经网络的基本流程(Data、Model、Loss、Gradient)及训练过程(Forward、Backward、Update)
4、案例讲解:Linear模型、Logistic模型、Softmax函数输出、BP神经网络
5、实操练习
6、值得研究的若干问题(隐含层神经元个数、学习率、初始权值和阈值等如何设置?什么是交叉验证?过拟合(Overfitting)与欠拟合(Underfitting)、泛化性能评价指标的设计、样本不平衡问题、模型评价与模型选择等)
第六章:Python决策树、随机森林、XGBoost与LightGBM
1、决策树的工作原理(微软小冰读心术的启示;什么是信息熵和信息增益?ID3算法和C4.5算法的区别与联系);决策树除了建模型之外,还可以帮我们做什么事情?
2、随机森林的工作原理(为什么需要随机森林算法?广义与狭义意义下的“随机森林”分别指的是什么?“随机”体现在哪些地方?随机森林的本质是什么?怎样可视化、解读随机森林的结果?)
3、Bagging与Boosting的区别与联系
4、AdaBoost vs. Gradient Boosting的工作原理
5、常用的GBDT算法框架(XGBoost、LightGBM)
6、决策树、随机森林、XGBoost、LightGBM中的ChatGPT提示词库讲解
7、案例讲解:利用ChatGPT4实现决策树、随机森林、XGBoost、LightGBM模型的代码自动生成与运行
8. 实操练习
第七章:变量降维与特征选择
1、主成分分析(PCA)的基本原理
2、偏最小二乘(PLS)的基本原理
3、常见的特征选择方法(优化搜索、Filter和Wrapper等;前向与后向选择法;区间法;无信息变量消除法;正则稀疏优化方法等)
4、遗传算法(Genetic Algorithm, GA)的基本原理(以遗传算法为代表的群优化算法的基本思想是什么?选择、交叉、变异三个算子的作用分别是什么?)
5、SHAP法解释特征重要性与可视化(Shapley值的定义与计算方法、SHAP值的可视化与特征重要性解释)
6、案例讲解与实操练习
第八章:PyTorch卷积神经网络
1、深度学习简介(深度学习大事记:Model + Big Data + GPU + AlphaGo)
2、深度学习与传统机器学习的区别与联系(神经网络的隐含层数越多越好吗?深度学习与传统机器学习的本质区别是什么?)
2、卷积神经网络的基本原理(什么是卷积核、池化核?CNN的典型拓扑结构是怎样的?CNN的权值共享机制是什么?CNN提取的特征是怎样的?)
3、卷积神经网络的进化史:LeNet、AlexNet、Vgg-16/19、GoogLeNet、ResNet等经典深度神经网络的区别与联系
4、利用PyTorch构建卷积神经网络(Convolution层、Batch Normalization层、Pooling层、Dropout层、Flatten层等)
5、卷积神经网络调参技巧(卷积核尺寸、卷积核个数、移动步长、补零操作、池化核尺寸等参数与特征图的维度,以及模型参数量之间的关系是怎样的?)
6、案例讲解与实践:
(1)CNN预训练模型实现物体识别
(2)利用卷积神经网络抽取抽象特征
(3)自定义卷积神经网络拓扑结构
7、实操练习
第九章:PyTorch迁移学习
1、迁移学习算法的基本原理(为什么需要迁移学习?为什么可以迁移学习?迁移学习的基本思想是什么?)
2、基于深度神经网络模型的迁移学习算法
3、案例讲解:猫狗大战(Dogs vs. Cats)
4、实操练习
第十章:PyTorch生成式对抗网络
1、生成式对抗网络GAN(什么是对抗生成网络?为什么需要对抗生成网络?对抗生成网络可以帮我们做什么?GAN给我们带来的启示)
2、GAN的基本原理及GAN进化史
3、案例讲解:GAN的PyTorch代码实现(手写数字生成)
4、实操练习
第十一章:PyTorch RNN与LSTM
1、循环神经网络RNN的基本工作原理
2、长短时记忆网络LSTM的基本工作原理
3、案例讲解:时间序列预测(北京市污染物预测)
4、实操练习
第十二章:时间卷积网络(Temporal Convolutional Network, TCN)
1、时间卷积网络(TCN)的基本原理
2、TCN与1D CNN、LSTM的区别与联系
3、案例讲解:
1)时间序列预测:新冠肺炎疫情预测
2)序列-序列分类:人体动作识别
4、实操练习
第十三章:PyTorch目标检测
1、什么是目标检测?目标检测与目标识别的区别与联系
2、YOLO模型的工作原理,YOLO模型与传统目标检测算法的区别
3、案例讲解:
(1)利用预训练好的YOLO模型实现目标检测(图像检测、视频检测、摄像头实时检测)
(2)数据标注演示(LabelImage使用方法介绍)
(3)训练自己的目标检测数据集
4、实操练习
第十四章:自编码器
1、什么是自编码器(Auto-Encoder, AE)?
2、经典的几种自编码器模型原理介绍(AE、Denoising AE, Masked AE)
3、案例讲解:
(1)基于自编码器的噪声去除
(2)基于自编码器的手写数字特征提取与重构
(3)基于掩码自编码器的缺失图像重构
4、实操练习
第十五章:U-Net语义分割
1、语义分割(Semantic Segmentation)简介
2、U-Net模型的基本原理
3、案例讲解:基于U-Net的多光谱图像语义分割
4、实操练习
第十六章:复习与答疑讨论
1、课程相关资料拷贝与分享
2、答疑与讨论(大家提前把问题整理好)
5、Python进阶 HOT!
培训时间:2024年9月19日-21日
培训方式:直播授课+助学群辅助+导师面对面实践工作交流
课程内容:(上下滑动查看更多)
课程安排 | 课程导学 |
第一章 注意力(Attention)机制详解 | 1、注意力机制的背景和动机(为什么需要注意力机制?注意力机制的起源和发展)。 2、注意力机制的基本原理:什么是注意力机制?注意力机制的数学表达与基本公式、用机器翻译任务带你了解Attention机制、如何计算注意力权重? 3、注意力机制的主要类型:自注意力(Self-Attention)与多头注意力(Multi-Head Attention)、Soft Attention 与 Hard Attention、全局(Global)与局部(Local)注意力 4、注意力机制的优化与变体:稀疏注意力(Sparse Attention)、加权注意力(Weighted Attention) 5、注意力机制的可解释性与可视化技术:注意力权重的可视化(权重热图) 6、案例演示 7、实操练习 |
第二章 Transformer模型详解 | 1、Transformer模型的提出背景(从RNN、LSTM到注意力机制的演进、Transformer模型的诞生背景及其在自然语言处理和计算视觉中的重要性) 2、Transformer模型拓扑结构(编码器、解码器、多头自注意力机制、前馈神经网络、层归一化和残差连接等) 2、Transformer模型工作原理(为什么Transformer模型需要位置信息?位置编码的计算方法?Transformer模型的损失函数?) 3、自然语言处理(NLP)领域的Transformer模型:BERT、GPT-1 / GPT-2 / GPT-3 / GPT-3.5 / GPT-4(模型的总体架构、输入和输出形式、预训练目标、预训练数据的选择和处理、词嵌入方法、GPT系列模型的改进与演化、……)。 4、计算视觉(CV)领域的Transformer模型:DETR / ViT / Swin Transformer(DERT:基于Transformer的检测头设计、双向匹配损失;ViT:图像如何被分割为固定大小的patches?如何将图像patches线性嵌入到向量中?Transformer在处理图像上的作用?Swin:窗口化自注意力机制、层次化的Transformer结构、如何利用位移窗口实现长范围的依赖?) 5、案例演示 6、实操练习 |
第三章 生成式模型详解 | 1、变分自编码器VAE(自编码器的基本结构与工作原理、变分推断的基本概念及其与传统贝叶斯推断的区别、VAE的编码器和解码器结构及工作原理)。 2、生成式对抗网络GAN(GAN提出的背景和动机、GAN的拓扑结构和工作原理、生成器与判别器的角色、GAN的目标函数)。 3、扩散模型Diffusion Model(扩散模型的核心概念?如何使用随机过程模拟数据生成?扩散模型的工作原理)。 4、跨模态图像生成DALL.E(什么是跨模态学习?DALL.E模型的基本架构、模型训练过程)。 5、案例演示 6、实操练习 |
第四章 目标检测算法详解 | 1. 目标检测任务与图像分类识别任务的区别与联系。 2. 两阶段(Two-stage)目标检测算法:R-CNN、Fast R-CNN、Faster R-CNN(RCNN的工作原理、Fast R-CNN和Faster R-CNN的改进之处 )。 3. 一阶段(One-stage)目标检测算法:YOLO模型、SDD模型(拓扑结构及工作原理)。 4. 案例演示 5、实操练习 |
第五章 图神经网络详解 | 1. 图神经网络的背景和基础知识(什么是图神经网络?图神经网络的发展历程?为什么需要图神经网络?) 2. 图的基本概念和表示(图的基本组成:节点、边、属性;图的表示方法:邻接矩阵;图的类型:无向图、有向图、加权图)。 3. 图神经网络的工作原理(节点嵌入和特征传播、聚合邻居信息的方法、图神经网络的层次结构)。 4. 图卷积网络(GCN)的工作原理。 5. 图神经网络的变种和扩展:图注意力网络(GAT)、图同构网络(GIN)、图自编码器、图生成网络。 6、案例演示 7、实操练习 |
第六章 强化学习详解 | 1、强化学习的基本概念和背景(什么是强化学习?强化学习与其他机器学习方法的区别?强化学习的应用领域有哪些? 2、Q-Learning(马尔可夫决策过程、Q-Learning的核心概念、什么是Q函数?Q-Learning的基本更新规则)。 3、深度Q网络(DQN)(为什么传统Q-Learning在高维或连续的状态空间中不再适用?如何使用神经网络代替Q表来估计Q值?目标网络的作用及如何提高DQN的稳定性?) 4、案例演示 5、实操练习 |
第七章 物理信息神经网络 (PINN) | 1、 物理信息神经网络的背景(物理信息神经网络(PINNs)的概念及其在科学计算中的重要性、传统数值模拟方法与PINNs的比较) 2、 PINN工作原理:物理定律与方程的数学表达、如何将物理定律嵌入到神经网络模型中?PINN的架构(输入层、隐含层、输出层的设计)、物理约束的形式化(如何将边界条件等物理知识融入网络?)损失函数的设计(数据驱动与物理驱动的损失项) 3、 常用的PINN库和框架介绍 4、 案例演示 5、实操练习 |
第八章 神经架构搜索(Neural Architecture Search, NAS) | 1、 NAS的背景和动机(传统的神经网络设计依赖经验和直觉,既耗时又可能达不到最优效果。通过自动搜索,可以发现传统方法难以设计的创新和高效架构。) 2、 NAS的基本流程:搜索空间定义(确定搜索的网络架构的元素,如层数、类型的层、激活函数等。)、搜索策略(随机搜索、贝叶斯优化、进化算法、强化学习等)、性能评估 3、 NAS的关键技术:进化算法(通过模拟生物进化过程,如变异、交叉和选择,来迭代改进网络架构)、强化学习(使用策略网络来生成架构,通过奖励信号来优化策略网络)、贝叶斯优化(利用贝叶斯方法对搜索空间进行高效的全局搜索,平衡探索和利用) 4、 案例演示 5、实操练习 |
第九章 深度学习模型可解释性与可视化方法详解 | 1、什么是模型可解释性?为什么需要对深度学习模型进行解释? 2、可视化方法有哪些(特征图可视化、卷积核可视化、类别激活可视化等)? 3、类激活映射CAM(Class Activation Mapping)、梯度类激活映射GRAD-CAM、局部可解释模型-敏感LIME(Local Interpretable Model-agnostic Explanation)、等方法原理讲解。 4、t-SNE的基本概念及使用t-SNE可视化深度学习模型的高维特征。 5、案例演示 6、实操练习 |
第十章 讨论与答疑 | 1、相关学习资料分享与拷贝(图书推荐、在线课程推荐等) 2、建立微信群,便于后期的讨论与答疑 |
6、基金 HOT!
培训时间:2024年10月19日-20日
培训方式:直播授课+助学群辅助+导师面对面实践工作交流
课程内容:(上下滑动查看更多)
课程安排 | 学习内容 |
专题一 国自然项目介绍 | |
专题二 基金的撰写技巧(从申请人的角度,带你一次入门) | 2.1 问题属性与评阅标准 |
专题三 基金的专项技巧(从评审专家的角度,带您逐一突破) | 3.1 了解评审专家的视角 3.2 最关键的细节-摘要的写法 3.3 如何挑选的五篇代表作 3.4 手把手带你画技术路线图 3.5 如何合理安排研究经费 3.6其他备受关注的问题 3.7最后的自查-自查十连问 |
专题四 ChatGPT在基金撰写中的妙用 | 4.1 ChatGPT高效搜索 |
Tips:联系客服咨询:丁老师:19912110290(微电)
(扫码咨询)
声明: 本号旨在传播、传递、交流,对相关文章内容观点保持中立态度。涉及内容如有侵权或其他问题,请与本号联系,第一时间做出撤回。
END
Ai尚研修丨专注科研领域
技术推广,人才招聘推荐,科研活动服务
科研技术云导师,Easy Scientific Research