主要内容

操作

开发自定义深度学习功能

对于大多数任务,您可以使用内置的层。如果没有一个内置的层,你需要为你的任务,你可以定义自己的自定义层。您可以指定一个自定义损失函数使用一个自定义输出层和自定义层与可学的状态参数。定义一个自定义层之后,可以检查层有效,GPU兼容,并输出正确定义渐变。欲了解更多,请看定义定制的深度学习层。支持层的列表,请参阅万博1manbetx深度学习层的列表

如果trainingOptions功能不提供训练选项,你需要你的任务,或自定义输出层不支持所需要的损失函数,你可以定义一个自定义训练循环。万博1manbetx模型层图不支持,您可以定义一个自定义模型作为一个函数。万博1manbetx欲了解更多,请看自定义训练循环,损失函数和网络

使用MATLAB开发深度学习操作®自定义代码层,培训循环和函数模型。

功能

全部展开

dlarray 深度学习数组定制
会变暗 尺寸的标签dlarray
finddim 发现尺寸与指定的标签
stripdims 删除dlarray数据格式
extractdata 从中提取数据dlarray
isdlarray 检查对象是否dlarray
dlconv 深度学习卷积
dltranspconv 深度学习转置卷积
lstm 长时间的短期记忆
格勒乌 封闭的复发性单元
注意 点积的关注
嵌入 嵌入离散数据
fullyconnect 和所有的加权输入数据和应用的偏见
dlode45 深度学习解决该常微分方程(ODE)
batchnorm 为每个通道独立规范化数据在所有观测
crosschannelnorm 交叉道square-normalize使用本地响应
groupnorm 规范化数据分组为每个独立观测通道的子集
instancenorm 为每个独立观察规范化在每个通道
layernorm 规范化数据在所有渠道每个独立观察
avgpool 池数据在空间维度平均值
maxpool 池数据最大值
maxunpool Unpool最大池操作的输出
线性整流函数(Rectified Linear Unit) 应用修正线性单元激活
leakyrelu 应用漏水的解决线性单元激活
gelu 应用高斯误差线性单元(GELU)激活
softmax softmax激活应用于渠道维度
乙状结肠 应用乙状结肠激活
crossentropy 叉损失分类任务
l1loss l1损失为回归任务
l2loss l2损失为回归任务
休伯 Huber损失回归任务
均方误差 一半的均方误差
ctc 联结主义的分类(CTC)损失对齐序列分类
dlaccelerate 促进深度学习函数自定义训练循环
AcceleratedFunction 加速深度学习函数
clearCache 明显加速深度学习函数跟踪缓存

主题

自动分化

模型函数

深度学习函数加速度