Tag: Keras

极简神经网络-深度强化学习预备知识

摘要: 极简神经网络知识 【对算法,数学,计算机感兴趣的同学,欢迎关注我哈,阅读更多原创文章】我的网站:潮汐朝夕的生活实验室我的公众号:算法题刷刷我的知乎:潮汐朝夕我的github:FennelDumplings我的leetcode:FennelDumplings 本文我们极简地过一下神经网络的必要知识。虽然是深度学习的内容,但是本文主要是为【使用神经网络实现强化学习的框架】铺垫必要的神经

DNN训练-4.正则化

以下内容整理自: 《Hands-on Machine Learning》 第十一章 训练 DNN 面临以下的几个问题 vanishing gradients exploding gradients 标注成本高 训练慢 过拟合 在文章 DNN训练-1.梯度消失和梯度爆炸 中,我们总结了应对梯度消失和梯度爆炸的问题的办法;在文章 DNN训练-2.重用预训练层 中,我们总结了应对标注成本高的问题的

DNN训练-3.更快的优化器

以下内容整理自: 《Hands-on Machine Learning》 第十一章 训练 DNN 面临以下的几个问题 vanishing gradients exploding gradients 标注成本高 训练慢 过拟合 在文章 DNN训练-1.梯度消失和梯度爆炸 中,我们总结了应对梯度消失和梯度爆炸的问题的办法;在文章 DNN训练-2.重用预训练层 中,我们总结了应对标注成本高的问题的

DNN训练-2.重用预训练层

以下内容整理自: 《Hands-on Machine Learning》 第十一章 训练 DNN 面临以下的几个问题 vanishing gradients exploding gradients 标注成本高 训练慢 过拟合 在文章 DNN训练-1.梯度消失和梯度爆炸 中,我们总结了应对梯度消失和梯度爆炸的问题的办法。 本文主要梳理解决标注成本高这个问题的常见方法。主要有迁移学习,无监督预训

DNN训练-1.梯度消失和梯度爆炸

以下内容整理自: 《Hands-on Machine Learning》 第十一章 训练 DNN 面临以下的几个问题 vanishing gradients exploding gradients 标注成本高 训练慢 过拟合 本文主要梳理解决前两个问题的常见方法,即梯度消失和梯度爆炸。主要有改进初始化方式,改进激活函数,使用 BN,使用梯度剪裁这四种方法。 Vanishing/Explod

MLP Fine-Tuning with Keras

本文内容整理自 《Hands-on Machine Learning》 第十章第三节 Fine-Tuning MLP 的超参数1234567层数,层的神经元个数其它激活函数其它初始化方法学习率其它优化器batch_size... 一种简单办法是尝试各种超参数的组合,然后选择在验证集上效果最好的。可以用 sklearn 的 GridSearchCV 或者 RandomizedSearchCV 实现

ANN-with-Keras

本文内容整理自 《Hands-on Machine Learning》 第十章第二节 用 Keras 实现 MLPKerasKeras 基础信息 代码 时间: 2015 作者: Francois Chollet 文档 build/train/evaluate/execute all sort of NN Keras 的 computation backend目前 Keras 可以跑在 Apac