Category: 深度学习

卷积算术笔记

摘要: 本文是《A guide to convolution arithmetic for deep learning》这篇文章的笔记。 【对算法,数学,计算机感兴趣的同学,欢迎关注我哈,阅读更多原创文章】我的网站:潮汐朝夕的生活实验室我的公众号:算法题刷刷我的知乎:潮汐朝夕我的github:FennelDumplings我的leetcode:FennelDumplings 本文我们通过一

DNN训练-4.正则化

以下内容整理自: 《Hands-on Machine Learning》 第十一章 训练 DNN 面临以下的几个问题 vanishing gradients exploding gradients 标注成本高 训练慢 过拟合 在文章 DNN训练-1.梯度消失和梯度爆炸 中,我们总结了应对梯度消失和梯度爆炸的问题的办法;在文章 DNN训练-2.重用预训练层 中,我们总结了应对标注成本高的问题的

DNN训练-3.更快的优化器

以下内容整理自: 《Hands-on Machine Learning》 第十一章 训练 DNN 面临以下的几个问题 vanishing gradients exploding gradients 标注成本高 训练慢 过拟合 在文章 DNN训练-1.梯度消失和梯度爆炸 中,我们总结了应对梯度消失和梯度爆炸的问题的办法;在文章 DNN训练-2.重用预训练层 中,我们总结了应对标注成本高的问题的

DNN训练-2.重用预训练层

以下内容整理自: 《Hands-on Machine Learning》 第十一章 训练 DNN 面临以下的几个问题 vanishing gradients exploding gradients 标注成本高 训练慢 过拟合 在文章 DNN训练-1.梯度消失和梯度爆炸 中,我们总结了应对梯度消失和梯度爆炸的问题的办法。 本文主要梳理解决标注成本高这个问题的常见方法。主要有迁移学习,无监督预训

DNN训练-1.梯度消失和梯度爆炸

以下内容整理自: 《Hands-on Machine Learning》 第十一章 训练 DNN 面临以下的几个问题 vanishing gradients exploding gradients 标注成本高 训练慢 过拟合 本文主要梳理解决前两个问题的常见方法,即梯度消失和梯度爆炸。主要有改进初始化方式,改进激活函数,使用 BN,使用梯度剪裁这四种方法。 Vanishing/Explod

MLP Fine-Tuning with Keras

本文内容整理自 《Hands-on Machine Learning》 第十章第三节 Fine-Tuning MLP 的超参数1234567层数,层的神经元个数其它激活函数其它初始化方法学习率其它优化器batch_size... 一种简单办法是尝试各种超参数的组合,然后选择在验证集上效果最好的。可以用 sklearn 的 GridSearchCV 或者 RandomizedSearchCV 实现

Paddle快速入门

摘要: Paddle快速入门,附一份 PaddleNLP 工具集介绍。 【对数据分析、人工智能、金融科技、风控服务感兴趣的同学,欢迎关注我哈,阅读更多原创文章】我的网站:潮汐朝夕的生活实验室我的公众号:潮汐朝夕我的知乎:潮汐朝夕我的github:FennelDumplings我的leetcode:FennelDumplings PaddleNLP工具集-开场-全景介绍

ANN-with-Keras

本文内容整理自 《Hands-on Machine Learning》 第十章第二节 用 Keras 实现 MLPKerasKeras 基础信息 代码 时间: 2015 作者: Francois Chollet 文档 build/train/evaluate/execute all sort of NN Keras 的 computation backend目前 Keras 可以跑在 Apac

多层感知机与布尔函数

摘要: 《百面机器学习》Chap9 的一道题,构造 MLP 实现 n 元输入的布尔函数 【对数据分析、人工智能、金融科技、风控服务感兴趣的同学,欢迎关注我哈,阅读更多原创文章】我的网站:潮汐朝夕的生活实验室我的公众号:潮汐朝夕我的知乎:潮汐朝夕我的github:FennelDumplings我的leetcode:FennelDumplings 大问题如何构造一个 MLP 网络实现 n 元输

ANN基础知识

以下内容整理自: 《Hands-on Machine Learning》 第十章第一节 From Biological to Artificial NeuronsANN 历史ANN 最早提出是在 1943 的 《A Logical Calculus of Ideas Immanent in Nervous Activity》,里面提出了一种简单的神经元的计算模型,这是最早的 ANN 架构。此后陆

动手深度学习

摘要: 李沐《动手深度学习》第二版介绍与资料 【对算法,数学,计算机感兴趣的同学,欢迎关注我哈,阅读更多原创文章】我的网站:潮汐朝夕的生活实验室我的公众号:算法题刷刷我的知乎:潮汐朝夕我的github:FennelDumplings我的leetcode:FennelDumplings 资料 网页版:https://d2l.ai/index.html 中文版:https://zh.d2l.a