作品简介

深度学习是人工智能的前沿技术。《深度学习之美:AI时代的数据处理与最佳实践》深入浅出地介绍了深度学习的相关理论和实践,《深度学习之美:AI时代的数据处理与最佳实践》共分16章,采用理论和实践双主线写作方式。第1章给出深度学习的大图。第2章和第3章,讲解了机器学习的相关基础理论。第4章和第5章,讲解了Python基础和基于Python的机器学习实战。第6至10章,先后讲解了M-P模型、感知机、多层神经网络、BP神经网络等知识。第11章讲解了被广泛认可的深度学习框架TensorFlow。第12章和第13章详细讲解了卷积神经网络,并给出了相关的实战项目。第14章和第15章,分别讲解了循环递归网络和长短期记忆(LSTM)网络。第16章讲解了神经胶囊网络,并给出了神经胶囊网络设计的详细论述和实践案例分析。

《深度学习之美:AI时代的数据处理与最佳实践》结构完整、行文流畅,是一本难得的零基础入门、图文并茂、通俗易懂、理论结合实战的深度学习书籍。

张玉宏,2012年于电子科技大学取得博士学位,2009-2011年美国西北大学访问学者,电子科技大学博士后,现执教于河南工业大学。

中国计算机协会(CCF)会员,CCF YOCSEF郑州2018-2019年度副主席,ACM/IEEE会员。《品味大数据》一书作者。主要研究方向为大数据、人工智能、技术哲学。发表学术论文20余篇,国内外学术作品7部。阿里云云栖社区专栏作家,博文累计阅读逾百万次。

作品目录

  • 内容简介
  • 推荐序一 通俗也是一种美德
  • 推荐序二 技术,也可以“美”到极致
  • 自序 深度学习的浅度梦想
  • 第1章 一入侯门“深”似海,深度学习深几许
  • 1.1 深度学习的巨大影响
  • 1.2 什么是学习
  • 1.3 什么是机器学习
  • 1.4 机器学习的4个象限
  • 1.5 什么是深度学习
  • 1.6 “恋爱”中的深度学习
  • 1.7 深度学习的方法论
  • 1.8 有没有浅层学习
  • 1.9 本章小结
  • 1.10 请你思考
  • 参考资料
  • 第2章 人工“碳”索意犹尽,智能“硅”来未可知
  • 2.1 信数据者得永生吗
  • 2.2 人工智能的“江湖定位”
  • 2.3 深度学习的归属
  • 2.4 机器学习的形式化定义
  • 2.5 为什么要用神经网络
  • 2.6 人工神经网络的特点
  • 2.7 什么是通用近似定理
  • 2.8 本章小结
  • 2.9 请你思考
  • 参考资料
  • 第3章 “机器学习”三重门,“中庸之道”趋若人
  • 3.1 监督学习
  • 3.2 非监督学习
  • 3.3 半监督学习
  • 3.4 从“中庸之道”看机器学习
  • 3.5 强化学习
  • 3.6 本章小结
  • 3.7 请你思考
  • 参考资料
  • 第4章 人生苦短对酒歌,我用Python乐趣多
  • 4.1 Python概要
  • 4.2 Python的版本之争
  • 4.3 Python环境配置
  • 4.4 Python编程基础
  • 4.5 本章小结
  • 4.6 请你思考
  • 参考资料
  • 第5章 机器学习终觉浅,Python带我来实践
  • 5.1 线性回归
  • 5.2 k-近邻算法
  • 5.3 本章小结
  • 5.4 请你思考
  • 参考资料
  • 第6章 神经网络不胜语,M-P模型似可寻
  • 6.1 M-P神经元模型是什么
  • 6.2 模型背后的那些人和事
  • 6.3 激活函数是怎样的一种存在
  • 6.4 什么是卷积函数
  • 6.5 本章小结
  • 6.6 请你思考
  • 参考资料
  • 第7章 Hello World感知机,懂你我心才安息
  • 7.1 网之初,感知机
  • 7.2 感知机名称的由来
  • 7.3 感性认识“感知机”
  • 7.4 感知机是如何学习的
  • 7.5 感知机训练法则
  • 7.6 感知机的几何意义
  • 7.7 基于Python的感知机实战
  • 7.8 感知机的表征能力
  • 7.9 本章小结
  • 7.10 请你思考
  • 参考资料
  • 第8章 损失函数减肥用,神经网络调权重
  • 8.1 多层网络解决“异或”问题
  • 8.2 感性认识多层前馈神经网络
  • 8.3 是浅而“胖”好,还是深而“瘦”佳
  • 8.4 分布式特征表达
  • 8.5 丢弃学习与集成学习
  • 8.6 现实很丰满,理想很骨感
  • 8.7 损失函数的定义
  • 8.8 热力学定律与梯度弥散
  • 8.9 本章小结
  • 8.10 请你思考
  • 参考资料
  • 第9章 山重水复疑无路,最快下降问梯度
  • 9.1 “鸟飞派”还飞不
  • 9.2 1986年的那篇神作
  • 9.3 多层感知机网络遇到的大问题
  • 9.4 神经网络结构的设计
  • 9.5 再议损失函数
  • 9.6 什么是梯度
  • 9.7 什么是梯度递减
  • 9.8 梯度递减的线性回归实战
  • 9.9 什么是随机梯度递减
  • 9.10 利用SGD解决线性回归实战
  • 9.11 本章小结
  • 9.12 请你思考
  • 参考资料
  • 第10章 BP算法双向传,链式求导最缠绵
  • 10.1 BP算法极简史
  • 10.2 正向传播信息
  • 10.3 求导中的链式法则
  • 10.4 误差反向传播
  • 10.5 BP算法实战详细解释
  • 10.6 本章小结
  • 10.7 请你思考
  • 参考资料
  • 第11章 一骑红尘江湖笑,TensorFlow谷歌造
  • 11.1 TensorFlow概述
  • 11.2 深度学习框架比较
  • 11.3 TensorFlow的安装
  • 11.4 Jupyter Notebook的使用
  • 11.5 TensorFlow中的基础语法
  • 11.6 手写数字识别MNIST
  • 11.7 TensorFlow中的Eager执行模式
  • 11.8 本章小结
  • 11.9 请你思考
  • 参考资料
  • 第12章 全面连接困何处,卷积网络显神威
  • 12.1 卷积神经网络的历史
  • 12.2 卷积神经网络的概念
  • 12.3 图像处理中的卷积
  • 12.4 卷积神经网络的结构
  • 12.5 卷积层要义
  • 12.6 细说激活层
  • 12.7 详解池化层
  • 12.8 勿忘全连接层
  • 12.9 本章小结
  • 12.10 请你思考
  • 参考资料
  • 第13章 纸上谈兵终觉浅,绝知卷积要编程
  • 13.1 TensorFlow的CNN架构
  • 13.2 卷积层的实现
  • 13.3 激活函数的使用
  • 13.4 池化层的实现
  • 13.5 规范化层
  • 13.6 卷积神经网络在MNIST分类器中的应用
  • 13.7 经典神经网络——AlexNet的实现
  • 13.8 本章小结
  • 13.9 请你思考
  • 参考资料
  • 第14章 循环递归RNN,序列建模套路深
  • 14.1 你可能不具备的一种思维
  • 14.2 标准神经网络的缺陷所在
  • 14.3 RNN简史
  • 14.4 RNN的理论基础
  • 14.5 RNN的结构
  • 14.6 循环神经网络的训练
  • 14.7 基于RNN的TensorFlow实战——正弦序列预测
  • 14.8 本章小结
  • 14.9 请你思考
  • 参考资料
  • 第15章 LSTM长短记,长序依赖可追忆
  • 15.1 遗忘是好事还是坏事
  • 15.2 施密德胡伯是何人
  • 15.3 为什么需要LSTM
  • 15.4 拆解LSTM
  • 15.5 LSTM的前向计算
  • 15.6 LSTM的训练流程
  • 15.7 自然语言处理的一个假设
  • 15.8 词向量表示方法
  • 15.9 自然语言处理的统计模型
  • 15.10 基于Penn Tree Bank的自然语言处理实战
  • 15.11 本章小结
  • 15.12 请你思考
  • 参考资料
  • 第16章 卷积网络虽动人,胶囊网络更传“神”
  • 16.1 从神经元到神经胶囊
  • 16.2 卷积神经网络面临的挑战
  • 16.3 神经胶囊的提出
  • 16.4 神经胶囊理论初探
  • 16.5 神经胶囊的实例化参数
  • 16.6 神经胶囊的工作流程
  • 16.7 CapsNet的验证与实验
  • 16.8 神经胶囊网络的TensorFlow实现
  • 16.9 本章小结
  • 16.10 请你思考
  • 16.11 深度学习美在何处
  • 参考资料
  • 后记
展开全部