副问题[/!--empirenews.page--]
现在的大型企业都在经验着自家产化以来最大的厘革。人工智能倾覆了家产,倾覆了我们的事变、思索和互动的方法,Gartner的一项陈诉猜测,到2020年,人工智能将缔造230万个就业岗亭,以此同时也会镌汰180万小我私人力岗亭。呆板进修是驱感人工智能成长的首要动力,这个规模的专家数目不多,各大企业都在争抢高手艺人才。
说到这里,你也许已经猜到猿哥本日要和各人分享的是一本有关人工智能的书,这本书只有152页,很是简短。名叫——《The Hundred-Page Machine Learning Book》
但麻雀虽小五脏俱全,这本书涵盖了监视和非监视式进修,支持向量机,神经收集,集成要领,梯度降落法,聚类说明和数据降维,自编码和迁徙进修,特性工程和超参数优化,数学常识、插图等内容都包括在这本152页的书本里
详细的章节目次如下:
- 媒介
- 第 1 章:先容
- 第一部门:监视式进修
- 第二章:标志和界说
- 第三章:基本算法
- 第四章:进修算法的剖解
- 第五章:基本拭魅战
- 第六章:神经收集与深度进修
- 第七章:题目与办理
- 第八章:进阶拭魅战
- 第二部门:非监视式进修和其余进修
- 第九章:非监视式进修
- 第十章:其余情势进修
- 第十一章:结论
作者本着先阅读后购置的原则,因此你可以先在在线免费阅读/下载书本,直到你以为它值得你购置的时辰再购置。
这本书在线阅读尚有一个甜头就是,在页面的右侧有网友评述,你可以通过网友评述发明本书错误可能不敷的处所,从而停止被误导,还能查察作者最新的更新时刻等
除此之外,作者还在GitHub上开源了本书配套的全部代码
GitHub地点:https://github.com/aburkov/theMLbook
好比多元高斯漫衍(GaussianMixture Model GMM)这个内容,作者在书的9.2.4举办了具体的讲授:
再如第三章中的关于线性回归算法的先容:线性回归算法是一种风行的回归进修算法,进修的模子是操作数理统计中的回归说明
其对应的Python代码如下:
- import numpy as np
- import matplotlib.pyplot as plt
-
- from sklearn.linear_model import Ridge
- from sklearn.preprocessing import PolynomialFeatures
- from sklearn.pipeline import make_pipeline
-
- import matplotlib
- matplotlib.rcParams['mathtext.fontset'] = 'stix'
- matplotlib.rcParams['font.family'] = 'STIXGeneral'
- matplotlib.rcParams.update({'font.size': 18})
-
- def f(x):
- """ function to approximate by polynomial interpolation"""
- return 0.5 * x
-
-
- # generate points used to plot
- x_plot = np.linspace(-10, 10, 100)
-
- # generate points and keep a subset of them
- x = np.linspace(-10, 10, 100)
- rng = np.random.RandomState(0)
- rng.shuffle(x)
- x = np.sort(x[:10])
- noize = [(-2 + np.random.random()*2) for i in range(len(x))]
- y = f(x) + noize
-
- # create matrix versions of these arrays
- X = x[:, np.newaxis]
- X_plot = x_plot[:, np.newaxis]
-
- colors = ['red', 'red']#, 'orange'
- lw = 2
-
-
- type_of_regression = ["linear regression", "regression of degree 10"]
- fit = ["fit", "overfit"]
- for count, degree in enumerate([1,10]):#, 2, 15
- plt.figure(count)
- axes = plt.gca()
- axes.set_xlim([-10,10])
- axes.set_ylim([-10,10])
- plt.scatter(x, y, color='navy', s=30, marker='o', label="training examples")
- plt.xticks([-10.0, -5.0, 0.0, 5.0, 10.0])
- plt.yticks([-10.0, -5.0, 0.0, 5.0, 10.0])
- model = make_pipeline(PolynomialFeatures(degree), Ridge())
- model.fit(X, y)
- y_plot = model.predict(X_plot)
- plt.plot(x_plot, y_plot, color=colors[count], linewidth=lw,
- label=type_of_regression[count])
-
- plt.legend(loc='best')
- fig1 = plt.gcf()
- fig1.subplots_adjust(top = 0.98, bottom = 0.1, right = 0.98, left = 0.08, hspace = 0, wspace = 0)
- fig1.savefig('../../Illustrations/linear-regression-' + fit[count] + '.eps', format='eps', dpi=1000, bbox_inches = 'tight', pad_inches = 0)
- fig1.savefig('../../Illustrations/linear-regression-' + fit[count] + '.pdf', format='pdf', dpi=1000, bbox_inches = 'tight', pad_inches = 0)
- fig1.savefig('../../Illustrations/linear-regression-' + fit[count] + '.png', dpi=1000, bbox_inches = 'tight', pad_inches = 0)
-
-
- plt.show()
也就是嗣魅这本书里的插图都附有源代码,这些源代码你都可以在GitHub上找到。
(编辑:河北网)
【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!
|