深度学习光环背后,哪些机器学习的新进展被忽视?
《A Meta-Transfer Objective for Learning to Disentangle Causal Mechanisms》(https://arxiv.org/abs/1901.10912)论文讲授了因果推理和深度进修之间的接洽,最最少也要读读开头的几末节。更大更全的综述可以读读 Pearl 的《Theoretical Impediments to Machine Learning With Seven Sparks from the Causal Revolution》(https://arxiv.org/abs/1801.04016),不外它现实涵盖的内容和《Book of Why》有许多重合,先读读这篇论文再抉摘要不要买书来读也挺好的。 反向强化进修 Inverse Reinforcement Learning 反向强化进修回收了和传统强化进修沟通的基本设定,然后做相反的事。在强化进修里,给定一个回报函数,让模子找到会获得最大回报的计策;在反向强化进修里,给定一个计策,然后模子找到可以被这个计策最大化的回报函数。 它的要害在于从对举动的调查中进修,即便你也许无法会见回报函数,可能无法仿照特定的执行器的举动。反向强化进修已经乐成实习出了和人的举动很相同的玩第一人称射击游戏的 AI。 反向强化进修中有一个重大的开放题目是怎样从并非最优的演示中进修。今朝的体系能很好地仿照人类,以至于它们浮现出的失效模式也和人类相似。想要从人类身上进修,可是获得比人类更高的示意,理论上看起来是可行的,但做起来很是坚苦。近期的文献综述可以参考 https://arxiv.org/abs/1806.06877。 自动呆板进修 AutoML 这个自规模很重要,也很酷。可以把它看做一个决定树,在给定命据集往后帮你抉择什么样的数据处理赏罚流水线是最好的。它很有效,也会在整个呆板进修规模中占有更多位置。谷歌今朝就已经面向贸易用户提供 AutoML 处事,不外显然这是面向本身没有编程手段的客户的。 今朝最热点的自动呆板进修算法是 Auto-sklearn(https://automl.github.io/auto-sklearn/master/ ),尚有基于它进一步改造的 Mosaic。AutoML 也有一些角逐,排名前几的算法都有很高的参考代价。 (编辑:河北网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |