Jeff 换帅 谷歌 人工默认和搜查部门一分为二! AI 正式接收 Dean (jeff退出)
谷歌 AI 治理层的变化,将人工默认及搜查部门一分为二,AI 关系上班归 Jeff Dean 指导,而 John Giannandrea 和 Ben Gomes 区分担任 AI 和搜查部门。
Giannandrea 的角色被一分为二,Jeff Dean 将在指导 AI 部门的同时,继续担任谷歌大脑的担任人。
Gomes 将专一于搜查部,不再统筹 AI 部门的事务。
治理层的这一调整,旨在提高谷歌全体的效率,同时让 Giannandrea 能够愈加专一于技术。
Google Brain 团队的工程师们对这一变化持踊跃态度,以为这将推进人工默认技术的开展。
此外,微软也宣布将 Windows 部门拆分,减速向云计算和人工默认的转型。
谷歌治理层的变化预示着对 AI 的注重和投入将继续参与。
tensorflow是什么
TensorFlow是一个基于数据流编程符号数学系统,被宽泛运行于各类机器学习算法的编程成功,其前身是谷歌的神经网络算法库DistBelief。
Tensorflow领有多层级结构,可部署于各类主机、PC终端和网页并允许GPU和TPU高性能数值计算,被宽泛运行于谷歌外部的产品开发和各畛域的迷信钻研。
TensorFlow由谷歌人工默认团队谷歌大脑(GoogleBrain)开发和保养,领有包含TensorFlowHub、TensorFlowLite、TensorFlowResearchCloud在内的多个名目以及各类运行程序接口(ApplicationProgrammingInterface,API)。
自2015年11月9日起,TensorFlow依据阿帕奇授权协定(Apache2.0opensourcelicense)开明源代码。
概念激活向量的提出,对钻研神经网络有什么协助?
最近,谷歌大脑团队宣布了一篇论文,文中提出了一种叫做概念激活向量(Concept Activation vectors,CAV)的新方法,这种方法为深度学习模型的可解释性提供了一个全新的视角。
可解释性依然是现代深度学习运行的最大应战之一。
计算模型和深度学习钻研畛域近期取得了很大停顿,创立了十分复杂的模型,这些模型可以包含数千个暗藏层、数千万神经元。
虽然创立初级深度神经网络相对便捷,但了解如何创立这些模型以及它们如何经常使用常识依然是一个应战。
最近,谷歌大脑(Google Brain)团队宣布了一篇论文《Interpretability Beyond Feature Attribution: Quantitative Testing with Concept Activation Vectors (TCAV)》,提出一种叫作「概念激活向量」(Concept Activation Vectors,CAV)的新方法,为深度学习模型的可解释性提供了全新视角。
可解释性与准确率:了解 CAV 技术,要求首先了解深度学习模型可解释性难题的实质。
在这一代深度学习技术中,模型准确率与可解释性之间存在终身的抵触。
可解释性与准确性之间的抵触也是成功复杂常识义务与如何成功这些义务之间的抵触。
常识与控制、性能与可解释性、效率与繁复……这些疑问都可以经过掂量准确率与可解释性来解释。
你想要最佳结果还是想了解这些结果是如何发生的?这是数据迷信家在每个深度学习场景中都要回答的疑问。
很多深度学习技术实质上是复杂的,虽然在很多状况下它们发生的结果是准确的,然而它们难以解释。
假设咱们绘制一些驰名深度学习模型的可解释性和准确率,可以获取:深度学习模型的可解释性不是一个繁多的概念,可以跨多个档次来了解:要超过上图定义的档次来解释模型,要求一些基础的构建块。
在近期的一篇文章中,谷歌的钻研人员概述了他们以为解释模型所需的基础构建块。
谷歌将可解释性准则总结如下:了解暗藏层做了什么:深度学习模型中的大局部常识是在暗藏层中构成的。
要解释深度学习模型,必定要从微观角度了解不同暗藏层的配置。
了解节点是如何激活的:可解释性的主要不是了解网络中繁多神经元的配置,而是要了解在同一空间位置一同激活的相互衔接的神经元组。
经过相互衔接的神经元组宰割网络可以从更便捷的形象档次来了解其配置。
了解概念是如何构成的:深度神经网络如何构成可组装成最终输入的单个概念,了解这一疑问是另一个主要的可解释性构建块。
文章评论