标签:深度学习

09月06日

告别炼丹,谷歌提出“权重无关”神经网络

神经网络训练中 “权重” 有多重要不言而喻。但谷歌前段时间发表的研究表明,即使抛弃神经网络权重训练,使用随机共享权重,也可以执行各种任务。 他们提出一种新的神经网络结构的搜索方法——权重无关神经网络(Weight Agnostic Neural Networks,WANN),其关键思想是通过不再强调权重来搜索网络结构。 今天,该研究的两位作者、谷歌大脑学生研究员 Adam Gaier和研究科学家David Ha...

06月27日

图灵奖得主Hinton:深度学习如何继续革命?

深度学习从何而来?又该向哪去? 近日,图灵奖得主、深度学习巨头Geoffrey Hinton和Yann LeCun在ACM FCRC 2019上发表了精彩演讲。 官网地址:https://fcrc.acm.org/about/about-fcrc 二人分别在大会上做了题为《深度学习革命》和《深度学习革命:续集》的精彩演讲。目前视频已经公开: https://www.youtube.com/watch?v=VsnQf7exv5I 新智元对演讲内容进行了整理。 Geoffrey Hi...

06月27日

TensorFlow 等“开源陷阱”,会掐住中国 AI 企业的命门吗?

近来美国基于出口管制条例(EAR)规范,要求多个不同领域的企业、组织不得与特定的中国企业往来,这其中除了已为外界所知的原料、芯片、零部件、软件以外,也包括不同形式的技术标准与产业联盟组织。这些企业或组织与中国企业之间的往来,多半还是基于封闭式条件环境下的往来关系,通过商业协议或是申请加入组织的条件。但相较于此,对于部分开源(Open source) 的资源,未来是不是...

04月16日

OpenAI训练“4.5万年”,打DOTA 2:0战胜世界冠军团队

今天凌晨,OpenAI Five在Dota 2中以2:0击败了世界冠军团队OG,再次显示出了AI的强大威力,也正式宣告人类在Dota这种高难度游戏中成为AI的手下败将。 这次比赛,OpenAI Five的表现出是迄今为止展示出的较高水平:人类对手去年赢得了世界上最令人垂涎的电子竞技赛事TI8的冠军;OpenAI Five在去年输掉比赛后进行了优化,训练时间相当于人类玩了4.5万年,赢得比赛也并不出乎意料。 ...

04月16日

贾扬清:我对人工智能方向的一点浅见

有的同学可能会问为什么 AlphaGo 和 Starcraft 这样的算法可以成功, 一方面,深度学习解决了感知的问题,另一方面,我们也要看到还有很多传统的非深度学习算法,比如说 Q-learning 和其他增强学习的算法,一起支撑起了整个系统。而且,在数据量非常小的时候,深度学习的复杂网络往往无法取得很好的效果,但是很多领域,特别是类似医疗这样的领域,数据是非常难获得的,这可能是接下...

03月27日

刚刚,图灵奖授予“深度学习三巨头”!

信息来源 美国计算机协会(ACM) 资料整理 刘悦晨 魏潇 编辑 魏潇 今天,计算机领域最高奖项“图灵奖”迎来了新一届得主——加拿大蒙特利尔大学教授约书亚·本希奥(Yoshua Bengio)、谷歌副总裁兼多伦多大学名誉教授杰弗里·欣顿(Geoffrey Hinton),以及纽约大学教授兼 Facebook 首席 AI 科学家杨立昆(Yann LeCun)。 这三位被业内人士称为“当代人工智能教父”的科学家...

03月27日

机器学习:这是一条GitHub高赞的学习路径

通过互联网学习意味着可以在无垠的知识海洋中遨游,但也可能因为广阔而迷失。在这个项目中,作者为机器学习提供了一个完整的学习路径。从 ML 到 DL、Scikit-Learn 到 TensorFlow,你需要这份学海指南。曾有多少次,当你试图接近某一个新主题或领域时,会感到困惑、迷失方向并且无「路」可循。要如何确保你能够深刻理解并且获得运用它的能力呢?当然是借鉴其他人的成熟路径,然后跟着...

01月21日

LSTM与GRU模型可视化解析

RNN 会受到短时记忆的影响。如果一条序列足够长,那它们将很难将信息从较早的时间步传送到后面的时间步。 因此,如果你正在尝试处理一段文本进行预测,RNN 可能从一开始就会遗漏重要信息。 在反向传播期间,RNN 会面临梯度消失的问题。 梯度是用于更新神经网络的权重值,消失的梯度问题是当梯度随着时间的推移传播时梯度下降,如果梯度值变得非常小,就不会继续学习。 ...

11月26日

那些给人工智能打工的人

这里生产你美颜时“一键瘦脸”的尖下颌,你一起学猫叫时的动态胡须,生产张学友演唱会被实时识别的犯人,生产未来的自动驾驶,智能门禁…… 这里是中国特色的数据车间,他们遍布在河南、山东、河北等地的四五线小城里,日以继夜地为世界领先的AI产品服务。 越来越多的人正在加入他们的行列,成为为人工智能打工的人。  “梯子(可以移动的)” 马萌利面前出现一张欧洲户外咖啡馆的照...

11月26日

算法工程师的危机

不久前,讯飞AI同传语音造假的新闻刷爆科技圈,科大讯飞股价应声下跌3.89%(不是65.3%,标题党文章害死人)。 吃瓜群众纷纷感慨,有多少人工,就有多少智能。 AI概念在2015年起就红得发紫,不论是送外卖,搞团购,卖车,或是推荐莆田医院的,是个公司都会标榜自己是搞人工智能的。 在21世纪的第二个十年,计算机专业相关的学生不说自己是搞AI算法的,同学聚会都抬不起头,相亲都...

09月03日

人工智能革命尚未发生

原文来源:medium 作者:Michael Jordan 「雷克世界」编译:嗯~是阿童木呀、KABUDA、EVA 人工智能(AI)是当前时代的颂歌。这句话是由技术人员、学者、记者和风险投资家一致提出且真诚赞扬的。就像其他许多从技术学术领域跨越到通用领域的短语一样,在使用该短语也同时存在着严重的误解。但这并不是大众不了解科学家的经典案例,在这里,科学家和大众一样感到困惑。...

08月30日

真实到可怕!英伟达MIT造出马良的神笔

记得神笔马良的故事么? 拿到神笔的马良,可以画物品、画动物、画食物,而且,这些画作都可以一秒钟从画面上出来,变成真实世界中存在的东西。 虽然这只是一个童话故事,不过,英伟达和MIT联手的研究,基本上马良的“神笔”造了个八九不离十。 来自英伟达和MIT的研究团队,最近搞出了迄今最强的高清视频生成AI。这个团队,包括来自英伟达的Ting-Chun Wang、刘明宇(Ming-Yu L...

06月29日

深度解析LSTM神经网络的设计原理

想要搞清楚LSTM中的每个公式的每个细节为什么是这样子设计吗?想知道simple RNN是如何一步步的走向了LSTM吗?觉得LSTM的工作机制看不透?恭喜你打开了正确的文章! 前方核弹级高能预警!本文信息量非常大,文章长且思维连贯性强,建议预留20分钟以上的时间进行阅读。 前置知识1: 简单的循环神经网络,即无隐藏层的循环神经网络,起名叫“simple RNN”,公式如下: ...

05月11日

AI 框架使用排行:TensorFlow、Scikit Learn、IBM Watson

作者简介:Dan Olds是技术趋势和客户情绪方面的权威人士,他也是经常被知名行业和商业出版物频频引用的专家,比如《华尔街日报》、彭博新闻社、《Computerworld》、《eWeek》、《CIO》和《PCWorld》等。 AI软件界在迅速发展。新的应用几乎每天都在层出不穷,现在正好可以趁机了解人们到底在用机器学习和其他AI技术做什么、这些技术可能何去何从。 我们在之前的两篇文章中探讨了...

04月22日

深度学习是蓝海还是深坑? | 麦肯锡AI应用报告

智能栗子 编译自 McKinsey & Company AI的价值并不在模型自身,而在于公司怎样用好它们。 麦肯锡出品,一份深度学习领域的分析报告,包含400个应用案例,横跨19个行业的9种业务功能。报告重点强调了前沿AI技术的应用范围之广,以及经济潜力之盛,也提到了发展中的一些局限和挑战。 还有,需要注意的是,就算AI技术的前景再光明,使用数据之前都要把数据安全、隐私以...

03月08日

陈天奇等提出TVM:深度学习自动优化代码生成器

TVM 是由华盛顿大学在读博士陈天奇等人提出的深度学习自动代码生成方法,去年 8 月机器之心曾对其进行过简要介绍。该技术能自动为大多数计算硬件生成可部署优化代码,其性能可与当前最优的供应商提供的优化计算库相比,且可以适应新型专用加速器后端。近日,这项研究的论文《TVM: End-to-End Optimization Stack for Deep Learning》终于完成,内容包含新方法的介绍与讨论,以及 TVM ...

02月26日

Hinton:人类就是机器,绝妙的机器

三十多年以来,Geoffrey Hinton一直徘徊在人工智能研究的边缘地带。他像一个局外人一样坚守着一个简单的观点:计算机可以像人类一样思考,依靠直觉而不是规则。 这个念头在Hinton的青少年时代已经萌芽。当时有个朋友向他描述了全息图的工作原理,物体表面无数的反射光线被记录下来,被存入一个巨大的数据库里。来自科学世家的Hinton,立刻想到大脑也是这样工作的—— 海量的细胞由...

02月23日

深度智能的崛起(三):神经网络研究的三起三落

“世界的尽头,是雄狮落泪的地方,是月亮升起的地方,是美梦诞生的地方。”——大卫《人工智能》 接上文《深度智能的崛起(二)》 ♦神经元与神经网络    一直以来,我们的大脑如何从感知到的信息进行学习和判断,并形成记忆、情感和意识,这对于人工智能研究来讲仍然是一大谜题。深度学习的基础理论源于人工神经网络(Artifical Neural Network, ANN),深度学习通过逐层提取低层特征...