抽象化表达世界只是VectorNet模型的第一步,在有了向量图之后,理解不同要素之间的联系,学习要素之间的语义信息成了更可行的一步,最终才能让机器学实现从 “看到世界”到“理解世界”的发展。在此之前,卷积神经网络擅长于编码位置关系,但在学习多个要素之间的连接关系面前则显得吃力。
孙剑博士在报告中将当前使用卷积神经网络的计算机视觉分两个方面进行了探究:1、卷积神经网络,核心可以归纳为:网络的深度、网络的卷积操作、网络的宽度和网络的大小。2、计算机视觉,核心问题可以归纳为:分类、检测、分割以及序列。
近日,谷歌旗下人工智能企业“深层思维”(DeepMind)提出一种方法,能够让智能体使用特定的记忆来信任过去的行为,并对未来做出正确的决策。相关成果发表于最新一期的《自然·通讯》上。
我同意某些观点:它可以传播人类的偏见,不容易解释,它没有常识,更多的是在模式匹配而不是强大的语义理解的层面上。但我们在解决其中一些问题上取得了进展,而且这一领域的进展仍然相当快。你可以把深度学习应用到数学上,也可以用它来理解蛋白质,你可以用它做很多事情。
陈天奇是机器学习领域著名的青年华人学者之一,本科毕业于上海交通大学ACM班,博士毕业于华盛顿大学计算机系,研究方向为大规模机器学习。上个月,陈天奇在Twitter上宣布自己将于2020年秋季加入CMU任助理教授,成为加入CMU的年轻华人学者之一。在本文中,陈天奇回顾了自己做机器学习科研的十年。
在20世纪80年代,计算机速度慢且价格昂贵,因此必须对它进行逻辑化编程,但今天计算机的速度比过去要快一百万倍,并且通过深度学习,AI可以通过实例进行自我编程。比如,当我开始研究AI时,我们只能解决小问题,但今天可以通过更大的深度学习网络解决难题。
银行必须选择与不同客户沟通的最佳方式,并通过客户偏好的方式发送提醒,新的产品推送以及联系客户。这样,不光客户能够及时了解到银行的消息, 银行也能减少通过其他方式联系客户的费用。
在优化需求上深度学习编译器和传统编译器有很大的差别。传统编译器注重于优化寄存器使用和指令集匹配,其优化往往偏向于局部。而深度学习编译器的优化往往需要涉及到全局的改写,包括之前提到的内存,算子融合等。
经过深度学习的计算机,不再被动按照指令运行,而是像自然进化的生命那样,开始自主地从经验中学习。用特伦斯自己的话说,“我们需要有效地监管人工智能。自从工业时代以来,我们所拥有的技术有时被用于战争,有时被用于建设文明,还用来建设工厂。技术发展总会遇到问题,你要做的就是控制它。
微软不能声称拥有该条款的唯一所有权。威斯康星大学麦迪逊分校教授朱晓金(Jerry)从2013年起就用“机器教学”来描述一种训练机器学习算法的方法,尽管他和微软都同意它们的定义有些重叠......有了正确的工具,一个主题专家应该能够训练一个人工智能系统而不必了解机器学习,就像棒球教练不必学习大脑化学一样。
麻省理工学院(MIT)地球、大气、行星科学系助理教授,大气、海洋和气候项目成员保罗·奥戈尔曼就两者之间的关系分享了他的看法,并就机器学习在气候模拟中的应用,可能产生的问题和应对之策,以及利用机器学习方法最容易取得成功的领域等进行了说明。
Nityesh Agarwal也是先从学习Python编程开始的。但是现在,他越来越深入到这个领域后,他的思想开始转变了。他认为从Kaggle开始,而不是从21天学会Python机器学习、从零开始掌握Python机器学习、手把手教你用Python打造第一个ML应用……更适合入门机器学习和数据科学。
或者说,至少他自己是这样的。