|
|
|
2017-02-24 第10期 |
|
|
|
Hi, |
|
近日,麻省理工科技评论发布2017年度十大突破技术榜单,其中人工智能相关技术就占四项。不得不说AI技术将是颠覆人类历史进程的一剂猛药。本周AI界收获不小,继上周TensorFlow 1.0正式发布后,TensorFlow持续升温,大有一统江湖之势。各大厂纷纷发布新技术,其中包括微软的编程机器人、Google的TensorFlow预处理库、DeepMind的最新生成记忆模型、以及加州伯克利大学在图像从0-1补全方面的新突破。 |
|
|
IBM 与顶级癌症医院 MDA 分手 |
|
IBM 最近遭遇了一点尴尬。这家公司赌上 50 亿美元力推的人工智能项目——IBM Watson,本来号称要在智能医疗领域大有作为,却被曝出与世界顶级癌症研究机构MD Anderson之间的合作正在分崩离析。据外媒报道,现在双方各执一词,IBM 坚称技术并无问题,而且也得到了另外一家新医疗机构的订单。 |
|
|
微软剑桥联合推出编程机器人DeepCoder |
|
微软和剑桥大学的研究员近日发布了一篇论文,文中阐述了其科研成果——一个会编程的机器学习系统。该系统叫DeepCoder,能够解决编程比赛所涉及到的基础编程题目,为不会编程的人提供了制作简易程序的可能。DeepCoder通过截取已有软件的代码行来组成新的程序,学习一系列代码片(code fragment)的输入(inputs)和输出(outputs)数据,DeepCoder能自动摘取出对目标任务有用的代码片。目前DeepCoder只能生成五行左右代码的程序。但对于某些编程语言来说,五行代码就足够了。 |
|
|
谷歌发布tf.Transform:一个TensorFlow数据预处理库 |
|
2月22日,谷歌宣布一个TensorFlow库——tf.Transform。可以让用户定义预处理流程(preprocessing pipelines)和使用大规模数据处理框架运行这些流程,同时还能让用户以一种将这些流程作为 TensorFlow graph 一部分的方式运行从而利用这些流程。用户可以通过将模块化的 Python 函数组合到一起来定义一个流程,然后 tf.Transform 会使用 Apache Beam 来执行它。 |
|
|
AI 学会“脑补”:神经网络超逼真图像补完从 0 到 1 |
|
近日,来自伯克利、Adobe 等研究人员利用组合优化和类似风格转移的方法,突破以往技术局限,成功实现了超逼真的“从0到1”图像生成。代码已在Github 开源。研究人员提出了一种混合优化方法(joint optimization),利用编码器 - 解码器CNN的结构化预测和神经补丁的力量,成功合成了实际的高频细节。类似于风格转移,他们的方法将编码器 - 解码器预测作为全局内容约束,并且将孔洞和已知区域之间的局部神经补丁相似性作为风格(style)约束。
|
|
|
人工智能有鼻子:根据分子化学结构预测气味 |
|
这项最新的预测气味的研究是从纽约洛克菲勒大学的嗅觉研究者 Leslie Vosshall 和他的同事们最近的一项研究开始的,研究中49名志愿者闻了476瓶纯气味的气体并作出评价。对每一瓶气体,志愿者需要用19种描述中的一个来标记该瓶气体的气味,描述词包括“鱼”,“大蒜”,“甜的”,“烧焦的”,等等。不仅如此,他们还需要为每个气味的愉悦程度和刺激程度评级。该研究创建了一个包含研究中使用的所有气味分子的超过100万数据点的大型数据集。 |
|
|
DeepMind最新生成记忆模型 显著提升RNN |
|
DeepMind 的研究员们15日在arXiv 上传了一篇论文,名为《记忆时序生成模型》的论文,自称新的模型能在性能上比现在被广泛使用的RNN,比如LSTM ,有显著的提升。
DeepMind 的最新研究成果,对广泛使用于语音识别、图像识别、语义理解等领域的深度学习人工网络RNN性能带来显著提升(substantially better )。研究主要在记忆时序生成模型上用了外部记忆来增强,对深度学习领域的研究有一定启发。作者介绍,新提出的模型可用在 Introspection Network、神经图灵机、Least-Recently Used access mechanism (LRU) 和可差分神经计算机(DNC) 。 |
|
|
TensorFlow和Caffe、MXNet、Keras等其他深度学习框架的对比 |
|
深度学习研究的热潮持续高涨,各种开源深度学习框架也层出不穷,其中包括TensorFlow、Caffe、Keras、CNTK、Torch7、MXNet、Leaf、Theano、DeepLearning4、Lasagne、Neon,等等。然而TensorFlow却杀出重围,在关注度和用户数上都占据绝对优势,大有一统江湖之势。本文节选自《TensorFlow实战》第二章。深度解析各开源框架的优缺点。 |
|
|
专访 TensorFlow 贡献者唐源:掌握 Google 深度学习框架的正确姿势 |
|
CSDN 2017 AI Innovators本期带着关于TensorFlow的诸多问题采访到唐源,《TensorFlow实战》联合作者,美国 Uptake 数据科学家。唐源带领团队建立用于多个物联网领域的数据科学引擎进行条件和健康监控,同时建立公司的预测模型引擎,现已被用于航空、能源等大型机械领域。
在采访中,唐源讲述了其如何走上深度学习开源框架贡献者之路,衡量了一个成功的数据团队所需的深度学习功底。更讲述了作为TensorFlow贡献者,对TensorFlow开发者大会的观感及侧重点。 |
|
|
TensorFlow 图像识别功能在树莓派上的应用 |
|
上周 TensorFlow 1.0 的发布使之成为最有前景的深度学习框架,也在中国 AI 社区中掀起了学习 TensorFlow 的热潮,不过光跑例子怎能脱颖而出?本文是数据科学公司(Silicon Valley Data Science)的数据工程师 Matt Rubashkin 的一篇实战派文章,介绍了他如何创造性的将深度学习与物联网结合起来解决一个实际问题的思路和过程,非常具有启发性。 |
|
|
|
CSDN AI 周刊 |
|
|
本刊由“AI科技大本营”编辑并运营,涵盖AI行业和技术圈儿的精品干货,每周发送,欢迎将干货分享给更多人!扫描下方二维码,添加小助手,备注公司和技术方向,邀你加入技术交流群。 |
|
|
大本营小助手 |
|
|
|
|
投稿:zhouxiang@csdn.net |
|
|
转载:suiling@csdn.net |
|
|
反馈:suiling@csdn.net |
|
|