炼数成金 商业智能
订阅

商业智能

出身清华姚班,斯坦福博士毕业,她的毕业论文成了「爆款」
出身清华姚班,斯坦福博士毕业,她的毕业论文成了「爆款」
很少有人的博士论文能够成为「爆款文章」,但陈丹琦做到了。这位近日从斯坦福毕业的计算机科学博士引发了人们的广泛关注。据斯坦福大学图书馆介绍,她长达 156 页的毕业论文《Neural Reading Comprehension and Beyo ...
分类:   
lazynlp:构建大规模语料库的"懒人"工具箱
lazynlp:构建大规模语料库的"懒人"工具箱
lazynlp,目的是提供一个直接的库让用户直接抓取、清洗和对相关网页进行清洗,以生成一个大规模的单语语料库。使用这个库,用户可以直接生成一个比OpenAI 用于 GPT-2 训练数据还要大的数据集。根据该项目github主页 ...
分类:   
GAN模式崩溃的理论解释
GAN模式崩溃的理论解释
近些年来,深度学习的革命几乎席卷了整个计算机科学领域,尤其是这两年来对抗生成网络模型(GAN)石破天惊、一骑绝尘,而蒙日-安培理论恰好可以为GAN提供强有力的理论支持。多少年来,丘先生一直强调基础理论的重要 ...
分类:   
GAN和蒙日-安培方程理论
GAN和蒙日-安培方程理论
深度学习的巨大成功可以归结为自然数据所满足如下两个定则:1)流形分布律:同类自然数据满足特定的概率分布,可以用概率分布来刻画,其支集是高维数据背景空间中的低维流形;2)聚类分布律:同一数据中的不同子类表 ...
分类:   
本体:一文读懂领域本体构建
本体:一文读懂领域本体构建
源于哲学的概念,知识工程学者借 用了这个概念,在开发知识系统时用于领域知识的获取。本体是用于描述一个领域的术语集合,其组织结构是层次结构化的,可以作为一个知识库的骨架和基础。目标:获取、描述和表示相关 ...
分类:   
前员工揭内幕:10年了,为何谷歌还搞不定知识图谱?
前员工揭内幕:10年了,为何谷歌还搞不定知识图谱?
近日,前谷歌开发者、现 Dgraph 创始人 Manish Rai Jain 撰文揭秘了谷歌内部在知识图谱领域的探索和发展。他以一个开发和技术前驱者的视角论述了“为什么谷歌需要一个知识图谱系统”,并详细披露了知识图谱在谷歌的 ...
分类:   
AI芯片0.5与2.0
AI芯片0.5与2.0
XLA和Glow背后是Google和Facebook,以及相应的Learning Framework生态,TVM有非常活跃的社区和开发者,它们应该是未来AI编译器的主要力量。而这些开源的编译器项目,也为各个做AI芯片的厂商提供了编译器框架的基础, ...
分类:   
最强GAN修图魔术师:美颜生发摘眼镜、草绘秒变真人脸
最强GAN修图魔术师:美颜生发摘眼镜、草绘秒变真人脸
这可能是史上最牛的AI修图大师。在一张人脸图片上画上几笔,比如说勾出一个眉毛的轮廓,它就能自动把草图修正成真实的图片,即使你毫无艺术细胞,也没关系,只要能够大致表明想修哪里,剩下的活儿就都交给它好了。
分类:   
YOLOv3目标检测有了TensorFlow实现,可用自己的数据来训练
YOLOv3目标检测有了TensorFlow实现,可用自己的数据来训练
YOLOv3,快如闪电,可称目标检测之光。PyTorch实现教程去年4月就出现了,TensorFlow实现一直零零星星。现在,有位热心公益的程序猿 (Yunyang1994) ,为它做了纯TensorFlow代码实现。这份实现,支持用自己的数据训练 ...
分类:   
日本:机器人再造“人口红利” ,GDP染指全球第一
日本:机器人再造“人口红利” ,GDP染指全球第一
2013年2月22日,访问美国的日本首相安倍晋三在美国智库“美国战略与国际问题研究中心(CSIS)”进行了演讲,题目为:《Japan is Back(日本回来了)》。演讲伊始,安倍就表明:日本现在不是,未来也不会是“二流国家 ...
分类:   
深度学习不再是炼丹术!谷歌给出首个神经网络训练理论证明
深度学习不再是炼丹术!谷歌给出首个神经网络训练理论证明
谷歌 AI 最新发布的一篇论文给出了首个关于深度神经网络训练相关的理论证明,实验观察结果也为初步解释梯度下降强于贝叶斯优化奠定了基础。神经网络的理论面纱,正逐步被揭开。原来,神经网络实际上跟线性模型并没那 ...
分类:   
BERT、GPT-2这些顶尖工具到底该怎么用到我的模型里?
BERT、GPT-2这些顶尖工具到底该怎么用到我的模型里?
近期的NLP方向,ELMO、GPT、BERT、Transformer-XL、GPT-2,各种预训练语言模型层出不穷,这些模型在各种NLP任务上一次又一次刷新上线,令人心驰神往。但是当小编翻开他们的paper,每一个上面都写着四个大字:“弱者 ...
分类:   
人工智能公司的场景跃迁理论
人工智能公司的场景跃迁理论
人工智能公司和互联网公司是不一样的,不一样的,不一样的。重复三遍。互联网公司大概只要做一次PMF(Product-Market Fit,市场-产品结合点),但AI公司通常要做多次才行。传统的互联网创业核心是抓紧用户需求,只要 ...
分类:   
如何光明正大搜集竞争对手数据?
如何光明正大搜集竞争对手数据?
中国古话说的好,“知己知彼,百战百胜”,这用到国外的公司也是同样的道理。小探今天就来跟你说说,大公司,尤其是电子商务领域的大公司们是如何搜集竞争对手数据的?先来看看美国的在线零售商的几大巨头都有谁。根 ...
分类:   
医学图像分析最新综述:走向深度
医学图像分析最新综述:走向深度
该论文首先从深度学习的基础概念介绍,介绍了该领域的常用方法,包括深度学习网络架构、神经元概念、卷积神经网络、循环神经网络等。深度神经网络架构,包含输入层、输出层,与多个隐含层。
分类:   
深度学习图像超分辨率最新综述:从模型到应用
深度学习图像超分辨率最新综述:从模型到应用
今日arXiv新上论文《Deep Learning for Image Super-resolution:A Survey》,详细回顾了近年来基于深度学习的图像超分辨率(Super-resolution,SR)的方方面面,对于想要进入该领域、在该领域进一步研究、涉足该领域 ...
分类:   
迄今最大模型?OpenAI发布参数量高达15亿的通用语言模型GPT-2
迄今最大模型?OpenAI发布参数量高达15亿的通用语言模型GPT-2
几个月前谷歌推出的语言模型 BERT 引发了业内的广泛关注,其 3 亿参数量刷新 11 项纪录的成绩让人不禁赞叹。昨天,OpenAI 推出了一种更为强大的算法,这一次模型达到了 15 亿参数。这种机器学习算法不仅在很多任务上 ...
分类:   
Google BERT 中文应用之春节对对联
Google BERT 中文应用之春节对对联
在网上看到有人用 seq2seq 训练一个对对联的机器人,很好奇能不能用Google的BERT预训练模型微调,训练出一个不仅可以对传统对子,也可以对新词新句的泛化能力更好的对对联高手。今天大年初一,这样的例子刚好应景。 ...
分类:   
TensorFlow、MXNet、Keras如何取舍? 常用深度学习框架对比
TensorFlow、MXNet、Keras如何取舍? 常用深度学习框架对比
自 2006 年 Hinton 和 Salakhutdinov 在 Science 上发表的深度学习论文点燃了最近一次神经网络复兴的“星星之火”,接着, 2012 年 Alex-Net 在 ImageNet 上夺冠又迅速促成了深度学习在人工智能领域的“燎原之势”。 ...
分类:   
三星半导体发展史
三星半导体发展史
大型集团是专一求精的对立面,而三星则是典型的集团化大财阀。1938年,三星从不起眼的食品出口商起家,经历了两场大战的动荡和余波,同时实现了多元化和扩张。其早期业务包括制糖、建筑、纺织、保险、零售,以及其他 ...
分类:   
给我一个开头就能编故事,逆天的语言 AI 模型来了!
给我一个开头就能编故事,逆天的语言 AI 模型来了!
AI 一本正经的“胡编”起来,已经逼真的让人不敢相信。近期,OpenAI 发布了一个“逆天”的语言 AI ,整个模型包含 15 亿个参数。这个 AI 写起文章来文思泉涌毫无违和感,无需针对性训练就能横扫各种特定领域的语言建 ...
分类:   
金融时报:Facebook正在加入AI芯片竞赛
金融时报:Facebook正在加入AI芯片竞赛
在认识到需要大大加快计算速度以实现人工智能的下一个突破之后,Facebook紧跟亚马逊和谷歌的脚步,正在加紧开发自己的人工智能芯片。该公司的首席人工智能科学家,现代先驱之一Yann LeCun表示,该公司的目标包括充满 ...
分类:   
效果惊人的GPT 2.0模型:它告诉了我们什么
效果惊人的GPT 2.0模型:它告诉了我们什么
未来两年NLP可能会不断爆出类似的刷屏新闻,真的进入一个技术快速发展期。按理说,这是NLP研发者的黄金期,这种时期最容易出好的成果,但是事实上,很可能你只能作为看热闹的看客,眼看他起高楼,眼看他宴宾客,但是 ...
分类:   
2018最具突破性计算机视觉论文Top 10
2018最具突破性计算机视觉论文Top 10
自从卷积神经网络在特定的图像识别任务上开始超越人类以来,计算机视觉领域的研究一直在飞速发展。CNN(或ConvNets)的基本架构是在20世纪80年代开发的。Yann LeCun在1989年通过使用反向传播训练模型识别手写数字,改 ...
分类:   
15亿参数!史上最强通用NLP模型诞生:狂揽7大数据集最佳纪录
15亿参数!史上最强通用NLP模型诞生:狂揽7大数据集最佳纪录
OpenAI今天在官博上介绍了他们的新NLP模型,刷新了7大数据集的SOTA(当前最佳结果),并且能够在不进行任何与领域知识相关数据训练的情况下,直接跨任务执行最基础的阅读理解、机器翻译、问答和文本总结等不同NLP任务 ...
分类:   
AI Challenger 2018 机器翻译参赛总结
AI Challenger 2018 机器翻译参赛总结
机器翻译的开源库很多,比如 OpenNMT、FairSeq 和 tensor2tensor 等,我们主要是基于 tensor2tensor 等工具库进行的程序实现。它是 Google 基于 TensorFlow 开发的高级库,内置了许多经典模型,开发调试比较方便。 ...
分类:   
现有模型还「不懂」自然语言:20多位研究者谈NLP四大开放性问题
现有模型还「不懂」自然语言:20多位研究者谈NLP四大开放性问题
我认为最大的开放性问题是关于自然语言理解的。我们应该通过构建文本表征,开发出能像人类一样阅读和理解文本的系统。在那之前,我们所有的进步都只是在提升系统模式匹配的能力。在专家采访中,很多专家认为自然语言 ...
分类:   
近900000条if-then关系图谱,让神经网络“懂”常识推理
近900000条if-then关系图谱,让神经网络“懂”常识推理
“神经网络能学习日常事件的常识推理吗?能,如果在 ATOMIC 上训练的话。”ATOMIC(原子) 是一个机器常识图集,一个用自然语言建立的 870, 000 个 if-then 关系的图谱。这一项目的研究者是来自华盛顿大学艾伦人工智 ...
分类:   
NLP Chinese Corpus项目:大规模中文自然语言处理语料
NLP Chinese Corpus项目:大规模中文自然语言处理语料
众所周知,中文NLP领域缺乏高质量的中文语料。作者徐亮(实在智能算法专家) 创建了一个中文自然语言处理语料库项目:nlp_chinese_corpus ,初步贡献了几个已经预处理好的中文语料,包括维基、新闻和百科语料。希望大 ...
分类:   
英伟达Q4净利润为5.67亿美元,同比下滑49%
英伟达Q4净利润为5.67亿美元,同比下滑49%
2月15日消息,据CNBC报道,英伟达周四发布了该公司截至1月27日的2019财年第四财季财报。报告显示,英伟达当季营收为22.1亿美元,比去年同期的29.1亿美元下滑24%;净利润为5.7亿美元,比去年同期的11.2亿美元下滑49% ...
分类:   

热门频道

  • 大数据
  • 商业智能
  • 量化投资
  • 科学探索
  • 创业

即将开课

 

GMT+8, 2019-9-17 10:26 , Processed in 0.183815 second(s), 19 queries .