炼数成金 商业智能
订阅

商业智能

YOLO算法最全综述:从YOLOv1到YOLOv5
YOLO算法最全综述:从YOLOv1到YOLOv5
YOLO没有显示求取region proposal的过程。Faster R-CNN中尽管RPN与fast rcnn共享卷积层,但是在模型训练过程中,需要反复训练RPN网络和fast rcnn网络.相对于R-CNN系列的"看两眼"(候选框提取与分类),YOLO只需要Lo ...
分类:   
按照时间线帮你梳理10种预训练模型
按照时间线帮你梳理10种预训练模型
BERT中及XLNet和RoBERTa中,词嵌入大小 E 和隐藏层大小 H 相等的,H =E=768;而ALBERT认为,词嵌入学习单个词的信息,而隐藏层输出包含上下文信息,应该 H>>E。所以ALBERT的词向量的维度小于encoder输出值维度。 ...
分类:   
基于OpenCV 的车牌识别
基于OpenCV 的车牌识别
车牌识别是一种图像处理技术,用于识别不同车辆。这项技术被广泛用于各种安全检测中。现在让我一起基于OpenCV编写Python代码来完成这一任务。第一步是从汽车上检测车牌所在位置。我们将使用OpenCV中矩形的轮廓检测来 ...
分类:   
对比自监督学习浪潮迅猛来袭,你准备好了吗?
对比自监督学习浪潮迅猛来袭,你准备好了吗?
近年来,自监督学习逐渐成为了备受人们关注的应对标注缺乏问题的热门解决方案,科研人员在基于对比学习的自监督方法方面进行了大量研究。本文是 PyTorch Lightning 创始人 William Falcon 的对比学习综述,对自监督 ...
分类:   
用最简单的方式训练史上最强ResNet-50,性能超过魔改结构的ResNeSt
用最简单的方式训练史上最强ResNet-50,性能超过魔改结构的ResNeSt
近日,CMU 的研究人员在 arXiv 上放出了一份技术报告,介绍他们如何通过蒸馏(distillation)训练一个强大的小模型。所提出方法使用相同模型结构和输入图片大小的前提下,在 ImageNet 上的性能远超之前 state-of-the ...
分类:   
一定要GPT3吗?不,BERT的MLM模型也能小样本学习
一定要GPT3吗?不,BERT的MLM模型也能小样本学习
大家都知道现在GPT3风头正盛,然而,到处都是GPT3、GPT3地推,读者是否记得GPT3的论文的名字呢?事实上,GPT3的论文叫做《Language Models are Few-Shot Learners》,标题里边已经没有G、P、T几个单词了,只不过它跟 ...
分类:   
BERT为什么是NLP的革新者
BERT为什么是NLP的革新者
BERT,全称 Bidirectional Encoder Representation from Transformers,是一款于 2018 年发布,在包括问答和语言理解等多个任务中达到顶尖性能的语言模型。它不仅击败了之前最先进的计算模型,而且在答题方面也有超 ...
分类:   
深度神经网络模型训练中的 tricks(原理与代码汇总)
深度神经网络模型训练中的 tricks(原理与代码汇总)
计算机视觉主要问题有图像分类、目标检测和图像分割等。针对图像分类任务,提升准确率的方法路线有两条,一个是模型的修改,另一个是各种数据处理和训练的技巧(tricks)。图像分类中的各种技巧对于目标检测、图像分割 ...
分类:   
Arm连发两大服务器CPU新品!单核性能猛增50%
Arm连发两大服务器CPU新品!单核性能猛增50%
今天,Arm公布下一代Neoverse服务器CPU设计,不仅公布N系列的第二代产品N2,还首次推出了全新产品类别Neoverse V系列平台,剑指最高单线程性能。Neoverse V1内核(代号Zeus)支持可伸缩扩展(SVE),具备更高的单线 ...
分类:   
任务式对话中的自然语言理解
任务式对话中的自然语言理解
随着人工智能技术的发展,智能对话的应用场景越来越多,目前已经成为了研究的热点。天猫精灵,小度小度,腾讯叮当,这些智能助手都是智能对话在业界的应用。智能助手的对话方式可分为三种:任务式对话 ( 用户输入指 ...
分类:   
微软与OpenAI达成合作,获得GPT-3独家使用授权
微软与OpenAI达成合作,获得GPT-3独家使用授权
当地时间9月22日,微软在官网发布通告,与OpenAI合作,独家获取了GPT-3语言模型的使用许可。这份通告以微软首席技术官凯文·斯科特(Kevin Scott)的身份发出,称微软正在与OpenAI合作,独家授权GPT-3使用。“这使我 ...
分类:   
台媒:台积电2nm制程获重大突破
台媒:台积电2nm制程获重大突破
据台媒经济日报透露,台积电2纳米制程研发获重大突破。供应链透露,有别于3纳米与5纳米采用鳍式场效电晶体(FinFET)架构,台积电2纳米改采全新的多桥通道场效电晶体(MBCFET)架构,研发进度超前,业界看好2023年下 ...
分类:   
性能媲美BERT,但参数量仅为1/300,这是谷歌最新的NLP模型
性能媲美BERT,但参数量仅为1/300,这是谷歌最新的NLP模型
在过去的十年中,深度神经网络从根本上变革了自然语言处理(NLP)领域的发展,但移动端有限的内存和处理能力对模型提出了更高的要求。人们希望它们可以变得更小,但性能不打折扣。去年,谷歌发布了一种被称为 PRADO ...
分类:   
Repulsion Loss 遮挡场景下的目标检测
Repulsion Loss 遮挡场景下的目标检测
在检测行人任务中,由于行人之间互相遮挡,导致传统的检测器容易受遮挡的干扰,给出错误的预测框。研究人员先是从数据集上进行分析,定量描述了遮挡对行人检测带来的影响。后面受吸引,排斥的启发,提出了Repulsion ...
分类:   
封闭的NVIDIA收购Arm,开放的RISC-V机会来了?
封闭的NVIDIA收购Arm,开放的RISC-V机会来了?
近日,NVIDIA 斥资 400 亿美元收购 Arm 的消息疯狂刷屏,看来今年挤爆牙膏的老黄确实够豪横。但很快也有业内人士表达了对此次收购案的担忧,认为立场原本相对中立的 ARM 生态一旦落入 NVIDIA 手中,对整个行业带来的 ...
分类:   
R-tmap 绘制带指北针和比例尺的空间地图
R-tmap 绘制带指北针和比例尺的空间地图
说起绘制空间数据相关的可视化作品,R语言还是比Python 要方便的多的。这里我们就简单介绍下tmap 空间数据可视化绘图包。值得注意的是,tmap 拥有类似于ggplot2 “图层” 语法绘图原理,熟悉ggplot2绘图的小伙伴肯定 ...
分类:   
哈佛专家披露:马斯克侵入式脑机接口技术的三个进展与三大局限
哈佛专家披露:马斯克侵入式脑机接口技术的三个进展与三大局限
美国时间 8 月 28 日下午,侵入式脑机接口技术公司 Neuralink 的创始人、科技英雄「硅谷钢铁侠」埃隆-马斯克举行了他戏称为「三只小猪」的发布会。通过「遛猪」的方式,向世界宣布和展示了 Neuralink 团队在过去一年 ...
分类:   
118亿晶体管!苹果A14首秀,这颗全球首发的5nm芯片有多香?
118亿晶体管!苹果A14首秀,这颗全球首发的5nm芯片有多香?
今日凌晨,苹果新一代A14仿生芯片“甩开”历年硬件主角iPhone,首次搭载于苹果新一代平板产品iPad Air上抢跑发布!在此之前,有关A14芯片的行业“剧透”已被曝光了太多,而苹果此次一改iPad系列产品均采用“特别增强 ...
分类:   
MIPS和Arm都无法幸免,为何受伤的都是IP巨头?
MIPS和Arm都无法幸免,为何受伤的都是IP巨头?
英伟达欲以400亿美元的价格从软银手中收购Arm的传言,在9月14日伴随着英伟达与软银联合发布的一则公告而终止。据英伟达公告显示,这笔400亿美元的拟议中的交易要符合惯例成交条件,包括收到英国,中国,欧盟和美国的 ...
分类:   
RNN 其常见架构:一文带你了解RNN家族知识点
RNN 其常见架构:一文带你了解RNN家族知识点
CNN 和 RNN是当下 Deep Learning 应用领域中主流的两大结构。前篇文章中我们介绍了 CNN,本篇开始我们聊聊 RNN。RNN 跟 CNN 历史相似之处在于,都是上个世纪提出来的概念。但是由于当时计算量和数据量都比较匮乏,它 ...
分类:   
400亿美元!软银最快周一出售ARM给英伟达,或成英伟达最大股东
400亿美元!软银最快周一出售ARM给英伟达,或成英伟达最大股东
ARM出售案又有新进展,软银出售ARM给英伟达的消息即将尘埃落定,这一交易金额将高达400亿美元。据福布斯今日消息,日本软银集团(SoftBank Group Corp.)准备以超过400亿美元的价格将英国的ARM Holdings销售给美国芯 ...
分类:   
一文看懂光刻胶
一文看懂光刻胶
光刻胶又称光致抗蚀剂,是一种对光敏感的混合液体。其组成部分包括:光引发剂(包括光增感剂、光致产酸剂)、光刻胶树脂、单体、溶剂和其他助剂。光刻胶可以通过光化学反应,经曝光、显影等光刻工序将所需要的微细图 ...
分类:   
Dynamic ReLU:微软推出提点神器,可能是最好的ReLU改进 | ECCV 2020
Dynamic ReLU:微软推出提点神器,可能是最好的ReLU改进 | ECCV 2020
ReLU是深度学习中很重要的里程碑,简单但强大,能够极大地提升神经网络的性能。目前也有很多ReLU的改进版,比如Leaky ReLU和 PReLU,而这些改进版和原版的最终参数都是固定的。所以论文自然而然地想到,如果能够根据 ...
分类:   
GitHub:小目标检测最全资料集锦
GitHub:小目标检测最全资料集锦
实际上,小目标检测是目标检测落地应用中非常棘手的问题,比如经常在遥感/无人机目标检测、人脸检测应用中出现。小目标检测(Small/Tiny Object Detection)概念很好理解,定性分析简单来说就是:相对于图像占比很小 ...
分类:   
GPT-1 & 2: 预训练+微调带来的奇迹
GPT-1 & 2: 预训练+微调带来的奇迹
GPT,全称是Generative Pre-training,顾名思义,就是预训练模型。在GPT出现之前,通用的使用预训练的方式是word2vec,即学习词语的表达。而在GPT出现之后,通用的预训练方式是预训练整个网络然后通过微调(fine-tune ...
分类:   
Transformer: Attention的集大成者
Transformer: Attention的集大成者
Transformer模型是机器翻译领域的一个全部基于attention的模型。那么什么是attention呢?且看下图。图中是一个seq2seq+attention的机器翻译模型。机器翻译问题中分为源语言和目标语言,图中是英语到西班牙语的翻译, ...
分类:   
Jürgen Schmidhuber发文纪念10年前的研究,网友:转折点非AlexNet?
Jürgen Schmidhuber发文纪念10年前的研究,网友:转折点非AlexNet?
LSTM 之父、深度学习元老 Jürgen Schmidhuber 发文纪念 10 年前发表的研究。Jürgen Schmidhuber 每次发博客都会引起一阵「腥风血雨」,这次似乎也不例外。最近,这位机器学习大牛发布博客,纪念 10 年前发表在 Neu ...
分类:   
英特尔的反击!第11代移动PC处理器AI性能飙升5倍,14年后再换Logo
英特尔的反击!第11代移动PC处理器AI性能飙升5倍,14年后再换Logo
今天,英特尔推出新一代移动PC处理器——第11代智能英特尔酷睿处理器,代号Tiger Lake,搭载英特尔锐炬Xe显卡,并首次加入全新SuperFin晶体管技术。据介绍,Tiger Lake的CPU性能提升逾20%,显卡性能提升高达2倍,在G ...
分类:   
泡沫过后,沉淀下来的AI芯片将落在何处?
泡沫过后,沉淀下来的AI芯片将落在何处?
前几年的“人工智能热”让大小厂商陆续跳入AI芯片的研发大军中,而当这股潮水褪去,当初的50多家公司大多数都黯然退出历史舞台,如今只剩10家左右。AI芯片的风口已然过去。据艾瑞咨询发布的2019年《AI芯片行业研究报 ...
分类:   
苹果将推出首款自研GPU!明年下半年落地iMac
苹果将推出首款自研GPU!明年下半年落地iMac
据台媒工商时报援引业界消息,苹果或将配合其首款自研Mac芯片Apple Silicon,推出自研的GPU。这款GPU代号为Lifuka,或将搭载于2021年下半年推出的iMac,与苹果自研的Mac处理器Apple Silicon一样,由台积电5nm制程工 ...
分类:   

热门频道

  • 大数据
  • 商业智能
  • 量化投资
  • 科学探索
  • 创业

即将开课

热门文章

     

    GMT+8, 2021-5-18 12:41 , Processed in 0.154304 second(s), 19 queries .