cnn

阅读 / 问答 / 标签

被CNN评选为全球最值得去的度假地!私藏万亩茶海,踏青正当时

曾被《纽约时报》评选为全球最值得一去的45个景区之一的莫干山,此刻的它正伴随着春风,沐浴着阳光渐渐开始苏醒。 每到这个季节的莫干山,更是浮花浪蕊开无数。如此风光,怎能辜负? 如果是你自驾来莫干山,你会发现, 玉兰大道、三莫线两侧都是延绵的花海,有海棠,有玉兰花 ,恍然就闯入了一场芳菲梦。 Tips:赏花的小伙伴要在3月到4月中旬之前趁着花期赶紧前往哦~ 来莫干山度假的小伙伴, 其周边还有很多好吃好玩的快乐天地等你去打卡!我还给大家发掘了几个 旅游 地附近的精品美宿,驱车也不过半小时, 快来看看都有哪些地方吧~ 莫干山游玩推荐 01 长颈鹿庄园 浙江省湖州市吴兴区妙西镇妙山村888号 02 义远有机农场 浙江省湖州市德清县-义远有机农场 03 王位山滑翔伞基地 湖州市德清王位山-滑翔伞基地 除了以上这些,还有非常多的游玩地: 下渚湖湿地公园 庾村 青芷咖啡馆 ..................大家可以亲自前往打卡哦~ 01 奢野既来·莫干山店 「亲子出游」「设计感」 奢野·既来 位于精品民宿扎堆的仙潭村,民宿一进门就是 超大的错落两层的院子 ,300多个平方, 整个装修让人倍感舒适与惬意。 考虑到亲子出游,民宿还准备了 蹦床、儿童足球场、深浅区泳池等设施 。 在奢野既来,餐食你可以 自助做户外BBQ,也可以提前点菜让管家为你服务。 民宿套餐还包含了莫干山景区、裸心谷等门票优惠预定、管家式游玩路线定制, 出了民宿也能玩一整天! 民宿离莫干山景区驱车只需30分钟哦~ 02 莫干山原界见山禅野主题民宿 「融入自然」「 娱乐 丰富」「可携带宠物」 王位山又称黄回山,是德清最高的山。原界见山 便在黄回山山顶附近。 依山而建的原界·见山 ,庭院露台为山而设。 站在观景露台眺望 层峦叠嶂的青山和广袤无垠的竹林,延绵不绝,令人神往。 花园中有开阔的草坪, 对着空旷的天际挥上几杆草坪高尔夫球是不错的选择,或是撑起帐篷在树荫下小憩,在庭院中BBQ。 见山的客房是两栋独立的建筑, 18间房,loft露台、园景庭院皆有选择。 小伙伴们可以前往 王位山顶滑翔伞基地 进行滑翔伞体验,还可以做 见山的观光车往返黄回山顶看绝美的景色。 03 莫干山溪山原宿 「亲子」「品质」 在 “民国小镇”瘐村 ,仿佛置身于巴黎香榭丽大道。杭州驱车1h可达,溪山原宿就静静躺卧在青山绿水间。 从远处便泛起暖黄灯光的尖顶白房子看起来像极了一座城堡花园。 10间房为家涂抹梦幻治愈底色,床品高级配套比肩裸心谷,数着星星入睡。 户外还有一个泡池,即使是雨天穿着和服拍照也十分有情调( 民宿提供和服体验~ )。 10mins车距的莫干山“宝藏”农乐场里面藏着十余项玩乐项目。 真人CS、骑马、山地卡丁车...找回童趣、团建开趴、亲子家庭聚会再合适不过了,还能免费畅吃自助烧烤吃到饱哦~ 04 莫干山卜宿·喜度 「被竹林茶园泳池包围的亲子美宿」「可带宠物」 喜度坐落于莫干山脚下,劳岭水库边。 地理位置优越,充满田园野趣。 占地面积3亩,有山有水有竹林,还正面着一整片的茶园和桃林。一栋白房子,自带网红泳池和秋千。 民宿共有7间房,无论躺着、坐着,都能眺望茶山竹林。 05 莫干山芝麻谷艺术酒店 「品质」「艺术气息」 芝麻谷 充满着浓郁的异域风情和艺术气息,远处的群山竹海做背,扇形无边瀑布泳池哗啦啦的水流声带着欢快的节奏。 芝麻谷还有超大的草坪 ,散落着抽象的艺术雕塑。 | 泳池、餐厅、影院等设施齐全,孩子们可在草坪奔跑与欢笑,也可以窝在阳台安静读书。非常适合团建、亲子出行。 芝麻谷的61间房,没有一个房是相同的, 这里一定有你喜欢的一间氛围和调性。 民宿离 吃喝玩乐一条街的庾村驱车只要20min,里莫干山风景区只要30min~ 06 莫干山Chic九野民宿 「轰趴包栋C位品质」「艺术气息」 莫干山Chic九野 位于五四村青刁坞, 离莫干山景区和庾村都很近 。 大量的空间被用做公共区域,两栋辅楼分别做成了前台和酒吧,开放式的厨房和大客厅,有壁炉有吧台, 院子里有户外大草坪、烧烤平台、泳池。 10个人就可以包栋! 抛去所有的烦恼,感受当下的一刻平静。 2栋私密别墅,10间房,融入品质和美感,把最好的设计都隐藏在了细节里。 07 莫干山无问竹语民宿 「品质」「可带宠物」 如果乡野生活有具体的形状,我想就是无问竹语的样子。 杭州开车1h便可抵达这片森林。 无问竹语270 开放露台 无问竹语坐落在莫干山北麓的碧坞村。 车程20分钟向南便直通莫干山,沿途是大片茶园,风光旖旎。 再开20分钟,是国内首家互动式长颈鹿庄园 ,火爆程度可见一斑。暑假正是出去玩儿的好时候,与长颈鹿共进早餐、给这些来自肯尼亚的小动物们投食... 民宿前庭后院的雅致,高端配套设施媲美高星酒店。 08 莫干山山水谈 「融入自然」「可带宠物」 山水谈 掩映在莫干山的一片竹林翠蔼中,暖黄的房子,在山、竹、树之间,这是你在山间的温暖乐园。 “山水谈”民宿共有两幢主楼 ,由14个客房,1个公共客厅,1个餐厅及一座游泳池组成。 室内景观保留了质朴怀旧的风格,并在营造中 参考江南园林的取景法则,引美景入室来。 09 莫干山青垆酒店 「临梦溪湖」「设计感」 当你亲自到访莫干山青垆,还来不及摸清周遭便会被青垆的好设计所吸引。 简约、干练、刚柔并济。 一层区域全部打通,这里是前台、公共区域,也是咖啡馆和餐厅。 二三两层共设8间客房。 在别墅原有的格局上并未做太大改动,所以8间客房无论房型或是面积都不一致。每次推开一扇门,都有小小的惊喜藏在门后。 免费开放的SPA池同时可供6人使用,只需提前1天预约即可。 10 莫干山青芷space 「玻璃屋顶下拍时髦大片」 青芷民宿 在莫干山镇上的老街黄郛西路53号,是莫干山老粮仓改造的集合空间。以庭院为界, 左边是青芷HOME,右边是多业态的集合店。 空间超过100平却只做2间客房 ,只因为想把属于“青芷”的甜梦给真正懂它的人:Cocomat床垫、Smeg冰箱……清新自然小套间说的就是它。 11 莫干山圣岛·莫干温泉美墅 「圣托里尼度假风」 圣岛莫干的一期是 希腊爱情海风 ,有沙滩、双泳池和露天可供团建的户外BBQ平台,室内的公区也很有格调。 圣岛的室外占地面积很大,休闲设施也很丰富, 泳池、沙滩、美酒…… 有一个庭院,孩子可以在里荡秋千,大人能在露天平台安心喝茶放空。 忽然发现这样的配置和阵势,已经靠近了度假酒店,而它比酒店更有温度和爱意。 民宿里莫干山游玩点取车都不到30min,到大斗坞水库不到40min,不管在民宿里还是外出都能玩得非常尽兴。

ABC、NBC、FOX、CNN、BBC、CGTN、NHK的区别是什么?

ABC, NBC, FOX, CNN 属于美国的电视广播公司BBC 英国的 (British Broadcasting Company)CGTN 中国国际电视台(中国环球电视网)NHK 日本电视广播公司

cnn翻译6月19-5

为什么重要?现在还不清楚先:星系或黑洞,Schawinski说。钱德拉的观察显示,已经proto-galaxies中心黑洞,但似乎黑洞和他们的星系在一起成长。我们看到,图案在现代:更大的星系黑洞、较大的星系周围。银河系有一个黑洞,它的中心,也大约400万倍太阳的质量。“所有的黑洞,我们看到今天在星系中心的生命中那些婴儿后代黑洞我们看到宇宙的黎明,”他说。那怎么会发生的仍然是一个谜,但是这个发现表明,该共生的关系回到宇宙的黎明,Schawinski说。它还能改变我们思考我们的宇宙的历史,楝属说。如果黑洞是先来,他们就会起到了至关重要的作用形成的整体结构的宇宙,楝属说。一个年轻的星系,显示在这个艺术家的印象,有尘埃和气体隐藏在其中心黑洞。“在一些奇怪的、间接的方法,我们可以欠我们的存在对这些黑洞,因为许多星系都可能没有形成要不是黑洞的说:“在那里第一次印。他并没有参与到这项研究。这些观察早黑洞也揭开宇宙如何变得透明。早期的宇宙充满了原子氢,这一时期被称为“黑暗时代”,因为它是完全透明,Schawinski说。一些神秘的事件”re-ionized”,或把氢到被称为离子的带电微粒,这样的光可能能够自由旅行。大自然的一项研究表明,一个典型的黑洞可能没有“照亮”宇宙的方式。那是因为紫外线会被困后气体和尘埃;只有自大爆炸以后人们x射线能逃脱,他们没有这个游离的财产。下一个是什么?Schawinski集团计划的进一步推进到宇宙早期,获得更多的洞察早期的黑洞。但也可能出现的线索在大型强子对撞机,100亿美元的粒子在地球上smasher在欧洲核子研究组织(CERN)。了解LHC的实验可能产量新性质可能解释物理的神秘的宇宙最早形成黑洞,楝属说。

cnn cable 是什么意思?

cnn cable有线电视双语例句1That"s the anchor of one of most famous programs on CNN Cable Network.他是美国有线新闻网络的一个著名节目的主持人。2Perhaps the PR industry might take a lesson from Ted Turner of CNN ( Cable News Network).美国公关行业可能应该向有线新闻网(CNN)的特德?特纳学习。

Cascade (Mask) RCNN 2019

"close" false positives: 和正确的样本非常接近但是其实是不正确的bbox. 在以往的方法中,界定正负样本是通过卡IoU阈值来实现的。比如在Faster RCNN中的RPN,在选择正负样本时,采用如下的方法: 当卡IoU阈值为0.5时,产生的样本数量非常noisy(如下图(a)所示,很多非常小的box仅包含了背景,但是也被留下来当作了person类) 当逐渐增大阈值,bbox的质量会越来越好,但是也导致可用于训练的正样本急剧减少。 本文中定义了: 初始前提 :一个单独的detector只能在某个特定的“quality of detector”下达到optimal. (也就是一个detector只能对应一个最佳的IoU threshold) 下面作者用了三个实验来验证上面这个前提: 图(a) 是bbox regression的表现。三个设置了不同IoU阈值的regressor,分别在它们threshold附近的IoU表现得最好,比如: 的蓝色曲线,在横轴0.5左右的地方表现就比其他两条曲线高。 图(c) 也有相同的效果。这就表明了,一个在单个IoU阈值下训练好的detector,对于IoU阈值下的表现就不是最佳的了。 图(b) 中显示的peak也能说明类似的结论。总的来说,IoU阈值确定了分类的boundary——分类器在什么boundary下是表现最好的。 这些实验观察说明,单单去提高IoU阈值来产生质量更高的proposals以训练网络是不能一定得到更好的效果的, 图(c) 里面 那里,反而证明阈值越高效果还越差。这个结果有两个原因: 于是提出了Cascade RCNN这么一种multi-stage的方式: The Cascade of RCNN stages is trained sequentially, using the output of one stage to train the next. 因为input proposals和GT的IoU,经过了regressor之后,output和GT的IoU分数一定会更好(不然你的regressor就是白瞎了不是)。这也就是说,对于卡了低IoU阈值的detector,它输出出来的bbox如果作为下一个“高IoU阈值detector”的输入proposals,那个这个proposals(hypotheses)的质量必然是更好的。 对于上述两个问题的解决: 每一个regressor 都在之前的regressor产生的bbox分布上调优,而不是在给的初始bbox上( )。这样一来,hypotheses是一层一层越来越优化的。 RPN最开始产生出来的那些hypotheses分布中,low quality的占了大部分。在 时候,只有2.9%的examples是正样本。这样就很难去训练一个高质量下的detector(之前提到了:low quality hypotheses只能训练low quality detector; high quality hypotheses只能训练high quality detector)。在Cascade RCNN中,用了cascade regression来作为一种 重采样 策略(resampling method)。因为上一层low quality的bbox经过了上一层的regressor之后精细化了,到了下一层就变成了high quality的bbox,即使下一层卡IoU阈值卡得高一点,这些bbox也不会被过滤掉。文中说这样可以让每一个stage的正样本数几乎保持一个常量。这样做相当于 改变 了bbox hypotheses的 分布 。 从 Fig3 (c) 可以看出 Iterative BBox 和本文的Cascade RCNN差不多,只是Iterative BBox在不同的stage都用了 同样的network head ,相当于在每个stage把同样的module重复使用。这样做的话其实没有解决之前说的 paradox of high-quality detection 。 而 Intergral Loss 中提出的结构( Fig3(d) ) 没有解决当IoU阈值卡高了之后正样本数量急剧减少的问题。 Mask R-CNN中,新加入的segmentation branch是和detection branch平行加入的。在Cascade的结构中,加入这样一个新的branch就有如下两个问题: (1) 加在哪里? (2) 加多少? 文中给出了三个方案如上图 Fig 6 :(b) (c)两个方案主要是解决第一个问题,且只考虑加一个segmentation branch。 用来训练segmentation branch的instances是来自于detection branch的正样本。把segmentation head放到cascade的更后面可以得到更多的样本,但是由于分割是一个pixel-wise的操作,有很多重叠的instances其实也不是一件好事。 (d) 第三种方案在每个stage都加了一个分割头,这样最大化了sample的多样性。 在inference的时候所有的strategies都在最后的stage输出来的patches上面进行分割,不管训练的时候segmentation head是如何设置的。

CALIS、CERNET、CNNIC是哪些机构的简称?请写出其中文名和英文全称。

Calis是中国高等教育文献保障系统(China Academic Library & Information System)的简称。 CERNET:中国教育和科研计算机网(China Education and Research Network) CNNIC:中国互联网络信息中心(china internet network information center)

Faster R-CNN:使用RPN实时目标检测

论文: Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks 目标检测网络大多依靠 区域生成 (region proposal)算法来假设目标的位置。 R-CNN 是采用 Selective Search 算法来提取(propose)可能的 RoIs(regions of interest) 区域,然后对每个提取区域采用标准 CNN 进行分类。选择性搜索(Selective Search )方法就是在目标对象周围设定2000个形状大小位置不一的候选区域,目标物体在候选区域的可能性还是比较大的。然后对这些区域卷积,找到目标物体,虽然大多数区域都是无用的。与寻找几乎个区域比起来,这种方法要高效的多。 Fast R-CNN ,不在原始图像生成备选区域,而是先整张图片通过卷积网络得到特征图,然后在特征图上使用备选区域算法得到感兴趣的区域在特征图的映射,之后使用 Rol Pool将所有区域变成同样尺寸,大大减少了这些目标检测网络的运行时间,但是区域生成的计算成为整个检测网络的瓶颈。 Faster R-CNN 引入了一个 区域生成网络(Region Proposal Network,RPN) ,该网络与检测网络共享输入图像的卷积特征,从而使接近零时间成本的区域生成成为可能。 RPN是一个全卷积网络,可以同时在每个位置预测目标边界和目标分数。RPN经过端到端的训练,可以生成高质量的区域候选框,然后提供给Fast R-CNN用于检测。 Faster R-CNN 由两个模块组成:第一个模块是区域生成的深度全卷积网络,第二个模块是使用备选区域的Fast R-CNN检测器。整个系统是一个单个的,统一的目标检测网络。使用最近流行的“注意力”机制的神经网络术语,RPN模块告诉Fast R-CNN模块在哪里寻找目标。 针对一张图片,需要获得的输出有: Faster R-CNN 第一步是采用基于分类任务(如ImageNet)的 CNN 模型作为特征提取器。输入图片表示为 H × W × D 的形式,经过预训练 CNN 模型的处理,得到卷积特征图(conv feature map)。 Faster R-CNN 最早是采用在 ImageNet 训练的 ZF 和 VGG ,其后出现了很多其它权重不同的网络.。如 MobileNet 是一种小型效率高的网络结构,仅有 3.3M 参数;而ResNet-152 的参数量达到了 60M;新网络结构,如 DenseNet 在提高了结果的同时,降低了参数数量。 以 VGG16 为例: VGG16 图片分类时,输入为 224×224×3 的张量(即,一张 224×224 像素的 RGB 图片)。网络结构最后采用 FC 层(而不是 Conv 层)得到固定长度的向量,以进行图片分类.。对最后一个卷积层的输出拉伸为1维的向量,然后送入 FC 层。官方实现中是采用的卷积层 conv5/conv5_1 的输出。 在深度上,卷积特征图对图片的所有信息进行了编码,同时保持相对于原始图片所编码 “things” 的位置。例如,如果在图片的左上角存在一个红色正方形,而且卷积层有激活响应,那么该红色正方形的信息被卷积层编码后,仍在卷积特征图的左上角。因此利用特征图检测目标所在的位置是可行的。 ResNet 结构逐渐取代 VGG 作为基础网络,用于提取特征。ResNet 相对于 VGG 的明显优势是,网络更大,因此具有更强的学习能力.。这对于分类任务是重要的,在目标检测中也应该如此。另外,ResNet 采用残差连接(residual connection) 和 BN (batch normalization) 使得深度模型的训练比较容易。 然后,RPN(Region Propose Network) 对提取的卷积特征图进行处理,寻找可能包含 目标的 预定义数量的区域(regions,边界框) 。为了生成候选区域,在最后的共享卷积层输出的卷积特征图上做 3x3 卷积,卷积核共有512个(VGG),后面是ReLU,这样每个 3x3 区域会得到一个512维的特征向量。然后这个特征向量被输入到两个全连接层——一个边界框回归层(reg)和一个边界框分类层(cls)。 下面解释 k, 2k, 4k 的含义。 基于深度学习的目标检测中,可能最难的问题就是生成长度不定(variable-length)的边界框列表(bounding-boxes),边界框是具有不同尺寸(sizes)和长宽比(aspect ratios )的矩形。在构建深度神经网络时,最后的网络输出一般是固定尺寸的张量输出(采用RNN的除外)。例如,在图片分类中,网络输出是 (C, ) 的张量,C是类别标签数,张量的每个位置的标量值表示图片是类别的概率值。 在 RPN 中,通过采用 anchors(锚) 来解决边界框列表长度不定的问题,即在原始图像中统一放置固定大小的参考边界框。上面说到RPN对特征图做3x3的卷积,假设每一次卷积需要预测 k 个候选区域,因此,reg层具有 4k 个输出,编码 k 个边界框的坐标,cls层输出 2k 个分数,估计每个区域是目标或是背景的概率。这 k 个区域就是 被 k 个参考边界框初始化, k 个参考框就是 k 个锚点,作为第一次预测目标位置的参考 boxes。锚点的中心位于卷积核滑动窗口的中心。默认情况下每个滑动位置使用3个不同尺度(128 2 , 256 2 , 512 2 )3个不同长宽比(1:2, 1:1, 2:1)的锚点,k=9。对于大小为W×H(通常约为2400)的卷积特征图,总共有 W×H×k 个锚点。对于RPN的最后两个全连接层,参数的个数为 512×(4+2)×k. 不同于直接检测目标的位置,这里将问题转化为两部分。对每一个 anchor 而言: 有一种简单的方法来预测目标的边界框,即学习相对于参考边界框的偏移量。假设参考 box:( ),待预测量:( ),一般都是很小的值,以调整参考 box 更好的拟合所需要的。 虽然 anchors 是基于卷积特征图定义的,但最终的 anchos 是相对于原始图片的. 由于只有卷积层和 pooling 层,特征图的维度是与原始图片的尺寸成比例关系的. 即,数学地表述,如果图片尺寸 w×h,特征图的尺寸则是w/r×h/r. 其中,r 是下采样率(subsampling ratio). 如果在卷积特征图空间位置定义 anchor,则最终的图片会是由 r 像素划分的 anchors 集。在 VGG 中, r=16。 RPN 利用所有的参考边界框(anchors),输出一系列目标的良好的 proposals。针对每个 anchor,都有两个不同的输出: RPN是全卷积网络。 对于分类层,每个 anchor 输出两个预测值:anchor 是背景(background,非object)的 score 和 anchor 是前景(foreground,object) 的 score. 对于回归层,也可以叫边界框调整层,每个 anchor 输出 4 个预测值: (Δxcenter,Δycenter,Δwidth,Δheight),用于 anchors 来得到最终的 proposals。根据最终的 proposal 坐标和其对应的 objectness score,即可得到良好的 objects proposals. RPN 有两种类型的预测值输出:二值分类和边界框回归调整。 为了训练RPN,我们为每个锚点分配一个二值类别标签(是目标或不是目标)。我们给两种锚点分配一个正标签:(i)具有与实际边界框的重叠最高交并比(IoU)的锚点,或者(ii)具有与实际边界框的重叠超过0.7 IoU的锚点。注意,单个真实边界框可以为多个锚点分配正标签。通常第二个条件足以确定正样本;但我们仍然采用第一个条件,因为在一些极少数情况下,第二个条件可能找不到正样本。对于所有的真实边界框,如果一个锚点的IoU比率低于0.3,我们给非正面的锚点分配一个负标签。既不正面也不负面的锚点不会有助于训练目标函数。 然后,随机采样 anchors 来生成batchsize=256 的 mini-batch,尽可能的保持 foreground 和 background anchors 的比例平衡。 RPN 对 mini-batch 内的所有 anchors 采用二分类交叉熵来计算分类 loss。然后,只对 mini-batch 内标记为 foreground 的 anchros 计算回归 loss。为了计算回归的目标targets,根据 foreground anchor 和其最接近的 groundtruth object,计算将 anchor 变换到 object groundtruth 的偏移值 Δ。 Faster R-CNN没有采用简单的 L1 或 L2 loss 用于回归误差,而是采用 Smooth L1 loss. Smooth L1 和 L1 基本相同,但是,当 L1 误差值非常小时,表示为一个确定值即认为是接近正确的,loss 就会以更快的速度消失. 由于 Anchors 一般是有重叠,因此,相同目标的候选区域也存在重叠。 为了解决重叠 proposals 问题,采用 NMS 算法处理,丢弃与一个 score 更高的 proposal 间 IoU 大于预设阈值的 proposals. 虽然 NMS 看起来比较简单,但 IoU 阈值的预设需要谨慎处理. 如果 IoU 值太小,可能丢失 objetcs 的一些 proposals;如果 IoU 值过大,可能会导致 objects 出现很多 proposals。IoU 典型值为 0.7。 NMS 处理后,根据 sore 对topN 个 proposals 排序. 在 Faster R-CNN 论文中 N=2000,其值也可以小一点,如 50,仍然能的高好的结果. 当获得了可能的相关目标和其在原始图像中的对应位置之后,问题就更加直接了,采用 CNN 提取的特征和包含相关目标的边界框,采用 RoI Pooling 处理,并提取相关目标的特征,得到一个新的向量。 RPN 处理后,可以得到一堆没有分类得分的目标 proposals。待处理问题为,如何利用这些边界框并分类。 一种最简单的方法是,对每个 porposal,裁剪,并送入pre-trained base 网络,提取特征;然后,将提取特征来训练分类器. 但这就需要对所有的 2000 个 proposals 进行计算,效率低,速度慢。Faster R-CNN通过重用卷积特征图来加快计算效率,即采用 RoI(region of interest) Pooling 对每个 proposal 提取固定尺寸的特征图。然后 R-CNN 对固定尺寸的特征图分类。 目标检测中,包括 Faster R-CNN,常用一种更简单的方法,即:采用每个 proposal 来对卷积特征图裁剪crop,然后利用插值算法(一般为双线性插值 bilinear)将每个 crop resize 到固定尺寸14×14×ConvDepth. 裁剪后,利用 2×2 kernel 的 Max Pooling 得到每个 proposal 的最终7×7×ConvDepth 特征图. 之所以选择该精确形状,与其在下面的模块(R-CNN)中的应用有关。 R-CNN利用RoI Pooling提取的特征进行分类,采用全连接层来输出每个可能的 目标类别的分类得分,是Faster R-CNN框架中的最后一个步骤。 R-CNN 有两个不同的输出: R-CNN 对每个 proposal 的特征图,拉平后采用 ReLU 和两个大小为 4096 维的全连接层进行处理。然后,对每个不同目标采用两个不同的全连接层处理:一个全连接层有 N+1 个神经单元,其中 N 是类别 class 的总数,包括 background class;一个全连接层有 4N 个神经单元,是回归预测输出,得到 N 个可能的类别分别预测 Δcenterx,Δcentery,Δwidth,Δheight。 R-CNN 的目标基本上是与 RPN 目标的计算是一致的,但需要考虑不同的可能的 object 类别 classes. 根据 proposals 和 ground-truth boxes,计算其 IoU。与任何一个 ground-truth box 的 IoU 大于 0.5 的 proposals 被设为正确的 boxes。IoU 在 0.1 到 0.5 之间时设为 background。这里忽略没有任何交叉的 proposals。这是因为,在此阶段,假设已经获得良好的 proposals。当然,所有的这些超参数都是可以用于调整以更好的拟合 objects。 边界框回归的目标计算的是 proposal 与其对应的 ground-truth间的偏移量,只对基于 IoU 阈值设定类别后的 proposals 进行计算。随机采用一个平衡化的 mini-batch=64,其中,25% 的 foreground proposals(具有类别class) 和 75% 的background proposals. 类似于 RPNs 的 losses,对于选定的 proposals,分类 loss 采用 multiclass entropy loss;对于 25% 的 foreground proposals 采用 SmoothL1 loss 计算其与 groundtruth box 的匹配。 由于 R-CNN全连接网络对每个类别仅输出一个预测值,当计算边框回归loss 时需谨慎,只需考虑正确的类别。 类似于 RPN,R-CNN 最终输出一堆带有类别分类的objects,在返回结果前,再进一步进行处理。 为了调整边界框,需要考虑概率最大的类别的 proposals. 忽略概率最大值为 background class 的proposals. 当得到最终的 objects 时,并忽略被预测为 background 的结果,采用 class-based NMS. 主要是通过对 objects 根据类别class 分组,然后根据概率排序,并对每个独立的分组采用 NMS 处理,最后再放在一起. 最终得到的 objects 列表,仍可继续通过设定概率阈值的方式,来限制每个类的 objects 数量. Faster R-CNN在论文中是采用分步方法,对每个模块分别训练再合并训练的权重. 自此,End-to-end 的联合训练被发现能够得到更好的结果. 当将完整的模型合并后,得到 4 个不同的 losses,2 个用于 RPN,2 个用于 R-CNN。4 种不同的 losses 以加权和的形式组织. 可以根据需要对分类 loss 和回归 loss 设置权重,或者对 R-CNN 和 RPNs 设置不同权重. 采用 SGD 训练,momentum=0.9. 学习率初始值为 0.001,50K 次迭代后衰减为 0.0001. 这是一组常用参数设置。
 首页 上一页  1 2 3 4 5