barriers / 阅读 / 详情

什么是Backbone

2023-06-23 20:01:23
共1条回复
okok云

  Backbone是一个轻量级的前端MVC框架,用于结构化管理页面中的大量JS,建立与服务器、视图间的无缝连接,为构建复杂的应用提供基础框架。

相关推荐

什么是Backbone

Backbone是一个轻量级的前端MVC框架,用于结构化管理页面中的大量JS,建立与服务器、视图间的无缝连接,为构建复杂的应用提供基础框架。 下面我先简单地阐述下Backbone的主要特点及特性: 2.1 轻量级   Backbone的源码只有1000行左右(去注释和空行后),文件大小只有16KB,加上依赖库Underscore,也仅有29KB。   你只需要花一点时间,就能轻松了解Backbone内部实现;或编写少量代码,来重载Backbone的部分机制;如果你想在Backbone的基础上做二次开发,也并不是一件复杂的事情。 2.2 MVC结构化   Backbone可以轻松将页面中的数据、逻辑、视图解耦,依照Backbone进行代码结构组织,你可以将项目中的数据交互、业务逻辑、用户界面等工作,分配给多个同事同时开发,并能有序地组织到一起。同时,这对于大型和复杂项目的维护开发非常有帮助。 2.3 继承机制   在Backbone中,模块是可以被继承的,你可以通过面向对象的方式将应用中的数据模型、集合、视图有序地组织,让整个架构更加清晰;也可以方便地重载和扩展自定义方法。 2.4 建立与服务器的无缝连接   在Backbone中内置了一套与服务器数据的交互规则(如果你了解REST架构,就能够轻松地理解它们),而数据的同步工作会在Model中自动进行,前端开发人员只需对客户端数据的进行操作,Backbone会自动将操作的数据同步到服务器。   这是件非常有趣的事情,因为服务器数据接口对前端开发者来说是透明的,他们不需要再关心如何和服务器交互。   然而服务器提供的数据接口也需要兼容Backbone的规则,对于一个新的项目来说,我们可以尝试使用这套规则来构建接口。但如果你的项目中已经有一套稳定的接口,你可能会担心接口改造的风险。   没关系,我们可以通过重载Backbone.sync方法来适配现有的数据接口,针对不同的客户端环境,我们还可以实现不同的数据交互方式。例如:用户通过PC浏览器使用服务时,数据会实时同步到服务器;而用户通过移动终端使用服务时,考虑到网络环境问题,我们可以先将数据同步到本地数据库,在合适的时候再同步到服务器。而这些只需要你重载一个方法就可以实现。 2.5 界面事件管理   在MVC中,我们希望能将界面展现和业务逻辑完全分离,但对于用户产生的交互事件(如单击事件),我们却常常通过类似jQuery中的bind方法进行获取和绑定。
2023-06-23 15:01:261

backbone的环境怎样搭建

在正式学习Backbone之前,你需要准备一些东西:首先,你需要获取Backbone框架源文件:http://documentcloud.github.com/backbone/Backbone依赖于Underscore框架的基础方法,因此,你同时需要下载Underscore框架的源文件:http://documentcloud.github.com/underscore/在Backbone中,对DOM和事件的操作依赖于第三方库(如jQuery或Zepto),你只需要选择其中一个下载:jQuery:http://jquery.com/Zepto:http://zeptojs.com/看起来好像挺麻烦的样子,但Backbone的目的是在于使用简单的框架来构建复杂的应用,因此麻烦并不表示它很复杂。你可以新建一个HTML页面,并将这些框架引入进来,就像这样:?123 <script type="text/javascript" src="jquery/jquery-1.8.2.min.js"></script><script type="text/javascript" src="underscore/underscore-min.js"></script><script type="text/javascript" src="backbone/backbone-min.js"></script>
2023-06-23 15:01:471

骨干英语怎么说

Backbone人体的骨干Keycadres干部骨干的骨干
2023-06-23 15:01:554

backbone/key enterprise是什么意思?

骨干企业的关键
2023-06-23 15:02:031

Backbone 不同视图 View 之间事件怎么互相通知

一般用一个公共的消息中心,不同的View通过这个消息中心相互通知,这样比较好。比如这个消息中心叫做vent App.vent = null; _.extend(App.vent, Backbone.Events);那么当你需要View1通知View2做一件事(比如这个事件叫“to:do:something”)的时候,你就可以在View2中通过App.vent侦听这个事件,在View1中触发这个事件就可以了View2通过vent侦听事件:App.View2 = Backbone.View.extend({... initialize: function() { ... App.vent.on("to:do:something", function( arg ) { ... }); ... }...});View1通过vent触发事件:App.View1 = Backbone.View.extend({... onClickOrSomeOtherTriggering: function() { ... App.vent.trigger("to:do:something", { arg: arg }); ... }...});如果你用Backbone Marionette的话,它本身就有一个Object叫做vent,直接用就行了。
2023-06-23 15:02:231

maskrcnn识别框非常小

maskrcnn简单解析 原创2022-07-08 10:25:19曙光_deeplove 码龄5年关注最近又开始看了一点detectron2框架中的maskrcnn,因此我这里回忆记录一下maskrcnn的基本原理。一、基础网络架构以上两个结构图就非常清晰地展示了maskrcnn网络模型的大致情况!一、backboneBackbone采用的是ResNet-50或者ResNet-101,作为特征提取器提取特征,我们将输入图像(大小为 H imes W )通过ResNet后,会得到五层特征图,其尺寸大小依次为:( )我们知道,低层特征往往含有较多的细节信息(颜色、轮廓、纹理),但包含许多的噪声以及无关信息。而高层特征包含有充分的语义信息(类别、属性等),但空间分辨率却很小,从而导致高层特征上信息丢失较为严重。因此maskrcnn采用了FPN(特征金字塔网络)的结构,来进行特征的融合。FPN结构中包括自下而上,自上而下和横向连接三个部分。FPN可以同时利用低层特征图的空间信息和高层特征图的语义信息,它的原理很简单,就是把分辨率较小的高层特征首先通过1×1卷积降维(减少计算量),然后上采样至前一个特征图的相同尺寸,再进行逐元素相加,就能得到融合后的特征。注:1)自下而上:从下到上的路径,可以明显看出,其实就是简单的特征提取过程,和传统的没有区别。具体就是将ResNet作为骨架网络,根据feature map的大小分为5个stage。stage2,stage3,stage4和stage5各自最后一层输出conv2,conv3,conv4和conv5分别定义为C2,C3,C4,C5,他们相当于原始图片的stride是{4, 8, 16, 32}。需要注意的是,考虑到内存原因,stage1的conv1并没有使用。2)自上而下和横向连接:自上而下是从最高层开始进行上采样,这里的上采样直接使用的是最近邻上采样,而不是使用反卷积操作,一方面简单,另外一方面可以减少训练参数。横向连接则是将上采样的结果和自底向上生成的相同大小的feature map进行融合。具体就是对 C2,C3,C4,C5中的每一层经过一个conv 1x1操作(1x1卷积用于降低通道数),无激活函数操作,输出通道全部设置为相同的256通道,然后和上采样的feature map进行加和操作。在融合之后还会再采用3*3的卷积核对已经融合的特征进行处理,目的是消除上采样的混叠效应(aliasing effect)。 实际上,上图少绘制了一个分支:M5经过步长为2的max pooling下采样得到 P6,作者指出使用P6是想得到更大的anchor尺度512×512。但P6是只用在 RPN中用来得到region proposal的,并不会作为后续Fast RCNN的输入。总结一下,ResNet-FPN作为RPN输入的feature map是 ,而作为后续Fast RCNN的输入则是 。二、RPN在得到增强后的特征后,下面要讲的就是我们的RPN(Region Proposal Network)。首先我们得明白什么叫做RPN?顾名思义,RPN就是区域推荐的网络,用于帮助网络推荐感兴趣的区域。在说这个之前,我们得清楚什么叫做锚点?其实锚点也就是框,我们知道实例分割是要完成对物体的检测、分类、分割三个任务,而检测需要定位,也就是要得到目标的位置。Maskrcnn与fasterrcnn一样都是先生成一系列锚点,然后通过一定的规则来筛选。各个框的大小由scale和ratio这两个参数来确定的,比如scale =[64],ratio=[0.5,1,1.5] ,则每个像素点可以产生3个不同大小的框。这个三个框是由保持框的面积不变,来通过ratio的值来改变其长宽比,从而产生不同大小的框。我们在前面通过backbone和fpn得到了增强后的特征,现在就需要在这个特征上来使用我们的RPN结构。这里需要说明一点,我们要在这几层特征图之间根据region proposal切出ROI进行后续的分类和回归预测。选择哪个feature map来切出这些ROI区域:我们会选择最合适的尺度的feature map来切ROI。具体来说,我们通过一个公式来决定宽w和高h的ROI到底要从哪个特征图来切:RPN其原理如下:注:为何是9个框呢?应该是3个ratio,那应该是3个框才对。后面我们讨论认为他这里面应该是scale给了3个,所以才会是九个注意:上面各层特征图(p2至p6)之间根据region proposal切出ROI进行后续的分类和回归预测。选择哪个feature map来切出这些ROI区域:我们会选择最合适的尺度的feature map来切ROI。具体来说,我们通过一个公式来决定宽w和高h的ROI到底要从哪个特征图来切。三、ROI AlignMask RCNN的构建很简单,只是在ROI pooling(实际上用到的是ROIAlign,后面会讲到)之后添加卷积层,进行mask预测的任务。通过ROI Align(或者说ROI Pooling)可以将输入的各个不同size的ROI进行fixed,官方是fixed大小为7x7。3.1 原始ROI Pooling的问题在Faster-RCNN中ROI Pooling的过程如下图所示:注意:可以看到上图有两次量化误差,第一次是从图像坐标系转到特征图坐标系:665/32=20.78,取整20的时候出现量化误差;第二次是从特征图坐标系转到特征图中的ROI坐标系:20/7=2.86,取整到2则出现量化误差。输入图片的大小为800x800,其中狗这个目标框的大小为665x665,经过VGG16网络之后获得的特征图尺寸为800/32 x 800/32 = 25 x 25,其中32代表VGG16中的5次下采样(步长为2)。同样地,对于狗这个目标我们将其对应到特征图上得到的结果是:665/32 imes 665/32 = 20.78 imes 20.78 = 20 imes 20,因为坐标要保留整数所以这里引入了第一个量化误差即舍弃了目标框在特征图上对应长宽的浮点数部分。然后我们需要将这个20 imes 20的ROI区域映射为7x7的ROI特征图,根据ROI Pooling的计算方式,其结果就是:20/7 imes 20/7 = 2.86 imes 2.86 = 2 imes 2即同样执行取整操作后ROI特征区域的尺寸为2x2,这里引入了第二次量化误差!注意:这里表达的“整操作后ROI特征区域的尺寸为2x2”可能很多人会误会最后经过roi pooling的特征图大小是2x2,其实这是误会的,最后经过roi pooling的特征图大小是7x7大小的。而这个2x2是我们的池化区域视野!即每次在这2x2区域大小进行池化,直至扫描完整个20x20的区域!从上面的分析可以看出,这两次量化误差会导致原始图像中的像素和特征图中的像素进行对应时出现偏差,例如上面将2.86量化为2的时候就引入了0.86的偏差,这个偏差映射回原图就是:0.86 imes 32 = 27.52,可以看到这个像素偏差是很大的!3.2 ROIAlign 引自:(链接)为了缓解ROI pooling的量化误差过大的问题,hekaiming等人提出了ROIAlign,ROIAligin没有使用量化操作,而是使用了双线性插值。它充分的利用原图中的虚拟像素值如27.52四周的四个真实存在的像素值来共同决定目标图中的一个像素值,即可以将27.52和类似的非整数坐标值像素对应的输出像素值估计出来。这一过程如下图所示:其中feat.map就是VGG16或者其他Backbone网络获得的特征图。黑色实线表示的是ROI划分方式,(最后输出的特征图大小为2 imes 2),然后就使用双线性插值的方式来估计这些蓝色点的像素值,最后得到输出,然后再在橘红色的区域中执行Pooling操作最后得到2 imes 2的输出特征图。可以看到这个过程相对于ROI Pooling没有引入任何量化操作即原图中的像素和特征图中的像素是完全对齐的,没有偏差,这不仅会提高检测的精度,同时也会有利于实例分割。 详细地讲解ROI Align操作。虚线部分表示feature map,实线表示ROI,这里将ROI切分成2x2的单元格。如果采样点数是4,那我们首先将每个单元格子均分成四个小方格(如红色线所示),每个小方格中心就是采样点。这些采样点的坐标通常是浮点数,所以需要对采样点像素进行双线性插值(如四个箭头所示),就可以得到该像素点的值了。然后对每个单元格内的四个采样点进行maxpooling,就可以得到最终的ROIAlign的结果。在未引入RoIAlign前,网络中采用的是ROIPooling,采用它的目的是将不同尺寸的ROI特征图转换为相同尺寸的特征图,然后与后续的全连接层连接,但是这里因为使用了两次量化操作,因此会引入两次的量化误差,而RoIAlign是采用了双线性插值算法,因此不会引入量化误差,这样映射到原始图片中像素点对应的原始位置时就不会引入偏差。为了得到为了得到固定大小(7X7)的feature map,ROIAlign不使用量化操作,然后对于浮点数,采用“双线性插值”算法进行计算,这样可以规避量化误差。双线性插值是一种图像缩放算法,它充分的利用了原图中虚拟点(比如20.56这个浮点数,像素位置都是整数值,没有浮点值)四周的四个真实存在的像素值来共同决定目标图中的一个像素值,即可以将20.56这个虚拟的位置点对应的像素值估计出来。其中双线性插值的图示和公式如下。双线性插值计算(x1,y1),(x2,y2)两点间任意一点的公式,这里可以看做是R1的表达式:同理利用双线性插值计算出R1和R2这两个点的表达式:然后对于R1和R2两点又可以继续使用双线性插值计算它们中间P点的表达式:最终用双线性插值计算出的P点的表达公式如下,它是利用周边四个已知的坐标点值计算而来:双线性插值的物理意义如下图所示:由上图可知可以得到, 双线性插值本质上是目标像素所相邻的四个像素, 分别以像素对应的对角像素与目标像素的构成的矩形区域为权重,像素大小为值的加权和。四、网络结构引自:【从零开始学Mask RCNN】一,原理回顾&&项目文档翻译 - 知乎4.1 概述为了证明次网络的通用性,论文构造了多种不同结构的Mask R-CNN,具体为使用不同的Backbone网络以及是否将用于边框识别和Mask预测的上层网络分别应用于每个ROI。对于Backbone网络,Mask R-CNN基本使用了之前提出的架构,同时添加了一个全卷积的Mask(掩膜)预测分支。Figure3展示了两种典型的Mask R-CNN网络结构,左边的是采用ResNet或者ResNext做网络的backbone提取特征,右边的网络采用FPN网络做Backbone提取特征,最终作者发现使用ResNet-FPN作为特征提取的backbone具有更高的精度和更快的运行速度,所以实际工作时大多采用右图的完全并行的mask/分类回归。4.2 ResNet-FPN (Feature Pyramid Network )(1)FPNFPN结构中包括自下而上,自上而下和横向连接三个部分,如下图所示。这种结构可以将各个层级的特征进行融合,使其同时具有强语义信息和强空间信息。(2) ResNet-FPNFPN实际上是一种通用架构,可以结合各种骨架网络使用,比如VGG,ResNet等。(这里用的就是ResNet-FPN)1)自下而上:从下到上路径。可以明显看出,其实就是简单的特征提取过程,和传统的没有区别。具体就是将ResNet作为骨架网络,根据feature map的大小分为5个stage。stage2,stage3,stage4和stage5各自最后一层输出conv2,conv3,conv4和conv5分别定义为C2,C3,C4,C5,他们相对于原始图片的stride是{4,8,16,32}。需要注意的是,考虑到内存原因,stage1的conv1并没有使用。2)自上而下和横向连接:自上而下是从最高层开始进行上采样,这里的上采样直接使用的是最近邻上采样,而不是使用反卷积操作,一方面简单,另外一方面可以减少训练参数。横向连接则是将上采样的结果和自底向上生成的相同大小的feature map进行融合。具体就是对C2,C3,C4,C5中的每一层经过一个conv 1x1操作(1x1卷积用于降低通道数),无激活函数操作,输出通道全部设置为相同的256通道,然后和上采样的feature map进行加和操作。在融合之后还会再采用3*3的卷积核对已经融合的特征进行处理,目的是消除上采样的混叠效应(aliasing effect)。实际上,上图少绘制了一个分支:M5经过步长为2的max pooling下采样得到 P6,使用P6是想得到更大的anchor尺度512×512。但P6是只用在 RPN中用来得到region proposal的,并不会作为后续Fast RCNN的输入。总结一下,ResNet-FPN作为RPN输入的feature map是[P2,P3,P4,P5,P6],而作为后续Fast RCNN的输入则是 [P2,P3,P4,P5] 。(3)ResNet-FPN+Fast RCNN将ResNet-FPN和Fast RCNN进行结合,实际上就是Faster RCNN的了,但与最初的Faster RCNN不同的是,FPN产生了特征金字塔[P2,P3,P4,P5,P6],而并非只是一个feature map。金字塔经过RPN之后会产生很多region proposal。这些region proposal是分别由P2,P3,P4,P5,P6经过RPN产生的,但用于输入到Fast RCNN中的是[P2,P3,P4,P5],也就是说要在[P2,P3,P4,P5]中根据region proposal切出ROI进行后续的分类和回归预测。选择哪个feature map来切出这些ROI区域:我们会选择最合适的尺度的feature map来切ROI。具体来说,我们通过一个公式来决定宽w和高h的ROI到底要从哪个Pk来切:这里224表示用于预训练的ImageNet图片的大小。k0 表示面积为w*h=224*224的ROI所应该在的层级。作者将 k0设置为4,也就是说w*h=224*224的ROI应该从 P4中切出来。假设ROI的scale小于224(比如说是112 * 112),k=k0-1=4-1=3,就意味着要从更高分辨率的P3中产生。另外,k值会做取整处理,防止结果不是整数。(4)ResNet-FPN+Fast RCNN+mask (得到了最终的Mask RCNN)总结: (1).骨干网络ResNet-FPN,用于特征提取,另外,ResNet还可以是:ResNet-50,ResNet-101,ResNeXt-50,ResNeXt-101; (2).头部网络,包括边界框识别(分类和回归)+mask预测。头部结构见下图:Mask R-CNN中的改进:Faster R-CNN存在的问题是:特征图与原始图像是不对准的(mis-alignment),所以会影响检测精度。而Mask R-CNN提出了RoIAlign的方法来取代ROI pooling,RoIAlign可以保留大致的空间位置。五、损失函数Mask分支针对每个ROI区域产生一个K imes m imes m的输出特征图,即K imes m imes m的二值掩模图像,其中K代表目标种类数。Mask-RCNN在Faster-RCNN的基础上多了一个ROIAligin和Mask预测分支,因此Mask R-CNN的损失也是多任务损失,可以表示为如下公式:L = L_{cls} + L_{box} + L_{mask}其中L_{cls}表示预测框的分类损失,L_{box}表示预测框的回归损失,L_{mask}表示Mask部分的损失。对于预测的二值掩膜输出,论文对每一个像素点应用sigmoid函数,整体损失定义为平均二值交叉损失熵。引入预测K个输出的机制,允许每个类都生成独立的掩膜,避免类间竞争。这样做解耦了掩膜和种类预测。不像FCN的做法,在每个像素点上应用softmax函数,整体采用的多任务交叉熵,这样会导致类间竞争,最终导致分割效果差。下图更清晰的展示了Mask-RCNN的Mask预测部分的损失计算,来自知乎用户vision:六、训练在Faster-RCNN中,如果ROI区域和GT框的IOU>0.5,则ROI是正样本,否则为负样本。L_{mask}只在正样本上定义,而Mask的标签是ROI和它对应的Ground Truth Mask的交集。其他的一些训练细节如下:采用image-centric方式训练,将图片的长宽较小的一边缩放到800像素。每个GPU的mini-batch=2,每张图片有N个采样ROIs,其中正负样本比例为1:3。在8个gpu上进行训练,batch_size=2,迭代160k次,初始学习率0.02,在第120k次迭代时衰减10倍,weight_decay=0.0001,momentum=0.9。七、测试试阶段,采用的proposals的数量分别为300(Faster-RCNN)和1000(FPN)在这些proposals上,使用bbox预测分支配合后处理nms来预测box。然后使用Mask预测分支对最高score的100个检测框进行处理。可以看到这里和训练时Mask预测并行处理的方式不同,这里主要是为了加速推断效率。然后,Mask网络分支对每个ROI预测K个掩膜图像,但这里只需要使用其中类别概率最大的那个掩膜图像就可以了,并将这个掩膜图像resize回ROI大小,并以0.5的阈值进行二值化。参考:1、令人拍案称奇的Mask RCNN - 知乎2、MaskRCNN结构详解 - 知乎3、【从零开始学Mask RCNN】一,原理回顾&&项目文档翻译 - 知乎4、目标检测与分割之MaskRCNN代码结构流程全面梳理+总结 - 知乎5、实例分割算法(mask rcnn)总结 - 知乎6、Mask Rcnn 网络结构总结 | jiajie7、MaskRCNN网络结构 - 知乎8、实例分割算法(mask rcnn)总结 - 知乎 9、源码解读:Faster RCNN的细节(三) - 知乎 10、Mask R-CNN网络结构理解_画外人易朽的博客-CSDN博客_maskrcnn网络结构 11、MaskRCNN源码解析1:整体结构概述_业余狙击手19的博客-CSDN博客_maskrcnn源码详解12、目标检测与分割之MaskRCNN代码结构流程全面梳理+总结 - 知乎13、MaskRCNN源码解析2:特征图与anchors生成_业余狙击手19的博客-CSDN博客14、MaskRCNN源码解析1:整体结构概述_业余狙击手19的博客-CSDN博客_maskrcnn源码详解 15、锚框(anchor box)/先验框(prior bounding box)概念介绍及其生成_是苍啊!的博客-CSDN博客_anchor box
2023-06-23 15:03:111

ospf里cost和metric有什么区别?

OSPF一些常用命令来简单描述一下常用的LSA类型代码 描述1 路由器lsa(本身接口ip,基本adv邻居接口状态)2 网络lsa(p2p.p2m没有此类型.由DR产生.公告网络topo结构.只在广播网络中使用) ; 以上2条可使用sh ip os data network 查看3 网络汇总lsa描述非backbone区域.由ABR产生4 ASBR汇总lsa 描述到达ASBR的路经. 由ABR产生以上2条可使用 sh ip os data summary 查看5 外部的lsa(非ospf的条目,如rip.eigrp.static.分发进来) 可使用 sh ip os data external 查看7 nssa外部lsa 可使用 sh ip os data nssa-external 查看11 opaque lsa(AS范围)表示tag用区 域 命 令Area area-id stub ABR和这个区域内的所有路由器都要被配置配置stub区域存在lsa 1 2 3backbone只向其通告缺省路由和域间路由Area area-id stub no-summary 只在ABR上配置,这个区域内的路由器仍然配置为stub配置一个完全的stub区域 存在lsa 1 2 以及一条OIA的缺省路由backbone只向其通告缺省路由Area area-id nssa ABR和这个区域内的所有路由器都要被配置配置一个nssa区域 存在lsa 1 2 3 7但由于这个区域中存在了ASBR.自然就产生了lsa5的外部路由.而stub区域本身不能存在这个类型的lsa. 于是nssa区域把本来stub中不允许存在的lsa5变为lsa7.所以nssa比stub多了一个lsa7.在这个lsa7到达nssa的ABR后,lsa7再变为lsa5向backbone进行通告Area area-id nssa no-summary 只在ABR上配置,这个区域内的路由器仍然配置为nssa配置一个完全的nssa区域存在lsa 1 2 7完全的nssa区域仍然把本身的N2(lsa7)条目在ABR上转为E2(lsa5)通告到backboneArea area-id nssa no-redistribution阻止redistribute的路由进入nssa区域本来你配置nssa是因为你的区域中有一个和eigrp网路相连接的路由器.这时候你ASBR又宣告了一个rip的网络.backbone可以学习到,但对于nssa区域来说就没有必要了.这时候你可以使用它来阻止重分发的rip进入你的nssa区域.仅用在ASBR上Area area-id nssa default-infromation-originate把一个缺省路由广播到nssa区域中和stub区域会通告一条到达backbone的缺省路由(O*IA)不.nssa则不会自动产生使用后不需要配置ip route .nssa就可以产生一条到达backbone的缺省路由(0*N2)仅在ABR或ASBR上使用Area area-id default-cost cost设置stub区域的缺省成本 默认为1在你的stub区域的某台路由器rack05R4上看到的O*IA的metric为65(64+1).然后你再ABR上设置cost为15.那么在返回rack05R4会看到metric为79(64+15).仅在stub区域ABR上工作汇聚内部路由 ( ABR 上使用 )Area area-id range ip-add maskArea area-id range ip-add mask advertise这2个命令用途是一致的这儿就放在一起说明比如你的area1中有156.26.32.0/28 156.26.32.16/28 156.26.32.32/28 156.26.32.48/284个网段.你可以用area 1 range 156.26.32.0 255.255.255.192汇聚他们这样在area0中看到的就是O IA 156.26.32.16/26一条路由而不是4条同样你也可以从backbone(area0)向非backbone(area1)区域汇总为了防止环路(通常在配置了缺省路由的情况下会发生)在某个被汇聚网段消失时,丢弃到这个网段的流量.建议使用ip route 156.26.32.0 255.255.255.192 null 0Area area-id range ip-add mask not-advertise抑制ABR广播的路由汇聚汇聚外部路由 (可在ASBR和ABR上使用,但在ABR上使用时只能汇聚外部ospf路由)Summary-address ip-add mask比如你redistribute connected sbunets156.26.32.0/28 156.26.32.16/28 156.26.32.32/28 156.26.32.48/284个网段.你可以用summary-address 156.26.32.0 255.255.255.192汇聚他们这样在ospf的backbone中看到的就是O E2 156.26.32.16/26一条路由而不是4条summary与range的区别summary汇聚的是rip. eigrp. static重分发的路由.Range汇聚的是ospf区域之间的路由Summary-address ip-add mask not-advertise阻止汇聚路由被ABR或ASBR广播 Summary-address ip-add mask tag value在使用标记的网络中,允许给予标记值得路由策略,并且可以代替基于IP地址的路由策略不说了,有点复杂,要配图和例子.我会做个试验说明的Auto-cost reference-bandwidth bandwidth全局性修改ospf各接口的成本ospf把接口带宽分为10^8莱计算接口成本.当接口带宽大于100Mbit/s,不推荐使用缺省值(因为ospf不能区分大于100Mbit/s的接口)这是个全局性的.对于个别接口可以在接口下使用ip os cost (但不推荐)接口类型 接口带宽 ospf成本loopback 8 000 000 000 1serial 56 000 1785T1 1 544 000 64Ethernet 10 000 000 10fast Ethernet 100 000 000 1Gigabit Ethernet 1 000 000 000 1OC48 2 500 000 000 1在同一区域中,所有的ospf路由器要配置相同的参考带宽(不同区域的参考带宽可以不同).loopback的成本始终为1产生缺省路由Default-information originate广播缺省路由到OSPF域内如果1个ospf区域area0中有3台路由器rack05r1~r3.而rack05r1成为了ASBR(比如连接到ISP)那么只有rack05r1知道如何到达isp而r2和r3是不知道的这时就需要在r1上使用Default-information originate来向r2和r3宣告如何到达并且在r1上配置ip route 0.0.0.0 0.0.0.0 next hop这样r2和r3会看到一条O*E2 0.0.0.0/0的缺省路由Default-information originate always无条件的广播缺省路由到OSPF域内引用上面的说明.在r1上不配置ip route 0.0.0.0 0.0.0.0 next hopr2和r3同样也会看到一条O*E2 0.0.0.0/0的缺省路由always就是强制产生的意思Default-information originate metric costDefault-information originate always metric cost如果不只一个OSPF路由器广播缺省路由.使用cost值可以用来选择最优路经.metric值越低(cost越低)越优先Default-information originate metric-type typeDefault-information originate always metric-type typetype的值有1和2两个等同于你在Default-information originate说明中R2和R3看到的是 O*E1 0.0.0.0/0还是O*E2 0.0.0.0/0默认的是O*E2它的metric为1 不计算内部成本 也就是说你在r2和r3看到的关于O*E2 0.0.0.0/0 [110/1] 的metric为1如果改为type1 那么你在r2和r3上看到的关于O*E1 0.0.0.0/0 [110/xxx] 那就不一定了.因为要计算内部路由的metricDefault-information originate route-map route-map-name使用route-map有条件的广播缺省路由如果使用了Default-information originate always 那么route-map将失效也不好解释,我已经做好了配置演示,可以在论坛的NA版找到[ospf试验]产生缺省路由Default-metric cost为再分布的协议设置缺省的度量比如在1个ospf域内有rack05r1和r2.r1现在成为ASBR连接并重分发了一个eigrp的网络.比如我们在r1上看到的eigrp的路由为D 3.3.3.3 [90/4046000]那么r2上会看到0 E2 3.3.3.3 [110/20]这时在r1上使用default-metric 55 之后r1上是不会有什么变化的但r2上会看到0 E2 3.3.3.3 [110/55]Distance administrative-distance调整管理距离来影响路由的选路1台路由器从2个以上的协议(ospf和rip)学习到同一个网络.这个时候AD就来选择最优路经.AD值低的优先选择常见的ADconnected 0static 1ebgp 20eigrp 90igrp 100ospf 110is-is 115rip 120ibgp 200例如1台路由器从eigrp和ospf都学到一条3.3.3.3的路由正常情况下sh ip route出来的是D 3.3.3.3 [90/xxx] (eigrp的AD为90<ospf的110)但在这台路由器的ospf的进程下使用distance 80那么再次sh ip router 则出来的是 O 3.3.3.3 [80/xxx] (现在ospf的110变为80<eigrp)Distance administrative-distance source-ip-add source-ip-mask 更改从IP地址/mask相匹配的的原地址学习到的路由的ADDistance administrative-distance source-ip-add source-ip-mask acl-num更改使用acl选定的从IP地址/mask相匹配的的原地址学习到的路由的ADDistance ospf external/inter-area/intra-area administrative-distance用分布列表过滤路由Distribute-list alc in阻止从ospf学到的路由被放置到ip路由选择表中在一个由rack05r1,r2和r3的路由器组成的ospf域中.r1宣告了1.1.1.1 2.2.2.2 3.3.3.3 三个网段在r2上定义1个aclacc 1 deny 2.2.2.2 0.0.0.255acc 1 deny 3.3.3.3 0.0.0.255acc 1 permit any然后在r2的ospf进程下使用 distribute-list 1 in这样r2只能看到1.1.1.1的路由.但是被过滤的路由条目仍然在r2的DB中存在 r3还是可以学习到所有的路由条目ospf只能做in方向的过滤.out方向的过滤是无效的Distribute-list acl in interface-type interface-number阻止通过ospf特定接口学到的路由被放置到ip路由选择表中Distribute-list alc outDistribute-list acl out interface-type interface-number以上2条命令对于DV协议如rip eigrp,阻止被acl选定的路由广播到邻居处ospf是LS协议,路由是通过LSA传播的,因此这2条命令和ospf一起使用是无效的Distribute-list acl out routing-process阻止在分布到ospf的路由被放置到ip路由选择表中在一个由rack05r1,r2和r3的路由器组成的ospf域中.r1是一个ASBR学习到由eigrp 100网络宣告的路由D 3.3.3.3 和D 4.4.4.4这样在r2和r3中会看到 O E2 3.3.3.3和 O E2 4.4.4.4那么在r1中定义acl acc 1 permit 4.4.4.0 0.0.0.255然后再ospf进程中使用 distribute-list out eigrp 100这样r2和r3中只能看到 O E2 4.4.4.4 同时他们的DB中也不存在3.3.3.3Distribute-list prefic prefix-list-name in阻止从ospf学到的路由被放置到ip路由选择表中其实就是用前缀列表代替acl. 引用Distribute-list alc in 的topo结构ip prefix-list filter-ospf seq deny 2.2.2.2/32ip prefix-list filter-ospf seq deny 3.3.3.3/32ip prefix-list filter-ospf seq deny permit 0.0.0.0/0在ospf进程中 distribute-list prefix filter-ospf in我们可以看到同样的效果Distribute-list prefic prefix-list-name in interface-type interface-number阻止通过ospf特定接口学到的路由被放置到ip路由选择表中Distribute-list prefic prefix-list-name outDistribute-list prefic prefix-list-name out interface-type interface-number以上2条命令对于DV协议如rip eigrp,阻止被acl选定的路由广播到邻居处ospf是LS协议,路由是通过LSA传播的,因此这2条命令和ospf一起使用同样是无效的Distribute-list prefic prefix-list-name out routing-process阻止在分布到ospf的路由被放置到ip路由选择表中引用Distribute-list acl out routing-process 的例子更改配置 ip prefix-list filter-eigrp seq 5 permit 4.4.4.0/24在ospf进程中 distri prefix filter-eigrp out eigrp 100效果是一样的记录OSPF邻居状态的改变Log-adjacency-changes 把ospf的邻居状态改变信息记录到控制台Log-adjacency-changes detail把ospf的邻居状态改变信息记录到内存中通过 show logging 显示缓冲区的内容最大路经配置Maximum-paths number-of-paths在负载均衡的情况下,允许使用几条链路.默认4条.可以配置为1-6条被动接口Passive-interface interface-name interface-number使用被动接口减少协议流量如果s0/0,s0/1和e0/0三个接口都被network包含了,而e0/0没有任何ospf邻居.就可以使用passive-interface e0/0 在指定接口阻止ospf包Passive-interface default如果你有100个接口被network包含,而只有s0/1一个接口有ospf邻接.那么这条命令用起来就很爽了passive-interface defaultno passive-interface s0/1其实我觉得network x.x.x.x 0.0.0.0 area x 更方便起码只用敲1行就好了路由的再次分布Redistribute routing-process process-id使用缺省类型和度量把主类路由再次分发到ospf中比如你的ASBR路由器分发了eigrp的5.5.5.5./8 145.5.5.5/16 205.5.5.5/24 classful6.5.5.5/12 146.5.5.5./18 206.5.5.5/28 classless那么你的ASBR只能往其他的ospf路由器宣告5.0.0.0/8 145.5.0.0/16 205.5.5.0/24Redistribute routing-process process-id subnets为了让上面所有的6个条目都能被正确宣告,加上subnets就ok了Redistribute routing-process process-id metric ospf-metric指定再分配的路由度量或成本默认BGP缺省度量为1 其他的协议为20 取值0~16 777 214Redistribute routing-process process-id metric-type ospf-metric指定再分配的路由类型缺省为2 取值1, 21 O*E1 计算内部成本2 O*E2 不计算内部成本Redistribute routing-process process-id tag tag-value指定再分配的路由标记附加到再分布路由的一个32位值.ospf本身没有使用路由标记,但可以在用于指定策略的route-map中引用(就是通过下面的命令实现),比如以tag为基础制定策略再次分布路由缺省值为0 取值范围0~4 294 967 295 以上参数可以组合使用以满足特定需求Redistribute routing-process process-id route-map route-map-name基于tag来控制路由的再分配比较繁琐,用法也比较多,配合上面的参数我会做个试验给大家看看的ospf的命令很多比较多.比如接口配置的命令.没有在这里列举出来的原因部分是要和其他的命名配合使用比如authentication. network. priority需和区域命令配合使用,再罗列出来会显得比较罗嗦.还有些特性命令 demand-circuit. database-filter all out. fold-reduction和特殊环境下使用的 mtu-ignore .等等,如果需要的话可以查阅 <Cisco OSPF Command and Configuration Handbook
2023-06-23 15:03:192

ARPANet和NSFNet做出的具体贡献?

ARPAnet主要是用于军事研究目的。 ARPAnet在技术上的另一个重大贡献是TCP/IP协议簇的开发和利用。ARPANET另一项好处是,资讯高速公路使得全世界的hackers能聚在一起 . 是在美国的一个广域网路之主干线 (backbone),它是属於民间的网路组织,和美国国防部 (U.S.Defense Department) 的ARPANet相互对应,后者因为某些机密性的原因,无法公开供一般大众使用。
2023-06-23 15:03:283

阅读笔记-SoViT Mind visual tokens for vision transformer

这篇文章的出发点包含两方面: 1. ViT是纯transformer的结构,剔除了CNN中具有的一些归纳偏置,使其必须依赖较大规模的数据集去学习这种偏置,从而对于中心规模scratch训练得到的模型性能远低于CNN结构。 2. 在ViT方法,以及基于ViT的系列方法中,都引入了一个class token,利用encoder输出的class token的特征进行分类,但忽略了每个patch token所包含的语义信息 所以本文的主要工作就是针对前述两方面分别设计了两个模块。如图1所示, 其核心的bockbone和ViT相同。在 ‘A small, hierarchical module" 中其实是一个简化的CNN backbone; 在 "second-order, cross covariance pooling"中其本质就是一种特征池化的方式,我们在CCT Escaping the big data paradigm with compact transformers 那篇文章也接触到类似的池化方法,那里提出的一种seqpooling的方法本质是一种加权平均的思想。 [图片上传失败...(image-27f07a-1619591409974)] 类似与T2T的方式,为了更好的从scratch处理中小规模的数据,同样的引入了inductive bias,但该偏置的引入又不影响backbone,即ViT的结构,于是只能在输入上进行操作。T2T使用的是多层的T2T module, 这里其实本质上就是简化的cnn backbone。其最基础的结构为: [图片上传失败...(image-8f6163-1619591409974)] 当然中间的stage本部分可以使用不同的经典cnn结构,比如dense net和resnet net, inception net等等, 最终获得的特征图尺寸为原始图像的8倍下采样,最后一层1x1的卷积层将特征维度映射为backbone的输入尺寸,可以发现这里backbone丝毫没改变。 ViT仅利用class token的特征进行最后的分类,而研究认为在最后输出的patch token (visual token)中同样含有利于分类的语义信息,因此可以将class token与patch token结合用于分类。最直接的想法是将patch token特征平均池化和class token融合。而本文使用的是second-order pooling,又称为bilinear pooling。 second-order pooling的主要思想是利用不同机制获得的特征之间的相关性来刻画图像。具体而言,同一个样本以不同方式获得的特征分别为 , , 于是特征之间的相关性其实就是X,Y之间的协方差矩阵 , 于是 就是其二阶池化的结果。 在ViT中每个样本划分成不同的patch token,每个patch token都对应一个特征,于是通过两个线性变换 , 就能分别获得 。 [图片上传失败...(image-4c4af7-1619591409973)] 实验部分相对而言还是比较充分的。 [图片上传失败...(image-c3053c-1619591409973)] [图片上传失败...(image-fb94eb-1619591409973)] [图片上传失败...(image-6c2bee-1619591409973)] [图片上传失败...(image-3d0b1-1619591409973)] 参考文献 https://openaccess.thecvf.com/content_cvpr_2018/papers/Koniusz_A_Deeper_Look_CVPR_2018_paper.pdf
2023-06-23 15:03:351

各种类型猪骨头的英文翻译

rib bone--肋骨; 脊骨--backbone猪筒骨应该是pork bone吧希望可以帮到你
2023-06-23 15:03:422

英语短语大全:backbone的中文释义

以下是 为大家整理的关于《英语短语大全:backbone的中文释义》文章,供大家学习参考! 词形变化:形容词:backboned。 同义词:back,rachis,spinal column,spine,vertebral column;spine;grit,gumption,guts,moxie,sand;keystone,anchor,linchpin,lynchpin,mainstay。 单词分析:这些名词都可表示“勇气、胆量”之意。 courage:普通用词。指面对危险或困难时无所畏惧的精神和敢于奋斗的进取心。 bravery:指在危险中表现出的无所畏惧精神或在逆境中仍能坚持下去的毅力。 backbone:指性格倔强,意志坚定,有骨气,有顽强的决心去做某事。 nerve:侧重指面临危险或在冒险的情况下具有冷静、清醒的头脑和坚定无畏的勇气。 backbone的英语解释: the series of vertebrae forming the axis of the skeleton and protecting the spinal cord the part of a book"s cover that encloses the inner side of the book"s pages and that faces outward when the book is shelved fortitude and determination a central cohesive source of support and stability the part of a network that connects other networks together 相关短语: backbone chain 主链 backbone element 【法】 中坚分子 backbone frame 脊梁架 backbone motion 主链运动 backbone network 中框网络 backbone road 干道 backbone routing 【计】 基干路径选择 backbone的例句: The spinal column,ie the backbone 脊柱(脊骨) They are the backbone of the party. 他们是政党的骨干。 He has no backbone. 他缺少毅力。 A backboned creature 脊椎动物 These men are the backbone of the country. 这些人是国家的中坚力量。 The backbone is an articulate structure. 脊椎骨是一种关节相连的结构。 The backbone is an articulate structure 脊椎骨是一种关节相连的结构。 They are the backbone of the scientific and technological contingents. 他们是科技队伍的骨干力量。 Your especial fear is that it will be your backbone 你特别害怕这是你的脊梁骨。 displayed grit and backbone in facing adversity. 面对逆境和苦难时显示出刚毅和勇气
2023-06-23 15:04:011

计算机英语单词:Backbone的意思

以下是 为大家整理的关于《计算机英语单词:Backbone的意思》文章,供大家学习参考! 词形变化:形容词:backboned。 同义词:back,backbone,rachis,spinal column,spine,vertebral column;backbone,spine;grit,gumption,guts,backbone,moxie,sand;keystone,anchor,backbone,linchpin,lynchpin,mainstay。 单词分析:这些名词都可表示“勇气、胆量”之意。 courage:普通用词。指面对危险或困难时无所畏惧的精神和敢于奋斗的进取心。 bravery:指在危险中表现出的无所畏惧精神或在逆境中仍能坚持下去的毅力。 backbone:指性格倔强,意志坚定,有骨气,有顽强的决心去做某事。 nerve:侧重指面临危险或在冒险的情况下具有冷静、清醒的头脑和坚定无畏的勇气。 Backbone的英语解释: the series of vertebrae forming the axis of the skeleton and protecting the spinal cord the part of a book"s cover that encloses the inner side of the book"s pages and that faces outward when the book is shelved fortitude and determination a central cohesive source of support and stability the part of a network that connects other networks together Backbone的例句: The spinal column,ie the backbone 脊柱(脊骨) The Champs Elysees forms the backbone of Paris"s cultural and commercial hub. 香榭丽舍大道是巴黎的商业和文化中心。 They are the backbone of the party. 他们是政党的骨干。 He has no backbone. 他缺少毅力。 A backboned creature 脊椎动物 These men are the backbone of the country. 这些人是国家的中坚力量。 The backbone is an articulate structure. 脊椎骨是一种关节相连的结构。 The backbone is an articulate structure 脊椎骨是一种关节相连的结构。 They are the backbone of the scientific and technological contingents. 他们是科技队伍的骨干力量。 Your especial fear is that it will be your backbone 你特别害怕这是你的脊梁骨。
2023-06-23 15:04:081

backbone中model.save提交的值,后台怎么获取啊

一、获取:1)Backbone的save方法产生了一个post请求,把参数封装为json格式的字符串;2)通过http body传递,获取这个json字符串,需要从request流中读取,然后手动解析为对象。二、backbone是帮助开发重量级的javascript应用的框架。主要提供了3个东西:1、models(模型) 2、collections(集合) 3、views(视图)三、1)Backbone.Model表示应用中所有数据,models中的数据可以创建、校验、销毁和保存到服务端。当models中值被改变时自动触发一个"change"事件、所有用于展示models数据的views都会侦听到这个事件,然后进行重新渲染。2)Backbone.Collection和我们平时接触的JAVA集合类相似,具有增加元素,删除元素,获取长度,排序,比较等一系列工具方法,说白了就是一个保存models的集合类。3)Backbone.View中可以绑定dom el和客户端事件。页面中的html就是通过views的render方法渲染出来的,当新建一个view的时候通过要传进一个model作为数据,例如:var view = new EmployeeView({model:employee}); 也就是说model就是以这种方式和view进行关联的。
2023-06-23 15:04:252

蛋白结构中,heavy atoms是什么意思啊?相当于backbone atoms有什么区别呢?

heavy atoms 重原子?无法理解backbone 是骨架,也就是蛋白质的主链,那就是主链原子吧heavy atoms 难道是侧链原子?
2023-06-23 15:04:471

百万英镑中,有这么一句,just like an englishman ,you see ,plu

看我有魅力吗
2023-06-23 15:04:563

如何翻译“业务熟练,成为公司的骨干和精英”

“业务熟练,成为公司的骨干和精英”He has profound knowledge and experience in his profession.He is a great asset of the company
2023-06-23 15:05:032

毅力 英文怎么写

will
2023-06-23 15:05:239

isis中的骨干区域全由什么路由器构成

Level-2路由器。ISIS(Intermediate System to Intermediate System)由于其快速收敛、处理能力强等特点,被广泛应用于运营商和数据中心网络中。在ISIS协议中,网络被分为骨干区域(Backbone)和非骨干区域(Non-Backbone)两个层次,骨干区域中的所有路由器都必须互相连接,承担网络的核心传输任务,在骨干区域中,所有路由器都必须使用同一优先级,因此只有“Level-2路由器”才能部署在骨干区域中,负责与其他骨干区域的路由器之间的转发和链接。ISIS(Intermediate System to Intermediate System)是一种第二层链路状态协议(Link State Protocol),用于在大规模IP网络中进行路由选择和状态传递。
2023-06-23 15:06:021

back的同义词

back有很多意思,要看是什么词性啊backaward,behind都可以吧。。。
2023-06-23 15:06:122

CMT是什么意思

  Q=cmt,Q表示吸入或释放的热量,单位为焦耳。c表示为比热容,表示的是某物质每一千克,每升1摄氏度所吸收或释放的热量,单位为焦耳/kg摄氏度。m表示物体的质量,单位为kg。.t表示物体温度的变化量,单位为摄氏度。希望可以帮到你。。
2023-06-23 15:06:212

详细解读TPH-YOLOv5 | 让目标检测任务中的小目标无处遁形

1 简介 针对无人机捕获场景的目标检测是最近比较流行的一项任务。由于无人机在不同高度飞行,目标尺度变化较大,这样给模型的优化也带来了很大的负担。此外,在无人机进行高速低空飞行时,也会带来密集目标的运动模糊问题。 图1 小目标与密集问题 为了解决上述2个问题,本文提出了 TPH-YOLOv5 。 TPH-YOLOv5 在YOLOv5的基础上增加了一个prediction heads 来检测不同尺度的目标。然后通过探索Self-Attention的预测潜力使用了Transformer Prediction Heads(TPH)代替原来的prediction heads。同时作者还集成了卷积块Attention模型(CBAM)来寻找密集场景下的注意力区域。 为了进一步改进 TPH-YOLOv5 ,作者还提供了大量有用的策略,如数据增强、多尺度测试、多模型集成和使用额外的分类器。 在VisDrone2021数据集上的大量实验表明,TPH-YOLOv5在无人机捕获场景上具有良好的性能和可解释性。在DET-test-challenge数据集上,TPH-YOLOv5的AP结果为39.18%,比之前的SOTA方法(DPNetV3)提高了1.81%。在VisDrone Challenge 2021中,TPH-YOLOv5与YOLOv5相比提高了约7%。 本文的贡献如下: 2 前人工作总结 2.1 Data Augmentation 数据增强的意义主要是扩展数据集,使模型对不同环境下获得的图像具有较高的鲁棒性。 Photometric和geometric被研究人员广泛使用。对于Photometric主要是对图像的色相、饱和度和值进行了调整。在处理geometric时主要是添加随机缩放、裁剪、平移、剪切和旋转。 除了上述的全局像素增强方法外,还有一些比较独特的数据增强方法。一些研究者提出了将多幅图像结合在一起进行数据增强的方法,如MixUp、CutMix和Mosaic。 MixUp从训练图像中随机选取2个样本进行随机加权求和,样本的标签也对应于加权求和。不同于通常使用零像素mask遮挡图像的遮挡工作,CutMix使用另一个图像的区域覆盖被遮挡的区域。Mosaic是CutMix的改进版。拼接4幅图像,极大地丰富了被检测物体的背景。此外,batch normalization计算每层上4张不同图像的激活统计量。 在TPH-YOLOv5的工作中主要是结合了MixUp、Mosaic以及传统方法进行的数据增强。 2.2 Multi-Model Ensemble Method 我们都知道深度学习模型是一种非线性方法。它们提供了更大的灵活性,并可以根据训练数据量的比例进行扩展。这种灵活性的一个缺点是,它们通过随机训练算法进行学习,这意味着它们对训练数据的细节非常敏感,每次训练时可能会得到一组不同的权重,从而导致不同的预测。 这给模型带来了一个高方差 。 减少模型方差的一个成功方法是训练多个模型而不是单一模型,并结合这些模型的预测。 针对不同的目标检测模型,有3种不同的ensemble boxes方法:非最大抑制(NMS)、Soft-NMS、Weighted Boxes Fusion(WBF)。 在NMS方法中,如果boxes的overlap, Intersection Over Union(IoU)大于某个阈值,则认为它们属于同一个对象。对于每个目标NMS只留下一个置信度最高的box删除其他box。因此,box过滤过程依赖于这个单一IoU阈值的选择,这对模型性能有很大的影响。 Soft-NMS是对NMS进行轻微的修改,使得Soft-NMS在标准基准数据集(如PASCAL VOC和MS COCO)上比传统NMS有了明显的改进。它根据IoU值对相邻边界box的置信度设置衰减函数,而不是完全将其置信度评分设为0并将其删除。 WBF的工作原理与NMS不同。NMS和Soft-NMS都排除了一些框,而WBF将所有框合并形成最终结果。因此,它可以解决模型中所有不准确的预测。本文使用WBF对最终模型进行集成,其性能明显优于NMS。 2.3 Object Detection 基于CNN的物体检测器可分为多种类型: 一些检测器是专门为无人机捕获的图像设计的,如RRNet、PENet、CenterNet等。但从组件的角度来看,它们通常由2部分组成,一是基于CNN的主干,用于图像特征提取,另一部分是检测头,用于预测目标的类和Box。 此外,近年来发展起来的目标检测器往往在backbone和head之间插入一些层,人们通常称这部分为检测器的Neck。接下来分别对这3种结构进行详细介绍: Backbone 常用的Backbone包括VGG、ResNet、DenseNet、MobileNet、EfficientNet、CSPDarknet53、Swin-Transformer等,均不是自己设计的网络。因为这些网络已经证明它们在分类和其他问题上有很强的特征提取能力。但研究人员也将微调Backbone,使其更适合特定的垂直任务。 Neck Neck的设计是为了更好地利用Backbone提取的特征。对Backbone提取的特征图进行不同阶段的再处理和合理使用。通常,一个Neck由几个自底向上的路径和几个自顶向下的路径组成。Neck是目标检测框架中的关键环节。最早的Neck是使用上下取样块。该方法的特点是没有特征层聚合操作,如SSD,直接跟随头部后的多层次特征图。 常用的Neck聚合块有:FPN、PANet、NAS-FPN、BiFPN、ASFF、SAM。这些方法的共性是反复使用各种上下采样、拼接、点和或点积来设计聚合策略。Neck也有一些额外的块,如SPP, ASPP, RFB, CBAM。 Head 作为一个分类网络,Backbone无法完成定位任务,Head负责通过Backbone提取的特征图检测目标的位置和类别。 Head一般分为2种:One-Stage检测器和Two-Stage检测器。 两级检测器一直是目标检测领域的主导方法,其中最具代表性的是RCNN系列。与Two-Stage检测器相比One-Stage检测器同时预测box和目标的类别。One-Stage检测器的速度优势明显,但精度较低。对于One-Stage检测器,最具代表性的型号是YOLO系列、SSD和RetaNet。 3TPH-YOLOv53.1 Overview of YOLOv5 YOLOv5有4种不同的配置,包括YOLOv5s,YOLOv5m, YOLOv5l和YOLOv5x。一般情况下,YOLOv5分别使用CSPDarknet53+SPP为Backbone,PANet为Neck, YOLO检测Head。为了进一步优化整个架构。由于它是最显著和最方便的One-Stage检测器,作者选择它作为Baseline。 图2 THP-YOLOv5整体架构 当使用VisDrone2021数据集训练模型时,使用数据增强策略(Mosaic和MixUp)发现YOLOv5x的结果远远好于YOLOv5s、YOLOv5m和YOLOv5l, AP值的差距大于1.5%。虽然YOLOv5x模型的训练计算成本比其他3种模型都要高,但仍然选择使用YOLOv5x来追求最好的检测性能。此外,根据无人机捕获图像的特点,对常用的photometric和geometric参数进行了调整。 3.2 TPH-YOLOv5 TPH-YOLOv5的框架如图3所示。修改了原来的YOLOv5,使其专一于VisDrone2021数据集: 图3 TPH-YOLOv5模型结构 微小物体的预测头 作者统计了VisDrone2021数据集,发现它包含了很多非常小的目标,所以增加了一个用于微小物体检测的预测头。结合其他3个预测头,4头结构可以缓解剧烈的目标尺度变化带来的负面影响。如图3所示,添加的预测头(Head 1)是由low-level、高分辨率的feature map生成的,对微小物体更加敏感。增加检测头后,虽然增加了计算和存储成本,但对微小物体的检测性能得到了很大的提高。 Transformer encoder block 图4 Transformer Block 用Transformer encoder块替换了YOLOv5原版中的一些卷积块和CSP bottleneck blocks。其结构如图4所示。与CSPDarknet53中原有的bottleneck blocks相比,作者认为Transformer encoder block可以捕获全局信息和丰富的上下文信息。 每个Transformer encoder block包含2个子层。第1子层为multi-head attention layer,第2子层(MLP)为全连接层。每个子层之间使用残差连接。Transformer encoder block增加了捕获不同局部信息的能力。它还可以利用自注意力机制来挖掘特征表征潜能。在VisDrone2021数据集中,Transformer encoder block在高密度闭塞对象上有更好的性能。 基于YOLOv5,作者只在头部部分应用Transformer encoder block形成transformer Prediction head(TPH)和backbone端。因为网络末端的特征图分辨率较低。将TPH应用于低分辨率特征图可以降低计算和存储成本。此外,当放大输入图像的分辨率时可选择去除早期层的一些TPH块,以使训练过程可用。 Convolutional block attention module (CBAM) CBAM是一个简单但有效的注意力模块。它是一个轻量级模块,可以即插即用到CNN架构中,并且可以以端到端方式进行训练。给定一个特征映射,CBAM将沿着通道和空间两个独立维度依次推断出注意力映射,然后将注意力映射与输入特征映射相乘,以执行自适应特征细化。 图5 CBAM注意力机制 CBAM模块的结构如图5所示。通过本文的实验,在不同的分类和检测数据集上将CBAM集成到不同的模型中,模型的性能得到了很大的提高,证明了该模块的有效性。 在无人机捕获的图像中,大覆盖区域总是包含令人困惑的地理元素。使用CBAM可以提取注意区域,以帮助TPH-YOLOv5抵制令人困惑的信息,并关注有用的目标对象。 Self-trained classifier 用TPH-YOLOv5对VisDrone2021数据集进行训练后,对test-dev数据集进行测试,然后通过可视化失败案例分析结果,得出TPH-YOLOv5定位能力较好,分类能力较差的结论。作者进一步探索如图6所示的混淆矩阵,观察到一些硬类别,如三轮车和遮阳三轮车的精度非常低。 图6 检测混淆矩阵 因此,作者提出了一个Self-trained classifier。首先,通过裁剪ground-truth边界框并将每个图像patch的大小调整为64 64来构建训练集。然后选择ResNet18作为分类器网络。实验结果表明,在这个Self-trained classifier的帮助下,所提方法对AP值提高了约0.8%~1.0%。 4实验与结论 最终在test-set-challenge上取得了39.18的好成绩,远远高于VisDrone2020的最高成绩37.37。 图9 检测结果图
2023-06-23 15:06:411

求翻译,要准确!!

You"re a man without a backbone你这个没脊梁骨的男人I see you"re looking for a window我看见你在寻出路You really think you"re something special你真以为自己很特殊吗And think you"re hot but acting so cold觉得自己特性感还装酷酷That rock "n rock don"t really move my soul你那种摇滚的范我真不感兴趣You"re a budget Elvis Costello你就像个廉价的假猫王Baby, you deserve a medalbaby 你真赞For being number one asshole因为你是最混的一个Stop wasting my time别再浪费我的时间了Even on the cover of GQ即使你上了GQ封面I am never going home with you我也不会和你回家A leather jacket don"t impress me皮夹克并不能给我留什么印象I"m not a fool我又不是个傻子I"m kinda different to the girl-next-door我和隔壁的傻白甜还是不一样的I"m looking for something more我找的不只是这些You"re barking up the wrong tree你的绳子挂错树了Girl please, rescue me小傻子,救救我吧You"re the legend of your lunch hour你也就在你的地盘风光Over me you bear no power在我这你什么都不是You"ll never get a smidge from me你休想从我这里得到什么Acting like a chief on me装得像回事一样I bet you"d like to see me on my knees你大概还在YY我屈服你淫威下的样子This ain"t reality MTV这又不是真人秀Another reject from the city你已经不在我的视野内了I only listen out of pity听你说话只是出于怜悯Stop wasting my time别再浪费我的时间Even on the cover of GQ即使你上了GQ封面I am never going home with you我也不会和你回家A leather jacket don"t impress me皮夹克并不能给我留什么印象I"m not a fool我又不是个傻子I"m kinda different to the girl-next-door我和隔壁的傻白甜还是不一样的I"m looking for something more我找的不只是这些You"re barking up the wrong tree你的绳子挂错树了Girl please, rescue me小傻子,救救我吧Stop wasting my time别再浪费我的时间Even on the cover of GQ即使你上了GQ封面I am never going home with you我也不会和你回家A leather jacket don"t impress me皮夹克并不能给我留什么印象I"m not a fool我又不是个傻子I"m kinda different to the girl-next-door我和隔壁的傻白甜还是不一样的I"m looking for something more我找的不只是这些You"re barking up the wrong tree你的绳子挂错树了Girl please, rescue me小傻子,救救我吧
2023-06-23 15:06:505

iOS 的 framework 和 ipa 文件可以反编译出源码吗

写了这么多AngularJS代码,可以说我对AngularJS了解比较深入了。Backbone也是一个很热门的JS框架,我通读了一下它的API文档,大概了解了他的运行机制。Backbone很精巧,很强大。但对比AngularJS,我说说我看到的Backbone的缺点,由于接触时间短,可能会存在误解,见谅。Backbone的Model把服务器端的数据模型映射到浏览器端,绑定数据验证机制,并与相应的REST操作绑定,这样每个数据模型都变成了独立体,方便REST操作,却限制REST的灵活性。比如我要将10个todo批量标记成已完成,它会发出10个REST请求。Backbone的Model没有与UI视图数据绑定,而是需要在View中自行操作DOM来更新或读取UI数据,这点很奇怪。AngularJS与此相反,Model直接与UI视图绑定,Model与UI视图的关系,通过directive封装,AngularJS内置的通用directive,就能实现大部分操作了,也就是说,基本不必关心Model与UI视图的关系,直接操作Model就行了,UI视图自动更新。而Model数据验证、与服务器端的数据交互都是非常简单而自由的。
2023-06-23 15:07:063

吕字的拼音怎么打

吕字的拼音怎么打 吕字的拼音打LV。
2023-06-23 15:07:169

超详细解读Faster R-CNN-FPN

2021年了,竟然还有人写关于Faster R-CNN的文章?我的原因主要有两点: 我们先从全局上了解Faster R-CNN-FPN,然后再关注其中涉及的细节。下面是Faster R-CNN-FPN的网络框架图(或称为tensor流动图)。 众所周知,Faster R-CNN-FPN(主要是Faster R-CNN)是个两阶段的对象检测方法,主要由两部分网络组成,RPN和Fast R-CNN。 RPN的作用是以bouding box(后简称为box)的方式预测出图片中对象可能的位置,并过滤掉图片中绝大部分的背景区域,目标是达到尽量召回图像中感兴趣的对象,预测box尽量能够与实际对象的box贴合,并且保证一定的预测精度(Precision)。另外,RPN并不需要指出预测的box中对象具体的类别,RPN预测的box称为RoI(Region of Interest),由于是以box的方式输出,所以后面我们统一将其称为proposal box。 Fast R-CNN则是在FPN预测的proposal box基础上进一步预测box中对象具体的类别,并对proposal box进行微调,使得最终预测的box尽量贴合目标对象。大致的做法是根据RPN预测的proposal box,从原图backbone的feature map上通过RoIPooling或RoIAlign(Faster R-CNN-FPN使用RoIAlign)提取每个proposal box对应区域的feature map,在这些区域feature map上进一步预测box的类别和相对proposal box的偏移量(微调)。另外,RPN和Fast R-CNN共用同一个backbone网络提取图像的feature map,大大减少了推理耗时。 从上面的介绍可以看出,RPN和Fast R-CNN的配合作用其实可以理解为一种注意力机制,先大致确定目标在视野中的位置,然后再锁定目标仔细观察,确定目标的类别和更加精确的位置,简单来说就是look twice,相比单阶段的look once,当然是比较耗时的,但也换来了更好的效果(虽然很多单阶段方法号称已经获得相当或好于两阶段的效果)。 下面以Faster R-CNN-FPN发展顺序的汇总介绍每个改进的核心思想。 在R-CNN中,CNN只被用来作为特征抽取,后接SVM和线性回归模型分别用于分类和box修正回归。在此基础上,Fast R-CNN直接对原输入图进行特征抽取,然后在整张图片的特征图上分别对每个RoI使用RoIPooling提取(后面会介绍RoIPooling的原理)特定长度的特征向量(论文中空降尺寸为7*7),去掉SVM和线性回归模型,在特征向量上直接使用若干FC层进行回归,然后分别使用两个FC分支预测RoI相关的类别和box,从而显著提升速度和预测效果。 整体框架图如下: 在Fast RCNN的基础上进一步优化,用CNN网络代替Fast R-CNN中的region proposal模块(使用传统Selective Search方法),从而实现了全神经网络的检测方法,在召回和速度上都超过了传统的Selective Search。作者将提供proposal region的网络称为RPN(Region Proposal Network),与检测网络Fast RCNN共享同一backbone,大大缩减了推理速度。 RPN在backbone产生的feature map(图中的conv feature map)之上执行 的滑窗操作,每个滑窗范围内的feature map会被映射为多个proposal box(图中的reg layer分支)以及每个box对应是否存在对象的类别信息(图中的cls layer分支)。由于CNN天然就是滑窗操作,所以RPN使用CNN作为窗口内特征的提取器(对应图中的intermediate layer,后面简称为“新增CNN层”),窗口大小 ,将feature map映射为较低维的feature map以节省计算量(论文中为256)。虽然只使用了 的卷积,但是在原图上的有效的感受野还是很大的,感受野大小不等于网络的降采样率,对于VGG网络,降采样率为16,但是感受野为228像素。类似于Fast-RCNN,为了分别得到box和box对应的类别(此处类别只是表示有没有目标,不识别具体类别),CNN操作之后会分为两个子网络,它们的输入都是新增CNN层输出的feature map,一个子网络负责box回归,一个负责类别回归。由于新增CNN层产生的feature map的每个空间位置的特征(包括通道方向,shape为 )都被用来预测映射前窗口对应位置是否存在对象(类别)和对象的box,那么使用 的CNN进行计算正合适(等效于FC层),这便是RPN的做法。综上所述,所有滑窗位置共享一个新增CNN层和后续的分类和box回归分支网络。下图是RPN在一个窗口位置上执行计算的原理示意。 由于滑窗操作是通过正方形的CNN卷积实现的,为了训练网络适应不同长宽比和尺寸的对象,RPN引入了anchor box的概念。每个滑窗位置会预置k个anchor box,每个anchor box的位置便是滑窗的中心点,k个anchor box的长宽比和尺寸不同,作者使用了9种,分别是长宽比为 、 和 ,尺寸为 , 和 的9种不同组合。分类分支和box回归分支会将新增CNN层输出的feature map的每个空间位置的tensor(shape为 )映射为k个box和与之对应的类别,假设每个位置的anchor box数量为k(如前所述, ),则分类分支输出的特征向量为2k(两个类别),box回归分支输出为4k(4为box信息,box中心点x坐标、box中心点y坐标、box宽w和box高h)。box分支预测的位置(x,y,w,h)都是相对anchor box的偏移量。从功能上来看,anchor box的作用有点类似于提供给Fast RCNN的propsal box的作用,也表示目标可能出现的位置box,但是anchor box是均匀采样的,而proposal box是通过特征抽取(或包含训练)回归得到的。由此可以看出,anchor box与预测的box是一一对应的。从后文将会了解到,通过anchor box与gt box的IoU的关系,可以确定每个预测box的正负样本类别。通过监督的方式让特定的box负责特定位置、特定尺寸和特定长宽比的对象,模型就学会了拟合不同尺寸和大小的对象。另外,由于预测的box是相对anchor box的偏移量,而anchor box是均匀分布在feature map上的,只有距离和尺寸与gt box接近(IoU较大)的anchor box对应的预测box才会与gt box计算损失,这大大简化了训练,不然会有大量的预测box与gt box计算损失,尤其是在训练初始阶段,当一切都是瞎猜的时候。 在Faster RCNN基础上,将backbone替换为ResNet50或ResNet101,涉及部分细节的改动,我们放在本文的细节部分进行描述。 在Faster RCNN-ResNet基础上,引入FPN(特征金字塔网络)模块,利用CNN网络天然的特征金字塔特点,模拟图像金字塔功能,使得RPN和Fast RCNN可以在多个尺度级别(scale level)的feature map上分别预测不同尺寸的对象,大大提高了Faster RCNN的检测能力。相比图像金字塔大大节省了推理时间。原理如下图所示: 从上图中可以看出,FPN并不是简单地使用backbone的多个CNN层输出的feature map进行box回归和分类,而是将不同层的feature map进行了top-down和lateral connection形式的融合后使用。这样便将CNN网络前向传播(bottom-up)产生的深层语义低分辨率特征与浅层的浅语义高分辨率的特征进行融合,从而弥补低层特征语义抽象不足的问题,类似增加上下文信息。其中,top-down过程只是简单地使用最近邻插值将低分辨率的feature map上采样到即将与之融合的下层feature map相同的尺寸(尺寸上采样到2倍),lateral connection则是先将低层的feature map使用 的卷积缩放为即将与之融合的上层feature map相同的通道数(减少计算量),然后执行像素级相加。融合后的feature map不仅会用于预测,还会继续沿着top-down方向向下传播用于下层的特征融合,直到最后一层。 mask R-CNN提出的RoI Align缓解了RoIPooling的缺陷,能够显著提升小目标物体的检测能力。网上介绍RoIPooling和RoIAlign的文章很多,此处不再赘述,推荐阅读个人觉得比较好的两篇博客: RoIPooling 和 RoIAlign 。 此处稍微啰嗦下个人对RoIPooling的思考: 为什么RoIPooling不使用自适应的池化操作,即根据输入的feature map的尺寸和希望输出的feature map尺寸,自动调整池化窗口的大小和步长以计算想要尺寸的feature map,类似于自适应池化操作,而不是将输入的feature map划分成均匀的小区域(bins,论文中划分为 个bins),然后每个小区域中分别计算MaxPooling。不管计算上是否高效,至少这种做法在输入的feature map尺寸(比如 )小于期望的输出feature map尺寸(比如 )时会失效,因为在3*3的feature map上如果不使用padding的话是无法得到 的特征的,而使用padding又是很低效的操作,因为要扩展局部feature map的尺寸,而使用划分bins的方法,即使输出的feature map尺寸远小于要输出的feature map尺寸,也仅仅是在同一位置采样多次而已。 本人之前介绍YOLOv3的 文章 也介绍过anchor box的作用,再加上本文1.1.2节中的介绍应该比较全面了,不再赘述。 此处的绝大部分细节来自论文,论文中未提及的部分,主要参考了mmdetection中的 实现 。 整个模型的网络结构可以划分为四个部分,分别为backbone、FPN、RPN head和Fast RCNN head。 1.backbone: 原图短边被resize到800像素,这里值得注意的是,如此resize后一个batch内的每张图片的大小很有可能并不一致,所以还无法合并为一个输入矩阵,普遍的做法是将batch内的每张图片的左上角对齐,然后计算resize后batch内所有图片的最大宽和高,最后按照最大宽或高分别对每张图片的宽或高进行0值padding;输出为4个不同尺寸的feature map(C2、C3、C4、C5)。 2.FPN: ResNet backbone产生的4个不同尺寸的feature map(C2、C3、C4、C5)作为输入,输出5个不同尺寸的feature map(P2、P3、P4、P5、P6),P6是对P5进行2倍降采样得到,每个feature map的通道数为固定的256;使用P6的原因是为了预测更大尺寸的对象。 3.RPN:输入为FPN产生的feature map(P2、P3、P4、P5、P6);由于RPN是在5个输入feature map上进行独立的预测,则每个feature map都会输出 proposal box,因此不可能将所有的proposal box都提供给Fast R-CNN,这里的做法是对每个feature map上产生的proposal box按类别概率进行排序(每个feature map上的proposal box独立进行),然后选择前k个proposal box, 5个feature map一共会 产生 个proposal box,训练时 ,推理时 。最后,将所有的 个proposal box合并后统一进行NMS(IoU threshold=0.7)去掉冗余的box,最后选择前m个输出给Fast R-CNN,训练和测试时m都取1000。 训练时将gt box通过下面的公式转换为相对anchor box的偏移值,与网络的预测计算loss,至于将每个gt与具体的哪个anchor box计算偏移,则需要根据2.3.1节中的正负样本方法来确定。测试时将预测的box通过该公式中的逆运算计算出当前box相对原图的位置和大小, , , , 指相对全图的box中心点坐标以及宽和高, , , , 指每个anchor相对全图的box中心点坐标以及宽和高。由此可以看出,box回归分支直接预测的便是相对anchor的偏移值,即公式中的 、 、 和 。 以上提到的2000和1000是作为Fast R-CNN的输入proposal box,在训练时参与RPN loss计算的anchor boxs数量为256个,正负样本数量为 ,正样本不足128的用负样本补足。这里的256是从所有feature map中的anchor box中选择的,并非每个feature map都独立取得256个正负样本。这也是合理的,因为每个gt box由于尺寸的原因,几乎不可能与所有feature map上的anchor box的IoU都大于一定的阈值(原因参考2.3.1节)。注意选择前并未进行NMS处理,而是直接根据2.3.1节中确定正负样本的方式确定每个预测box正负类别,然后分别在正样本中随机选择128个正样本,在负样本中随机选择128个负样本。 4.Fast R-CNN:输入为FPN产生的前4个feature map和RPN输出的proposal box,4个feature map为P2、P3、P4、P5,与backbone对应,不使用P6。那么,如何确定在哪个feature map上执行每个proposal box对应的RoIAlign操作并得到 大大小的feature map呢?论文中的做法是通过下面的公式将特定尺寸的proposal box与FPN产生的4个feature map中尺寸最适合的对应起来,即让感受野更接近对象尺寸的feature map预测该对象 ,其中224为backbone在ImageNet上预训练的尺寸,w和h为proposal box的长和宽,k表示适合尺寸为w和h的propsal box的feature map的位置,即4个feature map为P2、P3、P4、P5的下标,k_0为proposal box大致为224*224时对应feature map位置值( ),表示proposal box大致为 时在P4上执行RoIAlign,小于 时,在P2或P3上执行,大于则在P5上。 网络都会针对每个RoI会输出一个类别概率分布(包括背景类别)和一个相对RoI box的长度为4的box偏移向量。概率分支由softmax激活函数得到。与RPN的类似,训练时,如2.4.2节loss计算中所述,会将gt box通过下面的公式转换为相对proposal box(前提是该RoI是正样本)的偏移量,然后使用loss计算公式直接与预测的相对偏移量进行loss计算;测试时,会通过下列公式的逆运算将偏移值换算回相对原图的位置box,然后使用NMS去掉冗余的box,最终输出。 训练时,通过2.3.2中的方式确定每个proposal box属于正样本或负样本后,随机选择512个样本,其中正负比例为1:3进行loss计算,正样本不足的由负样本补足。 在RPN中,由于每个feature map的每个滑窗位置上的张量( 维张量,C为feature map的通道数)会被用来预测k个box和每个box对应的类别概率,那么具体哪个box才能参与gt box的损失计算(包括类别和box回归损失)?这便需要在所有预测的box中确定正负样本,因为一个anchor对应一个预测的box和类别,那么确定预测的box是正例还是负例等价于确定anchor box的是正例还是反例。为了便于训练,RPN中使用双IoU阈值的方式确定正负样本,与gt box的IoU为最大或者大于0.7的anchor box被设置为正样本,这会导致一个gt box与多个预测box计算损失,即允许多个box预测同一对象,与gt box的IoU小于0.3的anchor box被设置为负样本,其余的忽略掉,即不参与loss计算。在此基础上,如2.2节中所述,会对正负样本进行随机采样,总数为256,其他不参与损失函数计算。 与gt box的IoU大于0.5的proposal box作为正样本,注意,是将proposal box与gt box计算IoU,Fast-RCNN中的proposal box的作用与anchor box有些类似,即确定正负样本和预测的box 都是针对它们的偏移值 ,其余IoU在 之间的作为负样本,低于0.1的作为难例挖掘时的启发式样本(mmdetection中的做法是单阈值方式,与gt box的IoU大于0.5的proposal box作为正样本,小于的都是负样本)。 Faster R-CNN中是以分步的方式联合训练RPN和Fast R-CNN,大致的过程为: 但在mmdetection中,已经将RPN和Fast R-CNN的loss进行权重加和,从而进行联合训练,训练流程简化很多,且能够达到相同的效果。 确定了每个预测box或anchor box的正负类别后,便可以计算损失函数了,类似于Fast RCNN的做法,只有正样本的box才会参与box损失计算,损失函数如下: 为类别损失为类别损失函数,使用交叉熵损失, 为box回归损失,使用smooth L1损失,论文中平衡因子lambda为10。 表示第i个anchor box对应的gt 类别(背景为0,对象为1), 为gt box相对anchor box的偏移量(如果该anchor box被确定为正样本),通过下面的公式计算得到, 即表示只有 ,即为正样本时才会计算box的损失。 Fast R-CNN的loss类似于RPN,只有proposal box为非背景类别(正样本)时才计算box损失, 为类别损失, 为box损失, 表示proposal box的 , 时表示背景(通过2.3.2的方式确定proposal box的类别)。 为平衡因子,作者所有实验中 。为了防止box回归的L2 loss放大噪声(异常loss)从而影响训练,作者将L2 loss修改为 loss,当box尺寸的差异较大时使用L1 loss,抑制异常值对梯度的贡献。 其中v是通过下面的公式将gt box( , , , )转换得到,其中,( , , , )为proposal box的在原图中的中心点坐标和宽与高。 在Faster R-CNN和Faster R-CNN-ResNet中,由于RPN只是在单尺寸的feature map上进行滑窗,为了缓解多尺寸的问题,每个滑窗位置会设计多个尺寸的anchor,但是在Faster R-CNN-FPN中使用了FPN,则天然就具有了适应对象多尺寸的问题,因此不用再为每个滑窗设计多个尺寸的anchor。即在Faster RCNN-FPN中,为每种尺寸feature map上的滑窗只设计了单一尺寸多种长宽比的anchor,长宽比有 、 和 ,不同feature map上anchor的尺寸为: , , , 和 ,依次对应P2、P3、P4、P5和P6。 COCO上的训练细节:RPN的weight decay为0.0001,SGD的 ,初始学习率为0.002,学习率调整使用step decay方式。
2023-06-23 15:08:241

阅读英语短文回答问题The housekeeping department is the backbone of a h

1.It means the most important part. 2.To see to the cleanliness and good order of all rooms in the hotel. 3.To make the guest"s stays fortable and pleasing. 4.The willingness to serve and please the guests. 5.Not only through the efficiency in their jobs but also through their heartfelt warmth in serving the guests.
2023-06-23 15:08:461

求迈克尔杰克逊的英文简介(带翻译) 谢谢~

Michael Joseph Jackson (born August 29, 1958) is an American recording artist, entertainer, and businessman. The seventh child of the Jackson family, he debuted on the professional music scene at the age of 11 as a member of The Jackson 5 and began a solo career in 1971 while still a member of the group. Referred to as the "King of Pop" in subsequent years, five of his solo studio albums have become some of the world"s best-selling records: Off the Wall (1979), Thriller (1982), Bad (1987), Dangerous (1991) and HIStory (1995).In the early 1980s, he became a dominant figure in popular music and the first African-American entertainer to amass a strong crossover following on MTV. The popularity of his music videos airing on MTV, such as "Beat It", "Billie Jean" and Thriller—credited for transforming the music video into an art form and a promotional tool—helped bring the relatively new channel to fame. Videos such as "Black or White" and "Scream" kept Jackson as a staple on MTV into the 1990s. With stage performances and music videos, Jackson popularized a number of physically complicated dance techniques, such as the robot and the moonwalk. His distinctive musical sound and vocal style influenced numerous hip hop, pop and contemporary R&B artists.Jackson has donated and raised millions of dollars for beneficial causes through his Dangerous World Tour, charity singles and support of 39 charities. However, other aspects of his personal life—including his changing appearance and eccentric behavior—generated significant controversy which damaged his public image. Though he was accused of child sexual abuse in 1993, the criminal investigation was closed due to lack of evidence and Jackson was not charged. He then married twice and fathered three children, all of which caused further controversy. The singer has experienced health concerns since the early 1990s and conflicting reports regarding the state of his finances since the late 1990s. In 2005, Jackson was tried and acquitted of further sexual abuse allegations and several other charges.One of the few artists to have been inducted into the Rock and Roll Hall of Fame twice, his other achievements include multiple Guinness World Records—including one for Thriller as the world"s best-selling album—13 Grammy Awards, 13 number one singles in his solo career—more than any other male artist in the Hot 100 era—and the sale of over 750 million units worldwide. Jackson"s highly publicized personal life, coupled with his successful career, has made him a part of popular culture for almost four decades. He has been cited as one of the world"s most famous men.
2023-06-23 15:04:191

职业有哪些分类,分别是什么?

第一大类:国家机关,党群组织,企事业单位的负责人。第二大类:专业技术人员。第三大类:办事人员和有关人员。第四大类:商业,服务业人员。第五大类:农,林,牧,鱼,水利业人员。第六大类:生产,运输设备操作人员及有关人员。第七大类:军人 第八大类:不便分类的其他从业人员
2023-06-23 15:04:202

英雄联盟里面的红霸蓝霸什么意思?无脑fame什么意思?

红BUFF和蓝BUFF,就是打死两个大的野怪之后掉落的BUFF,红BUFF可以使攻击带减速和伤害蓝BUFF是回魔还-技能的CD无脑FARM就是无脑打钱,一个英雄,可以用技能就把兵刷掉,比如火魔,一个W+E可以收各种小兵,就是无脑打钱 如果有疑问,请您追问,如果解决了您的问题,请采纳,谢谢!
2023-06-23 15:04:241

迈克尔杰克逊什么病?

据国外媒体报道,北京时间6月26日,一代歌王迈克尔·杰克逊因心脏停动逝世,享年51岁。 迈克尔·杰克逊(Michael Jackson)被誉为流行音乐之王(The King of Pop),是继猫王之后西方流行乐坛最具影响力的音乐家,其成就已超越猫王,是出色的音乐全才,在作词,作曲,场景制作,编曲,演唱,舞蹈,乐器演奏方面都有着卓越的成就。迈克尔与猫王、披头士两组歌手并列为流行乐史上最伟大的不朽象征,他开创了现代MTV,他把流行音乐推向了巅峰,他融合了黑人节奏蓝调与白人摇滚的独特的MJ乐风,时而高亢愤疾、时而柔美灵动的声音,空前绝后的高水准音乐录影,规模宏大的演唱会无不在世界各地引起极大轰动。他拥有世界销量第一的专辑《THRILLER》,销量达1.04亿(2006年吉尼斯世界纪录认证数据)。据2006年底统计,其正版专辑全球销量已超过7.5亿张,被载入“吉尼斯世界纪录大全”。他是音乐史上第一位在美国以外卖出上亿张唱片的艺术家。他魔幻般的舞步更是让无数的明星效仿。2006年,吉尼斯世界纪录颁发了一个最新认证:世界历史上最成功的艺术家!他一个人支持了世界上39个慈善救助基金会,保持着2006年的吉尼斯世界个人慈善纪录,是全世界以个人名义捐助慈善事业最多的人。他患有白癜风皮肤病,皮肤呈白色。
2023-06-23 15:04:271

hotspot中文是什么意思

那个功能不叫hotspot,叫wifi。国内目前还没有在公共场合提供hotspot(热点)的供应商,但是你可以连接自己的无线路由器。
2023-06-23 15:04:333

Fame good or evil

Fame—Good or Evil Whenever talking about fame, many people will list its advantages or disadvantages firstly. Very often, I hear people say that fame can bring celebrity and regards to one and more importantly, it can help one attract public attention. While other people say that fame is an evil for it can make one trapped in it and then destroy his life. However, has anyone ever thought about that, it is whether fame itself that does these good or bad stuffs, or our attitudes towards it make the differences?Just like many other things in the world, fame is neither good nor bad by nature. The reason that makes people think there are differences between good fame and bad fame lies in the attitude towards it. We know that different person owns different attitude towards fame, so different people runs after different kinds of fame, and then fame differ from one to another, thus there come the advantages and disadvantages of fame.What"s your definition of “fame”? Or what kind of fame do you want? If the answer is flowers, statues and money, I have to say “Being careful! You are advancing fame in a dangerous direction!” the fact is when people run after a kind of fame like this, they may easily got themselves trapped into an endless cycle of pursuing more and more fame, and never to be satisfied. When having grasped one thing that they think is one kind of fame, they will compare it with others" consciously or not. And they will find there is always someone owning more than them so they will begin the journey again. It is endless. Finally they will lose themselves on the road of seeking for fame. Many famous stars are on this road.But when we regard fame as reputation, honor of oneself, or road to achieve the meaning of life, we may see a positive aspect of it. Good reputation requires one cling to his self-discipline or self-control all the time, which can drive him to act well and own good manners. Honor can strong one"s will and firm his actions towards great goals. This can be easily understood in the era of war-“Fighting for the honor of our motherland!” And fame is also a good tool for some people who have the world in their hearts. Good fame means a big affection or a powerful leadership. The person who owns a good fame can more easily affect and lead the public towards better transformations. And it is important for the building of history.Above all of these, we can see that it is not fame itself but our attitude towards it that makes fame be good or evil. Only when we have realized this, can we know how to definite fame rightly and let it play a positive role in our self-development.
2023-06-23 15:04:341

cooperate,instant,fame,

cooperate:合作、协作、配合的意思 instant:立即的、即刻的、紧迫、迫切的意思 fame:声誉、名望、名声的意思
2023-06-23 15:04:411

三星hotspot2.0干嘛用的?

Hotspot 2.0(HS 2.0)由WiFi联盟和无线宽带联盟开发,旨在实现移动网络和WiFi网络之间的无缝流量切换,它不需要额外的用户注册和验证。其实Hotspot 2.0只是802.11u标准中的一个子项功能——即利用802.11u提供无缝的自动WiFi身份识别和切换,这一个新兴的协议将可帮用户省去了连接到WiFi网络和服务的麻烦和乏味的过程。拓展内容:Hotspot 2.0的出现,意味着我们将可以自动由3G、4G切换到WiFi网络,用户将不用手动发现热点、输入身份验证来获得WiFi。而且从一个网络切换到另一个网络的时候都不会间断, 用户甚至感觉不到。这种无缝认证和交接以及空中传送的安全性,将使得WiFi有如蜂窝网络那般易于使用,并提供一致的用户体验与新增加的WiFi网络速度上的优势,你根本感受不到自己某刻正在连接的是WiFi还是3G网络,完整的实现无所不在的网络乌托邦。参考资料:网易新闻——Hotspot 2.0
2023-06-23 15:04:421

迈克尔杰克逊是谁??

,,,
2023-06-23 15:04:4415

How many 能修饰名利吗 名利 fame 多少名利用哪个词修饰 how much

不能,“名利(fame)”是不可数名词,而How many一般是用来修饰可数名词的.
2023-06-23 15:04:481

find fame是什么意思?

获得声誉
2023-06-23 15:04:562

三星hotspot2.0干嘛用的?

Hotspot 2.0是什么?什么是Hotspot 2.0Hotspot 2.0是由 Wi-Fi 联盟成员制定的一项规范,可极大地方便用户安全连接到Wi-Fi网络,而且可通过安全连接、自动化和符合用户与运营商策略有效地复制移动电话体验,从而实现不同Wi-Fi网络间的漫游。其发展背后蕴含着巨大的多行业能量,如Passpointu2122 项目下的Wi-Fi联盟(WFA)认证,无线宽带联盟(WBA)等组织的互操作性等。借助Hotspot 2.0,可通过网络互联实现高效随机Wi-Fi接入点的大规模网络。因此,用户可在几乎任何位置的Wi-Fi网络间移动时享受无缝体验。为此,要通过对Wi-Fi连接程序的全面革新来实现。Hotspot 2.0可完全自动化连接过程,同时采用高级加密标准(AES)提供空中链路加密(WPA2)。Hotspot 2.0 (又称为Passpoint认证)接入点与控制器已由各地主要基础设施供应商推出一年之久。三星、苹果等厂商最近推出了支持全新Hotspot 2.0的智能手机,全球知名厂商现在一致瞄准盈利目标——直接应对许多运营商的担忧,即:在如此多免费网络的情况下,如何利用Wi-Fi创造利润业界分析师Chetan Sharma称,去年美国大约90%的平板依靠Wi-Fi上网,而不是3G移动宽带,将完全分散的高速Wi-Fi数据访问集成到统一的高速网络中,人们会乐意为之付费,通过建立这样一个热点漫游联盟,所谓盆满钵满也就是水到渠成的事情了。Hotspot 2.0正是实现的关键所在。
2023-06-23 15:04:572

make sb do sth是否等于make sb fame?貌似我好像记错了

应该不是吧
2023-06-23 15:04:152

万达影城几个厅的介绍

1.影城介绍青岛万达影城延吉路店占地近6000平方米,共设8个影厅,其中包括IMAX厅、RealD影厅、双机巨幕影厅和VIP影厅各1个。影城拥有1400个座位,总投资约3000万元人民币。影城所在万达第三代商业广场,商业设施齐全,不出广场就可以享尽吃喝玩乐。影厅内空间宏大,影厅高度均超过9米,阶梯式座椅排距达1.2米,座位错层高达30度。观影无遮挡,相当舒适。拥有世界顶尖IMAX放映技术,杜比环绕 音响,英国HARKNESSG银幕和德国ISCO放映镜头打造专业的电影放映效果,让走进影城的顾客都能享受到视听盛宴。2.影城特色万达影城延吉路店特色影厅:2、4号厅-- RealD3D技术3号厅—RealD3D技术5号厅—RealD3D技术6号厅—VIP影厅7号厅—IMAX影厅8号厅—双机金属巨幕厅
2023-06-23 15:04:111

迈克尔杰克逊个人资料

一楼很全嘛
2023-06-23 15:04:046

gpu hotspot温度多少正常

gpu hotspot温度在30℃-80℃左右是正常的。由于外部温度原因,夏天显卡温度多数在50℃-85℃之间也是正常的范围,如果是长期运行大型3D游戏或播放高清视频,温度最高可能达到95℃左右,这个温度范围会影响到电脑硬件的寿命,温度再高就要考虑加强散热以及清扫灰尘了。针对显卡温度多少正常的问题,需要注意以下几点:1、温度和电压的问题。温度提高是由于U的发热量大于散热器的排热量,一旦发热量与散热量趋于平衡,温度就不再升高了。发热量由U的功率决定,而功率又和电压成正比,因此要控制好温度就要控制好CPU的核心电压。不过说起来容易,电压如果过低又会造成不稳定,在超频幅度大的时候这对矛盾尤其明显。很多时候CPU温度根本没有达到临界值系统就蓝屏重起了,这时影响系统稳定性的罪魁就不是温度而是电压了。所以如何设置好电压在极限超频时是很重要的,设高了,散热器挺不住,设低了,U挺不住。2、各种主板的测温方式不尽相同,甚至同一个品牌、型号的主板,由于测温探头靠近CPU的距离差异,也会导致测出的温度相差很大。因此,笼统的说多少多少温度安全是不科学的。我认为在夏天较高室温条件下自己跑一跑super Pi或3DMark,只要稳定通过就可以了,不必过分相信软件测试的温度数据。
2023-06-23 15:04:031

为什么最近hotspot shield 不能用

1、看看你的进程里是否有一个进程openvdns.exe?2、在控制面板 管理工具 服务里以hotspot开头的服务是否已经启用3、是否设为开机启动,你禁了以后服务也禁用了,要打开服务必须重启了。我之前装因为没有开机启动,运行之后就一闪就没了,重装之后设为开机启动就行了1.14之后的都不好用,自动更新加广告,推荐用1.20汉化版(其实是1.12汉化版,网上都叫1.20),自己百度一下,绝对好用
2023-06-23 15:03:561

fame reputation popularity renown 单词都为名望之意,但有何区别?

fame 是指一个人红了.出名了.成名了,名声大震了.是famous的名词形式. 有点贬义. 比如: She won her overnight fame by her first novel. 她的第一部小说一问世,便使她一举成名. She has always been desirous of fame. 她一直想成名. reputation 好的名声,名气,名誉,威望的意思.一般是褒义的. 比如: This store has an excellent reputation for fair dealing. 这家商店因公平交易而获好名声. popularity 流行度,声望,人气很高的意思.可以作褒义,也可以作贬义使用. 比如: Her books have been in popularity recently. 她的书近来大受欢迎. Golf have gained popularity among the wealthy in my country. 高尔夫球已在我国富有的人中流行起来. renown 名望,声誉.这个用得比较少了.很少见. 比如: He won renown as a pianist. 他赢得钢琴家的声誉. Do you know any place of renown around here? 你知道这儿有什么名胜吗?
2023-06-23 15:03:551

谢谢
2023-06-23 15:03:522

famed和famous的区别

famed和famous的用法不同、侧重点不同。famed接名词或代词作宾语。也可接以形容词充当补足语的复合宾语。famous用于人、事、地或物,指受到公众的认可并为公众熟悉、热爱、尊敬,可有天下闻名、举国皆知的含义,并含有称颂的意味,多用来指好的人或物。The city is famed for its outdoor restaurants. 这座城市以其露天餐馆而闻名。 One of the penalties of fame is loss of privacy. 成名的弊端之一是失掉了隐私。 She went to Hollywood in search of fame and fortune. 她为追逐名利去了好莱坞。 He became internationally famous for his novels. 他以小说享誉国际。 New Orleans is famous for its cuisine. 新奥尔良以其美食而著称。 I"ll be famous one day, just you wait! 我有朝一日会出名的,你就等着瞧吧!
2023-06-23 15:03:481

hotspot m1218nfs mfp 怎么连接手机

先把打印机连接到路由器,然后只要手机和打印机在一个局域网Q, 手机端下载兄弟打印机的app,打开以后搜索打印机就可以了。打印机无线连接,分为两种,-种是wifi,还有-种是直连, wifi连接就是打印机连接到你家路由器上,只要电脑和路由器在一个局域网,直接添打印机安装驱动就可以打印了。直连,就是打印机和电脑直接通讯,这个虽然方便,但是不稳定,毕竟打印机没有外网,操作系统检测到无法上网,就会断开连接。所以,在设置无线打印机的时候,尽量不要使用直连,- 定要使用wifi和路由器连接,然后计入打印机管理页面,把休眠关掉,或者时间设置长-些。操作方法和路由器类似,打开浏览器,输入打印机的ip地址,关掉休眠即可,有些机器可能关不掉,那就尽量把时间设置长-些。
2023-06-23 15:03:481

《fame》里的演员名单?

Asher Book
2023-06-23 15:03:412

迈克杰克逊简历

【英文全名】:MichaelJosephJackson  【大陆译名】:迈克尔·约瑟夫·杰克逊  【香港译名】:米高积逊,米高积臣  【台湾译名】:麦克·杰克森  【歌迷昵称】:王、迈、迈迈、国王、天王、神、世界舞王、流行音乐之王、MJ、Michael、KingofPop.、流行之王  【个人身高】:5尺11英寸(180cm)  【个人体重】:130磅(120斤)  【所属血型】:B型  【所属星座】:处女座  【视 力】:远视  【瞳孔色】:深棕  【发 色】:黑色  【鞋 码】:美国:10号(欧洲:44号)  【出生日期】:1958年8月29日00:13(即午夜12:13)  【出生地点】:美国-印第安纳州-加里市-Jackson街21号(Gary,Indiana,USA)   【逝世时间】:美国洛杉矶时间25日14:26,北京时间2009年6月26日5:26享年50岁  【逝世地点】:洛杉矶荷尔贝山(HolmbyHills)家中  【逝世原因】:死于他杀  【学 历】:毕业于美国黑人联合大学。并于1988年获得了有色人种联合大学基金会(UNCF)颁发的Fisk大学人道文学博士荣誉学位。  【职 业】:歌唱家、舞蹈家、作曲家、词作家、唱片制作人、编舞、演员、导演、企业家、慈善家  【音乐风格】:Pop/Rock(流行/摇滚),R&B(节奏布鲁斯),Funk(放克),NewJackSwing(新杰克摇摆),Urban(都市流行),Club/Dance(俱乐部舞曲),Motown(摩顿黑人音乐)  【歌唱特色】:假声,痉挛,活力,热情,伤感,警醒,快乐,自信,丰富,时髦,真诚,盛典,神秘,口技  【舞蹈风格】:机械舞、踢踏舞、现代舞、霹雳舞、太空舞  【偶 像】:CharlieChaplin(查理·卓别林,好莱坞默片时代最伟大的戏剧大师),JamesBrown(詹姆斯·布朗,灵魂乐男歌手)  【兴趣爱好】:阅读、油画、素描、武术(功夫、柔道、空手道)、舞蹈、游乐园、旅行、购物、看电影、篮球  【收集爱好】:油画、雕塑、电影大事记、古董服饰  【关爱事物】:儿童(尤其是身患绝症以及贫穷的儿童),动物,环境,和平。  【所出书籍】:自传《太空漫步》(Moonwalker)[1988];散文诗集《梦舞诗话》(DancingTheDream)[1992]  【最喜欢演唱的歌曲】:《Billiejean》  【最喜欢的蛋糕品种】:带有巧克力糖霜的蛋黄蛋糕
2023-06-23 15:03:381

reputation与fame哪个可数?有何区别

reputation rep.u.ta.tion[u02ccrZpju0259`tu0454u0283u0259n; u02ccru0454pjuˋtu0454iu0283n]名词1 (U) [又作a ~] 名声,名誉a man of good [bad] ~名誉好的[坏的]人make a ~ for oneself赢得名声,成名Your ~ is [stands] very high.你的声誉很高He has [enjoys] a good ~ as a physician.他是位享有名望的内科医师He had a ~ for business sagacity.他以经营精明著称She has the ~ of being kind to the poor.她对待穷人仁慈,享有美誉2 (U)好评,声望,美名,令名,名望a person of his ~像他那种有声望的人a man of no ~名誉不好的 [默默无闻的] 人fame[fu0454m; fu0454im]《源自拉丁文“声音,谣言”的意思》不可数名词1 名声,名气,声誉(cf. notoriety 1)come to ~ = win [achieve] ~成名the temple of ~声誉的殿堂2 评价,风评good ~好评,美名ill ~恶名,恶评
2023-06-23 15:03:342