apac

阅读 / 问答 / 标签

org.apache.lucene.search.Hits需要引哪个jar包

您去下载3.0或者3.5 官方就自带的高亮

xampp中Apache突然无法启动 (端口没有被占用!!)

亲 apache有两个可能被占用的端口哦,除了80端口 还有个监听端口443,你检查了吗?443端口被占用,apache无法监听443端口,该如何解决呢? 在/xampp/apache/conf/extra/httpd-ssl.conf 把Listen 443 修改为 444(可自定义)百度搜"vps教程" 或许能解决你遇到的问题,谢谢~~

英语简历优势描述中,executive capacity指的是_____。

执行能力

如何调整nginx和apache服务器的header限制的大小

可以通过2个参数来调整nginx的header上限。client_header_buffer_size 16k。arge_client_header_buffers 4 16k。LimitRequestLine 指令设置的是每一个header长度的上线。引用LimitRequestLine 指令。限制接受客户端发送的HTTP请求行的字节数。语法 LimitRequestLine bytes。默认值 LimitRequestLine 8190。作用域 server config。状态 核心(C)。模块 core。bytes将设置HTTP请求行的字节数限制。LimitRequestLine指令允许服务器管理员增加或减少客户端HTTP请求行允许大小的限制。LimitRequestFieldSize指令设置的是所有header总长度的上限值引用LimitRequestFieldSize 指令语法 LimitRequestFieldsize bytes默认值 LimitRequestFieldsize 8190作用域 server config状态 核心(C)模块 corebytes指定了HTTP请求头允许的字节大小。LimitRequestFieldSize指令允许服务器管理员增加或减少HTTP请求头域大小的限制。

如何调整nginx和apache服务器的header限制的大小

现在主流的apache和nginx服务器他们都可以自由设置header的头信息上限大小。我们通过配置文件修改来达到目的。nginx默认的header长度上限是4k,如果超过了这个值如果header头信息请求超过了,nginx会直接返回400错误可以通过以下2个参数来调整nginx的header上限client_header_buffer_size 16k;large_client_header_buffers 4 16k;看起来是,nginx默认会用client_header_buffer_size这个buffer来读取header值,如果header过大,它会使用large_client_header_buffers来读取引用client_header_buffer_size syntax: client_header_buffer_size size default: 1k context: http, server Directive sets the headerbuffer size for the request header from client. For the overwhelming majority of requests it is completely sufficient a buffer size of 1K. However if a big cookie is in the request-header or the request has come from a wap-client the header can not be placed in 1K, therefore, the request-header or a line of request-header is not located completely in this buffer nginx allocate a bigger buffer, the size of the bigger buffer can be set with the instruction large_client_header_buffers.引用large_client_header_buffers syntax: large_client_header_buffers number size default: large_client_header_buffers 4 4k/8k context: http, server Directive assigns the maximum number and size of buffers for large headers to read from client request. The request line can not be bigger than the size of one buffer, if the client send a bigger header nginx returns error "Request URI too large" (414). The longest header line of request also must be not more than the size of one buffer, otherwise the client get the error "Bad reques t" (400). Buffers are separated only as needed. By default the size of one buffer is equal to the size of page, depending on platform this either 4K or 8K, if at the end of working request connection converts to state keep-alive, then these buffers are freed. 对于apache2来说,它默认值是8k可以调整以下2个参数LimitRequestLine 16kLimitRequestFieldSize 16kLimitRequestLine 指令设置的是每一个header长度的上线引用LimitRequestLine 指令说明 限制接受客户端发送的HTTP请求行的字节数 语法 LimitRequestLine bytes 默认值 LimitRequestLine 8190 作用域 server config 状态 核心(C) 模块 core bytes将设置HTTP请求行的字节数限制。LimitRequestLine指令允许服务器管理员增加或减少客户端HTTP请求行允许大小的限制。因为请求行包括HTTP方法、URI、协议版本,所以LimitRequestLine指令会限制请求URI的长度。服务器会需要这个值足够大以装载它所有的资源名,包括可能在GET请求中所传递的查询部分的所有信息。这个指令给了服务器管理员更大的可控性以控制客户端不正常的请求行为。这有助于避免某些形式的拒绝服务攻击。LimitRequestFieldSize指令设置的是所有header总长度的上限值引用LimitRequestFieldSize 指令说明 限制客户端发送的请求头的字节数 语法 LimitRequestFieldsize bytes 默认值 LimitRequestFieldsize 8190 作用域 server config 状态 核心(C) 模块 core bytes指定了HTTP请求头允许的字节大小。LimitRequestFieldSize指令允许服务器管理员增加或减少HTTP请求头域大小的限制。一般来说,服务器需要此值足够大,以适应普通客户端的任何请求的头域大小。一个普通头域的大小对于不同的客户端来说是有很大差别的,一般与用户配置他们的浏览器以支持更多的内容协议密切相关。SPNEGO的认证头最大可能达到12392字节。这个指令给了服务器管理员更大的可控性以控制客户端不正常的请求行为。这有助于避免某些形式的拒绝服务攻击。注:该设置在apache root/manual/mod/core.xml中进行设置

如何调整nginx和apache服务器的header限制的大小

现在主流的apache和nginx服务器他们都可以自由设置header的头信息上限大小。我们通过配置文件修改来达到目的。nginx默认的header长度上限是4k,如果超过了这个值如果header头信息请求超过了,nginx会直接返回400错误可以通过以下2个参数来调整nginx的header上限client_header_buffer_size 16k;large_client_header_buffers 4 16k;看起来是,nginx默认会用client_header_buffer_size这个buffer来读取header值,如果header过大,它会使用large_client_header_buffers来读取引用client_header_buffer_size syntax: client_header_buffer_size size default: 1k context: http, server Directive sets the headerbuffer size for the request header from client. For the overwhelming majority of requests it is completely sufficient a buffer size of 1K. However if a big cookie is in the request-header or the request has come from a wap-client the header can not be placed in 1K, therefore, the request-header or a line of request-header is not located completely in this buffer nginx allocate a bigger buffer, the size of the bigger buffer can be set with the instruction large_client_header_buffers.引用large_client_header_buffers syntax: large_client_header_buffers number size default: large_client_header_buffers 4 4k/8k context: http, server Directive assigns the maximum number and size of buffers for large headers to read from client request. The request line can not be bigger than the size of one buffer, if the client send a bigger header nginx returns error "Request URI too large" (414). The longest header line of request also must be not more than the size of one buffer, otherwise the client get the error "Bad request" (400). Buffers are separated only as needed. By default the size of one buffer is equal to the size of page, depending on platform this either 4K or 8K, if at the end of working request connection converts to state keep-alive, then these buffers are freed. 对于apache2来说,它默认值是8k可以调整以下2个参数LimitRequestLine 16kLimitRequestFieldSize 16kLimitRequestLine 指令设置的是每一个header长度的上线引用LimitRequestLine 指令说明 限制接受客户端发送的HTTP请求行的字节数 语法 LimitRequestLine bytes 默认值 LimitRequestLine 8190 作用域 server config 状态 核心(C) 模块 core bytes将设置HTTP请求行的字节数限制。LimitRequestLine指令允许服务器管理员增加或减少客户端HTTP请求行允许大小的限制。因为请求行包括HTTP方法、URI、协议版本,所以LimitRequestLine指令会限制请求URI的长度。服务器会需要这个值足够大以装载它所有的资源名,包括可能在GET请求中所传递的查询部分的所有信息。这个指令给了服务器管理员更大的可控性以控制客户端不正常的请求行为。这有助于避免某些形式的拒绝服务攻击。LimitRequestFieldSize指令设置的是所有header总长度的上限值引用LimitRequestFieldSize 指令说明 限制客户端发送的请求头的字节数 语法 LimitRequestFieldsize bytes 默认值 LimitRequestFieldsize 8190 作用域 server config 状态 核心(C) 模块 core bytes指定了HTTP请求头允许的字节大小。LimitRequestFieldSize指令允许服务器管理员增加或减少HTTP请求头域大小的限制。一般来说,服务器需要此值足够大,以适应普通客户端的任何请求的头域大小。一个普通头域的大小对于不同的客户端来说是有很大差别的,一般与用户配置他们的浏览器以支持更多的内容协议密切相关。SPNEGO的认证头最大可能达到12392字节。这个指令给了服务器管理员更大的可控性以控制客户端不正常的请求行为。这有助于避免某些形式的拒绝服务攻击。注:该设置在apache root/manual/mod/core.xml中进行设置

如何调整nginx和apache服务器的header限制的大小

现在主流的apache和nginx服务器他们都可以自由设置header的头信息上限大小。我们通过配置文件修改来达到目的。nginx默认的header长度上限是4k,如果超过了这个值如果header头信息请求超过了,nginx会直接返回400错误可以通过以下2个参数来调整nginx的header上限client_header_buffer_size 16k;large_client_header_buffers 4 16k;看起来是,nginx默认会用client_header_buffer_size这个buffer来读取header值,如果header过大,它会使用large_client_header_buffers来读取引用client_header_buffer_size syntax: client_header_buffer_size size default: 1k context: http, server Directive sets the headerbuffer size for the request header from client. For the overwhelming majority of requests it is completely sufficient a buffer size of 1K. However if a big cookie is in the request-header or the request has come from a wap-client the header can not be placed in 1K, therefore, the request-header or a line of request-header is not located completely in this buffer nginx allocate a bigger buffer, the size of the bigger buffer can be set with the instruction large_client_header_buffers.引用large_client_header_buffers syntax: large_client_header_buffers number size default: large_client_header_buffers 4 4k/8k context: http, server Directive assigns the maximum number and size of buffers for large headers to read from client request. The request line can not be bigger than the size of one buffer, if the client send a bigger header nginx returns error "Request URI too large" (414). The longest header line of request also must be not more than the size of one buffer, otherwise the client get the error "Bad request" (400). Buffers are separated only as needed. By default the size of one buffer is equal to the size of page, depending on platform this either 4K or 8K, if at the end of working request connection converts to state keep-alive, then these buffers are freed. 对于apache2来说,它默认值是8k可以调整以下2个参数LimitRequestLine 16kLimitRequestFieldSize 16kLimitRequestLine 指令设置的是每一个header长度的上线引用LimitRequestLine 指令说明 限制接受客户端发送的HTTP请求行的字节数 语法 LimitRequestLine bytes 默认值 LimitRequestLine 8190 作用域 server config 状态 核心(C) 模块 core bytes将设置HTTP请求行的字节数限制。LimitRequestLine指令允许服务器管理员增加或减少客户端HTTP请求行允许大小的限制。因为请求行包括HTTP方法、URI、协议版本,所以LimitRequestLine指令会限制请求URI的长度。服务器会需要这个值足够大以装载它所有的资源名,包括可能在GET请求中所传递的查询部分的所有信息。这个指令给了服务器管理员更大的可控性以控制客户端不正常的请求行为。这有助于避免某些形式的拒绝服务攻击。LimitRequestFieldSize指令设置的是所有header总长度的上限值引用LimitRequestFieldSize 指令说明 限制客户端发送的请求头的字节数 语法 LimitRequestFieldsize bytes 默认值 LimitRequestFieldsize 8190 作用域 server config 状态 核心(C) 模块 core bytes指定了HTTP请求头允许的字节大小。LimitRequestFieldSize指令允许服务器管理员增加或减少HTTP请求头域大小的限制。一般来说,服务器需要此值足够大,以适应普通客户端的任何请求的头域大小。一个普通头域的大小对于不同的客户端来说是有很大差别的,一般与用户配置他们的浏览器以支持更多的内容协议密切相关。SPNEGO的认证头最大可能达到12392字节。这个指令给了服务器管理员更大的可控性以控制客户端不正常的请求行为。这有助于避免某些形式的拒绝服务攻击。注:该设置在apache root/manual/mod/core.xml中进行设置

如何用Apache POI操作Excel文件

完整例子如下,仅供参考:package com.soukenan.util.filter; import java.io.FileInputStream; import java.io.FileOutputStream; import java.io.IOException; import java.io.InputStream; import org.apache.poi.hssf.usermodel.HSSFWorkbook; import org.apache.poi.ss.usermodel.Cell; import org.apache.poi.ss.usermodel.Row; import org.apache.poi.ss.usermodel.Sheet; import org.apache.poi.ss.usermodel.Workbook; import org.apache.poi.ss.usermodel.WorkbookFactory; public class POITest { //使用POI创建excel工作簿 public static void createWorkBook() throws IOException { //创建excel工作簿 Workbook wb = new HSSFWorkbook(); //创建第一个sheet(页),命名为 new sheet Sheet sheet = wb.createSheet("new sheet"); //Row 行 //Cell 方格 // Row 和 Cell 都是从0开始计数的 // 创建一行,在页sheet上 Row row = sheet.createRow((short) 0); // 在row行上创建一个方格 Cell cell = row.createCell(0); //设置方格的显示 cell.setCellValue(1); // Or do it on one line. row.createCell(1).setCellValue(1.2); row.createCell(2).setCellValue("This is a string 速度反馈链接"); row.createCell(3).setCellValue(true); //创建一个文件 命名为workbook.xls FileOutputStream fileOut = new FileOutputStream("workbook.xls"); // 把上面创建的工作簿输出到文件中 wb.write(fileOut); //关闭输出流 fileOut.close(); } //使用POI读入excel工作簿文件 public static void readWorkBook() throws Exception { // poi读取excel //创建要读入的文件的输入流 InputStream inp = new FileInputStream("workbook.xls"); //根据上述创建的输入流 创建工作簿对象 Workbook wb = WorkbookFactory.create(inp); //得到第一页 sheet //页Sheet是从0开始索引的 Sheet sheet = wb.getSheetAt(0); //利用foreach循环 遍历sheet中的所有行 for (Row row : sheet) { //遍历row中的所有方格 for (Cell cell : row) { //输出方格中的内容,以空格间隔 System.out.print(cell.toString() + " "); } //每一个行输出之后换行 System.out.println(); } //关闭输入流 inp.close(); } public static void main(String[] args) throws Exception { // POITest.createWorkBook(); POITest.readWorkBook(); } }

JAVA编程中用Apache POI 怎么用SXSSFWorkbook对已存在的excel(.xlsx)操作进行写数据操作

你到底是2003 还是2007

冷水机refrigerant capacity是什么意思

refrigerant capacity 致冷剂容量;制冷剂充注量宏模双语例句1Measurement of low-side refrigerant pressure drop and capacity of fourway reversing valves四通换向阀低压侧制冷剂压降及容量测试2Condenser design according to the maximum working condition, foravoiding the problem of thermal efficiency decline under low temperature,at the same time can reduce the impact on refrigerant capacity under thedifferent volume of evaporator and condenser.冷凝器按照最大工况设计,避免了低温换热效率下降的问题,同时可以减小由于蒸发器和冷凝器容积不同而对制冷剂充注量的影响蔽握缓。皮虚

apache spark是什么意思?

Apache Spark是一个基于内存计算的开源的集群计算系统,目的是让数据分析更加快速。Spark非常小巧玲珑,由加州伯克利大学AMP实验室的Matei为主的小团队所开发。使用的语言是Scala,项目的core部分的代码只有63个Scala文件,非常短小精悍。Apache Spark的5大优势:1.更高的性能,因为数据被加载到集群主机的分布式内存中。数据可以被快速的转换迭代,并缓存用以后续的频繁访问需求。很多对Spark感兴趣的朋友可能也会听过这样一句话——在数据全部加载到内存的情况下,Spark可以比Hadoop快100倍,在内存不够存放所有数据的情况下快Hadoop 10倍。2.通过建立在Java、Scala、Python、SQL(应对交互式查询)的标准API以方便各行各业使用,同时还含有大量开箱即用的机器学习库。3.与现有Hadoop v1 (SIMR) 和2.x (YARN) 生态兼容,因此机构可以进行无缝迁移。4.方便下载和安装。方便的shell(REPL: Read-Eval-Print-Loop)可以对API进行交互式的学习。5.借助高等级的架构提高生产力,从而可以讲精力放到计算上。同时,Apache Spark由Scala实现,代码非常简洁。

apache spark是什么

Spark是一个基于内存计算的开源的集群计算系统,目的是让数据分析更加快速。Spark非常小巧玲珑,由加州伯克利大学AMP实验室的Matei为主的小团队所开发。使用的语言是Scala,项目的core部分的代码只有63个Scala文件,非常短小精悍。Spark 是一种与 Hadoop 相似的开源集群计算环境,但是两者之间还存在一些不同之处,这些有用的不同之处使 Spark 在某些工作负载方面表现得更加优越,换句话说,Spark 启用了内存分布数据集,除了能够提供交互式查询外,它还可以优化迭代工作负载。Spark 是在 Scala 语言中实现的,它将 Scala 用作其应用程序框架。与 Hadoop 不同,Spark 和 Scala 能够紧密集成,其中的 Scala 可以像操作本地集合对象一样轻松地操作分布式数据集。尽管创建 Spark 是为了支持分布式数据集上的迭代作业,但是实际上它是对 Hadoop 的补充,可以在 Hadoop 文件系统中并行运行。通过名为Mesos的第三方集群框架可以支持此行为。Spark 由加州大学伯克利分校 AMP 实验室 (Algorithms, Machines, and People Lab) 开发,可用来构建大型的、低延迟的数据分析应用程序。Spark 集群计算架构虽然 Spark 与 Hadoop 有相似之处,但它提供了具有有用差异的一个新的集群计算框架。首先,Spark 是为集群计算中的特定类型的工作负载而设计,即那些在并行操作之间重用工作数据集(比如机器学习算法)的工作负载。为了优化这些类型的工作负载,Spark 引进了内存集群计算的概念,可在内存集群计算中将数据集缓存在内存中,以缩短访问延迟。Spark 还引进了名为弹性分布式数据集(RDD) 的抽象。RDD 是分布在一组节点中的只读对象集合。这些集合是弹性的,如果数据集一部分丢失,则可以对它们进行重建。重建部分数据集的过程依赖于容错机制,该机制可以维护 "血统"(即允许基于数据衍生过程重建部分数据集的信息)。RDD 被表示为一个 Scala 对象,并且可以从文件中创建它;一个并行化的切片(遍布于节点之间);另一个 RDD 的转换形式;并且最终会彻底改变现有 RDD 的持久性,比如请求缓存在内存中。Spark 中的应用程序称为驱动程序,这些驱动程序可实现在单一节点上执行的操作或在一组节点上并行执行的操作。与 Hadoop 类似,Spark 支持单节点集群或多节点集群。对于多节点操作,Spark 依赖于 Mesos 集群管理器。Mesos 为分布式应用程序的资源共享和隔离提供了一个有效平台。该设置充许 Spark 与 Hadoop 共存于节点的一个共享池中。

apache spark是什么意思?

Spark是一个基于内存计算的开源的集群计算系统,目的是让数据分析更加快速。Spark非常小巧玲珑,由加州伯克利大学AMP实验室的Matei为主的小团队所开发。使用的语言是Scala,项目的core部分的代码只有63个Scala文件,非常短小精悍。Spark 是一种与 Hadoop 相似的开源集群计算环境,但是两者之间还存在一些不同之处,这些有用的不同之处使 Spark 在某些工作负载方面表现得更加优越,换句话说,Spark 启用了内存分布数据集,除了能够提供交互式查询外,它还可以优化迭代工作负载。Spark 是在 Scala 语言中实现的,它将 Scala 用作其应用程序框架。与 Hadoop 不同,Spark 和 Scala 能够紧密集成,其中的 Scala 可以像操作本地集合对象一样轻松地操作分布式数据集。尽管创建 Spark 是为了支持分布式数据集上的迭代作业,但是实际上它是对 Hadoop 的补充,可以在 Hadoop 文件系统中并行运行。通过名为Mesos的第三方集群框架可以支持此行为。Spark 由加州大学伯克利分校 AMP 实验室 (Algorithms, Machines, and People Lab) 开发,可用来构建大型的、低延迟的数据分析应用程序。Spark 集群计算架构虽然 Spark 与 Hadoop 有相似之处,但它提供了具有有用差异的一个新的集群计算框架。首先,Spark 是为集群计算中的特定类型的工作负载而设计,即那些在并行操作之间重用工作数据集(比如机器学习算法)的工作负载。为了优化这些类型的工作负载,Spark 引进了内存集群计算的概念,可在内存集群计算中将数据集缓存在内存中,以缩短访问延迟。Spark 还引进了名为弹性分布式数据集(RDD) 的抽象。RDD 是分布在一组节点中的只读对象集合。这些集合是弹性的,如果数据集一部分丢失,则可以对它们进行重建。重建部分数据集的过程依赖于容错机制,该机制可以维护 "血统"(即允许基于数据衍生过程重建部分数据集的信息)。RDD 被表示为一个 Scala 对象,并且可以从文件中创建它;一个并行化的切片(遍布于节点之间);另一个 RDD 的转换形式;并且最终会彻底改变现有 RDD 的持久性,比如请求缓存在内存中。Spark 中的应用程序称为驱动程序,这些驱动程序可实现在单一节点上执行的操作或在一组节点上并行执行的操作。与 Hadoop 类似,Spark 支持单节点集群或多节点集群。对于多节点操作,Spark 依赖于 Mesos 集群管理器。Mesos 为分布式应用程序的资源共享和隔离提供了一个有效平台。该设置充许 Spark 与 Hadoop 共存于节点的一个共享池中。

org.apache.spark.api.java.optional在哪个包下

apache官网找spark,然后看下载的文件夹,里面有这个包

consumption capacity是什么意思

消费能力。用 市场消费(或叫市场收入)中 来源于中产阶级所占份额 进行统计计算得出的各种统计数字。例如,某月,人均用于衣食住行的费用。

Apache Phoenix(一)答疑

创建test.java 文件包含如下内容: 在命令行中编译和执行 Phoenix Thick驱动的JDBC的URL格式如下([]内的元素可选择的) 最简单的例子: 最复杂的例子: 请注意,URL中的每个可选元素都需要前面所有可选元素。例如,去指定Hbase的zk节点,那么zk的端口必须是指定的。 这些信息最初包含在 该页 。 Phoenix Thin驱动(与Phoenix查询服务一起使用)JDBC格式如下: 这里暴露了数个key供客户端使用。最经常使用的key为 url 和 serialization 。url key直接影响到需要查询的Phoenix查询服务器的地址。 最简单的URL例子: 非常复杂的URL例子: 这里记录着所有有关于Thin 客户端JDBC URL涉及到的支持项,可以参考 Apache Avatica documentation 和 Query Server Documentation 。 查看 相关例子 。 CSV数据可以批量导入通过psql的通用功能。一般插入的速度在20K-50K行数据每秒。(取决于一行数据有多大)。 创建表例子: 插入数据例子: 你可以创建Phoenix 表(table)和视图(view)通过 CREATE TABLE/CREATE VIEW 在已存在的HBase表上执行DLL语句。两种情况下都不会改变Hbase的元数据。对于 CREATE TABLE ,我们会创建任何不存在的元数据(table,column families)。我们会增加空键在每一行,所以查询的行为符合预期(不需要所有的列都进行扫描)。 需要注意的是字节的序列化必须匹配Phoenix的字节序列化。比如varchar、char和unsigned_ 类型,我们使用Hbase字节方法。char类型预期只有单字节字符和无符号类型预期值大于或者等于0。 对于有符号的类型(tinyint,smallint,integer 和bigint),phoenix会翻转第一个字节,这样负值会在正值之前排序。 因为Hbase排序row key按照ASCII正序排列,负值的第一位是1 而正值的第一位是0,那么负值大于正值,党我们不进行第一位翻转时。所以你存储整数时通过Hbase本地API接口和想通过Phoenix访问整数,确认你的数据类型是否是无符号类型。 我们复合row key可以将简单的值进行拼接在一起,在可变长类型上使用0字节作为分隔符。 如果你创建Hbase表如下: 如果你已经有了一张带有名称为"t1"和列簇为"f1"的Hbase表。那么请记住,在Hbase中你不用对可能的键值和row key结构进行建模。这是你在phoenix指定的表和列簇之外的信息。所以在phoenix,你不需要像这样创建view: 这个‘pk"列定义,你的row key是varchar类型(类似字符串),而"f1".val列定义你的Hbase表包含键值形式和列成员及列限定符为"f1".val还有他们的类型为varchar。 注意,你不需要使用双引号,当你创建你的hbase表包含所有的大写名称(Phoenix会标准化字符串,将字符串转大写)。比如: 你可以这样创建phoenix视图: 或者如果你创建了新的hbase表,不需要借助hbase shell,直接在phoenix操作。 注意:理想情况下4核CPU的16个region server,可以选择salt buckets在32-64最佳性能。 始于Phoenix 2.1版本,Phoenix开始支持索引在可变和不可变的数据中。注意,Phoenix在2.0.x中仅支持不可变数据的索引。索引写性能在不可变索引表中,稍微快一些于可变数据表,不可变数据表即是数据不支持更新。 例子: 更新行信息在test表中,Phoenix查询优化器会选择正确的索引去使用。你可以查看 explain plan 如果Phoenix使用这个索引表。你还可以在Phoenix查询中给出使用特定索引的 提示 。 除非查询中使用到的所有列都在二级索引中,否作不会使用二级索引(作为直接索引,或者覆盖索引)。构成数据表中的主键全部列都会自动包含在索引中。 在lastname不是索引或者覆盖所有一部分时,索引是没有被使用到。这点可以在 "explain plan" 中被证实。在创建索引时固定lastname字段存在索引中一部分,或者时覆盖索引的覆盖字段。 例子: Phoenix速度非常快,全表扫描100M的数据,通常情况下在20秒内完成(中等规模的集群上的小表)。如果查询包含到关键列的过滤器,则降低到毫秒级。你可以添加索引在导致性能等同于过滤键的列上,使用索引列作为键的一部分复制表。 为什么Phoenix即使做了全扫描,速度依然快: 检阅Anil Gupta的优秀 文章 。 Hadoop2的配置存在Phoenix的pom.xml中即可。 在默认情况下,Phoenix让Hbase管理时间戳,并只让你查看最后的版本数据。但是,Phoenix也给用户提供支持任意的时间戳。要做到这一点,使用连接属性"CurrentSCN",像这样: 上面的操作等同于Hbase API中的: 通过指定CurrentSCN,你可以告诉Phoenix。所有东西在这次连接中按该时间戳被完成。注意的是,这也适用于对连接执行的查询。举个例子,一个查询在myTable表的数据是不会看到刚插入的数据,因为它只看到创建连接时指定CurrentSCN属性之前的数据。这样提供了一种类似于快照的功能,或者是时间点查询。 请记住,创建个新的连接不是一个很昂贵的操作。相同的底层Hbase的连接用于全部连接的相同的集群,所以或多或少实例出一些对象。 RANGE SCAN :意味着只扫描表中一部分数据。如果使用主键约束中的一个或者多个组成主键的列会出现这种情况。没有过滤PK列的查询,例子: select * from test where pk2="x" and pk3="y"; 将会出现全扫描,然而在 select * from test where pk1="x" and pk2="y"; 中却是范围扫描(range scan)。注意,你可以添加二级索引在"pk2"和"pk3"列上,会触发范围扫描(range scan)在第一次查询中。 DEGENERATE SCAN :意味着一个查询不能返回行数据。如果我们决定在编译时完成。我们甚至不需要运行扫描。 FULL SCAN :意味着所有行都被扫描到。(如果你有一个where子句,可能会应用到一个过滤器) SKIP SCAN :将扫描一个表中的子集或者全部行。无论如何它将会根据过滤器跳过大分组的行。可以查看 博客 了解更多。如果主键上没有过滤器的列,那我们就不做SKIP SCAN,但是你可以强制SKIP SCAN通过使用/+ SKIP_SCAN/去命中。在一些条件下,也就是说当你的主键基数比较少时,它将会更有效超过FULL SCAN。 不,它不是必须的Phoenix jDBC连接池。 Phoenix的连接对象时不同大部分的JDBC连接,原因在于底层是Hbase的连接。Phoenix连接对象在设计时就是为了更精细便宜的代价去创建。如果Phoenix的连接被再利用,底层的HBase连接可能并不总是由前一个用户保持在健康状态。更好的方式是去创建一个新的Phoenix连接,保证避免潜在的问题。 实行Phoenix连接池可以简单的创建实例化委派,对外部而言,创建出新的Phoenix连接,实际是需要时从池中获取,对外部而言的关闭,实际是返回到池中去,可以参考 Phoenix-2388 。 空键值或者伪键值(_01列限定符)必须的,去保证列都有有效的在全部行中。 数据存储在Hbase是以键值对形式存在,意味着存储每个列值完整的行键。这还意味着,除非至少存储了一个列,否则根本不存储行键。 现在考虑到JDBC的行存在int类型的主键,和若干列可能是空(null)的。为了可以存储主键,键值必须去存储去展示这行数据的全部(现在的时间戳,考虑的时间戳版本)。你会注意到这些列是空列。这允许执行“SELECT * FROM TABLE”并接收所有行的记录,即使那些非pk列为空的记录也是如此。 即使对于某些(或所有)记录只有一个列为空,也会出现相同的问题。在Phoenix上的扫描将包括空列,以确保只包含主键的行(所有非键列都为空)将包含在扫描结果中。

大芒果那个80端口怎么修改啊 我也是那个单独启动Apache 启动不了.....很小白 讲的详细一点号码 麻烦了

找到你安装Apache的目录,在此apacheconf有个httpd.conf文件,用记事本打开,找到Listen 80字段,后面的80就是端口号,修改此次即可

如何搭建apache+tomcat集群

搭建apache+tomcat集群的方法:1、安装tomcat+apache+mysql。 2、修改tomcat的端口,即修改server.xml中的配置,并修改 <Engine name="Catalina" defaultHost="localhost" jvmRoute="tomcat_8084"> 3、修改httpd.conf,解注释Include conf.d/*.conf 4、在conf.d文件夹中加入xxx.conf文件,在该文件中添加如下配置: #LoadModule proxy_http_module modules/mod_proxy_http.so ProxyRequests Off ProxyPass / balancer://chinatrial-cluster/ stickysession=JSESSIONID nofailover=Off ProxyPassReverse / http://127.0.0.1:8084/ ProxyPassReverse / http://127.0.0.1:8184/ #ProxyPassReverse / http://127.0.0.1:8380/ <Proxy balancer://chinatrial-cluster> BalancerMember http://127.0.0.1:8084/ max=800 loadfactor=10 route=tomcat_8084 BalancerMember http://127.0.0.1:8184/ max=800 loadfactor=10 route=tomcat_8184 # BalancerMember http://127.0.0.1:8380/ max=800 loadfactor=10 route=chinatrial_8080 </Proxy> 其中route后面的值是和tomcat的server.xml中的<Engine>中的jvmRoute相对应 5、实现session共享 在数据库中建session共享表: CREATE DATABASE `session` USE `session`; DROP TABLE IF EXISTS `session`.`tomcat_sessions`; CREATE TABLE `session`.`tomcat_sessions` ( `session_id` varchar(100) NOT NULL, `valid_session` char(1) NOT NULL, `max_inactive` int(11) NOT NULL, `last_access` bigint(20) NOT NULL, `app_context` varchar(255) default NULL, `session_data` mediumblob, PRIMARY KEY (`session_id`), KEY `kapp_context` (`app_context`) ) ENGINE=InnoDB DEFAULT CHARSET=utf8; 6、在项目的context.xml中进行Manager的配置: <Manager className="org.apache.catalina.session.PersistentManager" debug="99" saveOnRestart="true" maxActiveSessions="-1" minIdleSwap="30" maxIdleSwap="600" maxIdleBackup="0"> <Store className="org.apache.catalina.session.JDBCStore" driverName="com.mysql.jdbc.Driver" connectionURL="jdbc:mysql://172.16.100.229/session?user=root&password=nazca123&useUnicode=true&characterEncodeing=utf-8" sessionTable="tomcat_sessions" sessionIdCol="session_id" sessionDataCol="session_data" sessionValidCol="valid_session" sessionMaxInactiveCol="max_inactive" sessionLastAccessedCol="last_access" sessionAppCol="app_context" checkInterval="60" debug="0" /> </Manager>

linux下apache+tomcat集群详细配置

环境:操作系统均为:CentOS 5.1 Apache2.X服务器一台:IP地址192.168.232.4;安装路径/usr/local/apache; Tomcat6服务器一台:IP地址192.168.232.5;安装路径/usr/local/tomcat; Tomcat6服务器一台:IP地址192.168.232.6;安装路径/usr/local/tomcat; 配置:Apache安装:#./configure --prefix=/usr/local/apache --enable-modules=so --enable-mods-shared=all --enable-proxy --enable-proxy-connect --enable-proxy-ftp --enable-proxy-http --enable-proxy-ajp --enable-proxy-balancer --enable-rewrite注释:激活tomcat集群需要的 enable-proxy,enable-proxy-http,enable-proxy-connect,enable-proxy-ajp和enable-proxy-balancer,其中proxy-ajp和proxy-balancer必须依赖proxy,如果是自定义的编译除了以上几个必须的模块外,mod_status也要编译进去,切记。enable-proxy-ftp可以不编译。#make;make install 制作Apache启动项:#cp support/apachectl /etc/rc.d/init.d/httpd#vi /etc/rc.d/init.d/httpd添加以下内容:(包括#号)# Startup script for the Apache Web Server# chkconfig: 2345 85 15# description: Apache is a World Wide Web server .It is used to server# HTML files and CGI.# processname: httpd# pidfile: /usr/local/apache/log/httpd.pid# config: /usr/local/apache/conf/httpd.conf增加服务项#chkconfig --add httpd#chmod 755 /etc/rc.d/init.d/httpd#chkconfig --level 345 httpd on JDK安装:#chmod a+x jdk-6u4-linux-i586-rpm.bin#./jdk-6u4-linux-i586-rpm.bin JAVA环境变量设置:#vi /etc/profile在文件最后添加以下内容:JAVA_HOME=/usr/java/jdk1.6.0_04CLASSPATH=.:$JAVA_HOME/lib/tools.jar:$JAVA_HOME/lib/dt.jarPATH=$JAVA_HOME/bin:$PATHCATALINA_HOME=/usr/local/tomcatexport JAVA_HOME CLASSPATH PATH CATALINA_HOME 执行如下命令使环境变量生效:source /etc/profile测试配置是否成功:java –version Tomcat安装:#wget [url]http://apache.mirror.phpchina.com/tomcat/tomcat-6/v6.0.16/bin/apache-tomcat-6.0.16.tar.gz[/url]#tar zxvf apache-tomcat-6.0.16.tar.gz#mv apache-tomcat-6.0.16 /usr/local/tomcat Tomcat随机启动:#vi /etc/rc.local添加以下内容:/usr/local/tomcat/bin/startup.sh tomcat6配置文件server.xml:把<!-- You should set jvmRoute to support load-balancing via AJP ie :<Engine name="Standalone" defaultHost="localhost" jvmRoute="jvm1">--><Engine name="Catalina" defaultHost="localhost">改成 <!-- You should set jvmRoute to support load-balancing via AJP ie :--><Engine name="Standalone" defaultHost="localhost" jvmRoute="tomcatX"><!-- <Engine name="Catalina" defaultHost="localhost">-->说明:第一台tomcat就把jvmRoute="tomcat1"第二台tomcat就把jvmRoute="tomcat2" 把<!--<Cluster className="org.apache.catalina.ha.tcp.SimpleTcpCluster"/>-->去掉注释变为<Cluster className="org.apache.catalina.ha.tcp.SimpleTcpCluster"/>***群集详细配置***<Cluster className="org.apache.catalina.ha.tcp.SimpleTcpCluster"channelSendOptions="8"> <Manager className="org.apache.catalina.ha.session.DeltaManager"expireSessionsOnShutdown="false"notifyListenersOnReplication="true"/> <Channel className="org.apache.catalina.tribes.group.GroupChannel"><Membership className="org.apache.catalina.tribes.membership.McastService"address="228.0.0.4"port="45564"frequency="500"dropTime="3000"/><Receiver className="org.apache.catalina.tribes.transport.nio.NioReceiver"address="auto"port="4000"autoBind="100"selectorTimeout="5000"maxThreads="6"/> <Sender className="org.apache.catalina.tribes.transport.ReplicationTransmitter"><Transport className="org.apache.catalina.tribes.transport.nio.PooledParallelSender"/></Sender><Interceptor className="org.apache.catalina.tribes.group.interceptors.TcpFailureDetector"/><Interceptor className="org.apache.catalina.tribes.group.interceptors.MessageDispatch15Interceptor"/></Channel> <Valve className="org.apache.catalina.ha.tcp.ReplicationValve"filter=""/><Valve className="org.apache.catalina.ha.session.JvmRouteBinderValve"/> <Deployer className="org.apache.catalina.ha.deploy.FarmWarDeployer"tempDir="/tmp/war-temp/"deployDir="/tmp/war-deploy/"watchDir="/tmp/war-listen/"watchEnabled="false"/> <ClusterListener className="org.apache.catalina.ha.session.JvmRouteSessionIDBinderListener"/><ClusterListener className="org.apache.catalina.ha.session.ClusterSessionListener"/></Cluster> 配置应用的web.xml:在每个webapps应用中,修改配置文件web.xml文件 添加元素<distributable/> 在web.xml文件中<web-app>元素下增加以下内容: <!--此应用将与群集服务器复制Session--> <distributable/> 具体修改如下: 修改前: <?xml version="1.0" encoding="ISO-8859-1"?> <web-app xmlns="[url]http://java.sun.com/xml/ns/javaee[/url]" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://java.sun.com/xml/ns/javaee [url]http://java.sun.com/xml/ns/javaee/web-app_2_5.xsd[/url]" version="2.5"> </web-app> 修改后: <?xml version="1.0" encoding="ISO-8859-1"?> <web-app xmlns="[url]http://java.sun.com/xml/ns/javaee[/url]" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://java.sun.com/xml/ns/javaee [url]http://java.sun.com/xml/ns/javaee/web-app_2_5.xsd[/url]" version="2.5"> <!--此应用将与群集服务器复制Session--> <distributable/> </web-app>配置apache的ajp负载均衡功能:确保将以下Module的注释去掉LoadModule proxy_module modules/mod_proxy.so LoadModule proxy_connect_module modules/mod_proxy_connect.so LoadModule proxy_ftp_module modules/mod_proxy_ftp.so LoadModule proxy_http_module modules/mod_proxy_http.so LoadModule proxy_ajp_module modules/mod_proxy_ajp.so LoadModule proxy_balancer_module modules/mod_proxy_balancer.so LoadModule status_module modules/mod_status.so增加以下内容:# Proxypass ConfigInclude conf/extra/httpd-modproxy.conf建立文件httpd-modproxy.conf输入内容:<Location /server-status> SetHandler server-status Order Deny,Allow Deny from all Allow from all </Location> <Location /balancer-manager> SetHandler balancer-manager Order Deny,Allow Deny from all Allow from all </Location> ProxyRequests Off ProxyPass / balancer://tomcatcluster stickysession=jsessionid nofailover=On <Proxy balancer://tomcatcluster> BalancerMember [url]http://192.168.232.5:8080[/url] loadfactor=1 BalancerMember [url]http://192.168.232.6:8080[/url] loadfactor=2 </Proxy>注释:ProxyRequests Off 表示启用反向代理,必须开启; ProxyPass为代理转发的Url,即将所有访问/的请求转发到群集balancer://tomcatcluster,这里为/即将所有访问/的请求转发到群集balancer://tomcatcluster的/test目录; BalancerMember为群集的成员,即群集服务器1或2,负载均衡服务器会根据均衡规则来将请求转发给BalancerMember; 调试负载均衡集群系统:访问apache服务器的web服务:[url]http://192.168.232.4/balancer-manager[/url]如果显示负载均衡有关信息则说明成功了,接着可以访问[url]http://192.168.232.4/[/url]即访问到了tomcat的应用***必须先启动Tomcat服务再启动Apache服务!*** 参考文档:[url]http://tomcat.apache.org/tomcat-6.0-doc/cluster-howto.html[/url] [url]http://tomcat.apache.org/tomcat-6.0-doc/balancer-howto.html[/url] [url]http://man.chinaunix.net/newsoft/ApacheMenual_CN_2.2new/mod/mod_proxy.html[/url] [url]http://man.chinaunix.net/newsoft/ApacheMenual_CN_2.2new/mod/mod_proxy_balancer.html[/url]

Apache Commons 工具类介绍及使用方法简单说明

Apache Commons 工具类大家都有用过,但是可能缺乏系统学习,只用到了一小部分功能,无法发挥极限的价值,我用大白话说就是,一颗好白菜都让猪给拱了! 代码过多,手机观看效果不佳,建议收藏后在电脑上静悄悄地看。因内容 健康 ,可大胆转发,即使未满十八岁,在没有家长陪同下也一样可以观看! 提供了对于JavaBean进行各种操作, 比如对象,属性复制等等。XML与Java对象之间相互转换。提供了一些公共的编解码实现,比如Base64, Hex, MD5,Phonetic and URLs等等。对java.util的扩展封装,处理数据还是挺灵活的。 org.apache.commons.collections – Commons Collections自定义的一组公用的接口和工具类 org.apache.commons.collections.bag – 实现Bag接口的一组类 org.apache.commons.collections.bidimap – 实现BidiMap系列接口的一组类 org.apache.commons.collections.buffer – 实现Buffer接口的一组类 org.apache.commons.collections.collection – 实现java.util.Collection接口的一组类 org.apache.commons.collections.comparators – 实现java.util.Comparator接口的一组类 org.apache.commons.collections.functors – Commons Collections自定义的一组功能类 org.apache.commons.collections.iterators – 实现java.util.Iterator接口的一组类 org.apache.commons.collections.keyvalue – 实现集合和键/值映射相关的一组类 org.apache.commons.collections.list – 实现java.util.List接口的一组类 org.apache.commons.collections.map – 实现Map系列接口的一组类 org.apache.commons.collections.set – 实现Set系列接口的一组类commons compress中的打包、压缩类库。用来帮助处理配置文件的,支持很多种存储方式。 1. Properties files 2. XML documents 3. Property list files (.plist) 4. JNDI 5. JDBC Datasource 6. System properties 7. Applet parameters 8. Servlet parameters(Database Connection Pool)是一个依赖Jakarta commons-pool对象池机制的数据库连接池,Tomcat的数据源使用的就是DBCP。Apache组织提供的一个资源JDBC工具类库,它是对JDBC的简单封装,对传统操作数据库的类进行二次封装,可以把结果集转化成List。,同时也不影响程序的性能。 DbUtils类:启动类 ResultSetHandler接口:转换类型接口 MapListHandler类:实现类,把记录转化成List BeanListHandler类:实现类,把记录转化成List,使记录为JavaBean类型的对象 Qrery Runner类:执行SQL语句的类提供的一个开源的API,是对javamail的封装。基于HttpCore实 现的一个HTTP/1.1兼容的HTTP客户端,它提供了一系列可重用的客户端身份验证、HTTP状态保持、HTTP连接管理module。对java.io的扩展 操作文件非常方便。主要是一些公共的工具集合,比如对字符、数组的操作等等。提供的是一个Java 的日志接口,同时兼顾轻量级和不依赖于具体的日志实现工具。通用验证系统,该组件提供了客户端和服务器端的数据验证框架。 1.验证日期2.表达式验证3.配置文件中使用验证4.验证类

apache common collection 3.2.2修复方案

修复weblogic反序列化漏洞,修复方法为:替换原来的common-collections组件,建议:原来是3.2.d就替换为3.2.2,原来是4.x,就替换为4.4.1,如果出现不兼容,则替换一个版本试试。1.先停止weblogic 2.替换oraclemodules目录里com.bean.core.apache.commons.collections_x.x.x.jar3.启动weblogic

intellectual capacity是什么意思

直译的话就是智力

大数据分析界的“神兽”Apache Kylin有多牛

1.Apache Kylin是什么? 在现在的大数据时代,越来越多的企业开始使用Hadoop管理数据,但是现有的业务分析工具(如Tableau,Microstrategy等)往往存在很大的局限,如难以水平扩展、无法处理超大规模数据、缺少对Hadoop的支持;而利用Hadoop做数据分析依然存在诸多障碍,例如大多数分析师只习惯使用SQL,Hadoop难以实现快速交互式查询等等。神兽Apache Kylin就是为了解决这些问题而设计的。Apache Kylin,中文名麒(shen)麟(shou) 是Hadoop动物园的重要成员。Apache Kylin是一个开源的分布式分析引擎,最初由eBay开发贡献至开源社区。它提供Hadoop之上的SQL查询接口及多维分析(OLAP)能力以支持大规模数据,能够处理TB乃至PB级别的分析任务,能够在亚秒级查询巨大的Hive表,并支持高并发。Apache Kylin于2014年10月在github开源,并很快在2014年11月加入Apache孵化器,于2015年11月正式毕业成为Apache顶级项目,也成为首个完全由中国团队设计开发的Apache顶级项目。于2016年3月,Apache Kylin核心开发成员创建了Kyligence公司,力求更好地推动项目和社区的快速发展。Kyligence是一家专注于大数据分析领域创新的数据科技公司,提供基于Apache Kylin的企业级智能分析平台及产品,以及可靠、专业、源码级的商业化支持;并推出Apache Kylin开发者培训,颁发全球唯一的Apache Kylin开发者认证证书。2.Kylin的基本原理和架构下面开始聊一聊Kylin的基本原理和架构。简单来说,Kylin的核心思想是预计算,即对多维分析可能用到的度量进行预计算,将计算好的结果保存成Cube,供查询时直接访问。把高复杂度的聚合运算、多表连接等操作转换成对预计算结果的查询,这决定了Kylin能够拥有很好的快速查询和高并发能力。上图所示就是一个Cube的例子,假设我们有4个dimension,这个Cube中每个节点(称作Cuboid)都是这4个dimension的不同组合,每个组合定义了一组分析的dimension(如group by),measure的聚合结果就保存在这每个Cuboid上。查询时根据SQL找到对应的Cuboid,读取measure的值,即可返回。为了更好的适应大数据环境,Kylin从数据仓库中最常用的Hive中读取源数据,使用 MapReduce作为Cube构建的引擎,并把预计算结果保存在HBase中,对外暴露Rest API/JDBC/ODBC的查询接口。因为Kylin支持标准的ANSI SQL,所以可以和常用分析工具(如Tableau、Excel等)进行无缝对接。下面是Kylin的架构图。说到Cube的构建,Kylin提供了一个称作Layer Cubing的算法。简单来说,就是按照dimension数量从大到小的顺序,从Base Cuboid开始,依次基于上一层Cuboid的结果进行再聚合。每一层的计算都是一个单独的Map Reduce任务。如下图所示。MapReduce的计算结果最终保存到HBase中,HBase中每行记录的Rowkey由dimension组成,measure会保存在column family中。为了减小存储代价,这里会对dimension和measure进行编码。查询阶段,利用HBase列存储的特性就可以保证Kylin有良好的快速响应和高并发。有了这些预计算的结果,当收到用户的SQL请求,Kylin会对SQL做查询计划,并把本该进行的Join、Sum、Count Distinct等操作改写成Cube的查询操作。Kylin提供了一个原生的Web界面,在这里,用户可以方便的创建和设置Cube、管控Cube构建进度,并提供SQL查询和基本的结果可视化。根据公开数据显示,Kylin的查询性能不只是针对个别SQL,而是对上万种SQL 的平均表现,生产环境下90%ile查询能够在在3s内返回。在上个月举办的Apache KylinMeetup中,来自美团、京东、百度等互联网公司分享了他们的使用情况。例如,在京东云海的案例中,单个Cube最大有8个维度,最大数据条数4亿,最大存储空间800G,30个Cube共占存储空间4T左右。查询性能上,当QPS在50左右,所有查询平均在200ms以内,当QPS在200左右,平均响应时间在1s以内。北京移动也在meetup上展示了Kylin在电信运营商的应用案例,从数据上看,Kylin能够在比Hive/SparkSQL在更弱的硬件配置下获得更好的查询性能。 目前,有越来越多的国内外公司将Kylin作为大数据生产环境中的重要组件,如ebay、银联、百度、中国移动等。大家如果想了解更多社区的案例和动态,可以登录Apache Kylin官网或Kyligence博客进行查看。3.Kylin的最新特性Kylin的最新版本1.5.x引入了不少让人期待的新功能,可扩展架构将Kylin的三大依赖(数据源、Cube引擎、存储引擎)彻底解耦。Kylin将不再直接依赖于Hadoop/HBase/Hive,而是把Kylin作为一个可扩展的平台暴露抽象接口,具体的实现以插件的方式指定所用的数据源、引擎和存储。开发者和用户可以通过定制开发,将Kylin接入除Hadoop/HBase/Hive以外的大数据系统,比如用Kafka代替Hive作数据源,用Spark代替MapReduce做计算引擎,用Cassandra代替HBase做存储,都将变得更为简单。这也保证了Kylin可以随平台技术一起演进,紧跟技术潮流。在Kylin 1.5.x中还对HBase存储结构进行了调整,将大的Cuboid分片存储,将线性扫描改良为并行扫描。基于上万查询进行了测试对比结果显示,分片的存储结构能够极大提速原本较慢的查询5-10倍,但对原本较快的查询提速不明显,综合起来平均提速为2倍左右。除此之外,1.5.x还引入了Fast cubing算法,利用Mapper端计算先完成大部分聚合,再将聚合后的结果交给Reducer,从而降低对网络瓶颈的压力。对500多个Cube任务的实验显示,引入Fast cubing后,总体的Cube构建任务提速1.5倍。目前,社区正在着手准备Apache Kylin 1.5.2版本的发布,目前正处于Apache Mailing list投票阶段,预计将会在本周在Kylin官网发布正式下载。在本次的1.5.2版本中,Kylin带来了总计 36个缺陷修复、33个功能改进、6个新功能。一些主要的功能改进包括对HyperLogLog计算效率的提升、在Cube构建时对Convert data to hfile步骤的提速、UI上对功能提示的体验优化、支持hive view作为lookup表等等。另一个新消息是Kylin将支持MapR和CDH的Hadoop发行版,具体信息可见KYLIN-1515和KYLIN-1672。相应的测试版本是MapR5.1和CDH5.7。UI上提供了一个重要更新,即允许用户在Cube级别进行自定义配置,以覆盖kylin.properties中的全局配置。如在cube中定义kylin.hbase.region.count.max 可以设置该cube在hbase中region切分的最大数量。另一个重要的功能是Diagnosis。用户经常会遇到一些棘手的问题,例如Cube构建任务失败、SQL查询失败,或Cube构建时间过长、SQL查询时间过长等。但由于运维人员对Kylin系统了解不深,很难快速定位到root cause所在地。我们在mailing list里也经常看到很多用户求助,由于不能提供足够充分的信息,社区也很难给出一针见血的建议。当用户遇到查询、Cube/Model管理的问题,单击System页面的Diagnosis按钮,系统会自动抓取当前Project相关的信息并打包成zip文件下载到用户本地。这个包会包含相关的Metadata、日志、HBase配置等。当用户需要在mailing list求助,也可以附上这个包。

Apache出现Service Temporarily Unavailable错误 请问原因

Service Temporarily Unavailable 服务暂时不可用。这种异常,找不到配置的地方或方法,此错误是因为超过了Apache的最大并发数限制,需要看是否匹配好了php。

ceramic capacitor是什么意思,陶瓷电容器翻译

陶瓷电容器请采纳如果你认可我的回答,敬请及时采纳,~如果你认可我的回答,请及时点击【采纳为满意回答】按钮~~手机提问的朋友在客户端右上角评价点【满意】即可。~你的采纳是我前进的动力~~O(∩_∩)O,记得好评和采纳,互相帮助

近义词辨析:faculty/ability/capacity/capability

faculty 指内在的力量或能力 An inherent power or ability ability是指智力或体力上具有做某事的能力 the power,mental or physical,to do sth. capacity是指天赋的 an innate potential for growth,development,or accomplishment capability指一种可能得到发展或应用的才能或能力 a talent or ability that has potential for development or use 总的来说 差别不大 不要过分强调区别

ability,capacity,faculty三者的区别是什么,如何使用

分类: 教育/科学 >> 外语学习 问题描述: 三者都有能力的意思,那如何区分三者呢? 解析: Ability is the power, mental or physical, to do something: Ability 是指智力或体力上具有做某事的能力 Capacity refers to an innate potential for growth, development, or acplishment: Capacity 指天赋的,如生长、发展或成功的潜力 Faculty denotes an inherent power or ability: Faculty 指内在的力量或能力

请问ability,capability,capacity,faculty作能力是有什么区别?

ability,capability和capacity三个名词都有“能力”的意思,区别如下.1.ability的含义较广,主要指人具有从事体力或脑力劳动的能力,并且暗含能够干好的意味.其复数形式表示“才能,专门技能”,其后常接to do sth.或in / for sth..如:She has the ability to do the job.她有能力做好这项工作.He found the company more suited to his abilities.他找到了更容易发挥他才能的公司.2.capability的含义与ability相似,但它既可以指人,又可以指物.其复数形式常常表示“潜在的能力”,其后接to do sth./ of doing sth./ for sth..如:He has the capability to complete this job.他有能力完成这项工作.Our country has the capability to defeat any intruder.我国有能力战胜任何侵略者.3.capacity指人或物的容纳或吸收能力,其后接for sth./ of sth..如:His capacity for languages is wonderful.他学语言的能力极好.The hall has a capacity of five hundred people.这个会堂可以容纳五百人. -------------------------- 4:faculty作能力讲的时候,通常强调思维方面:英文解释为:an ability,esp.of the mind. !

apace 是什么意思

 apace的汉语意思英 [u0259u02c8peu026as] 美 [u0259u02c8pes]副词 急速地,飞快地相关例句副词1. The hours and days speed apace.时日过得飞快。2. Darkness was coming on apace.天迅速黑下来。apace的单语例句1. The talk about China"s middle class among research institutes and experts has been growing as the country"s economic advancement gallops apace.2. Every year since 2004, housing prices nationwide have climbed apace with China"s growing economy.3. Work is continuing apace as the airport rapidly expands to become a transport hub and two more luxury hotel complexes will open soon.4. The court ruling said the APACE was not entitled to file the motion because it did not have direct links with the two bronze sculptures.5. As China"s stature on the world stage grows apace, the question is often asked - where are the Chinese global brands?6. The minister and his colleagues recently inspected 10 provinces and municipalities to make sure the crackdown was proceeding apace.7. As the country"s recovery continues apace, concerns over growth are swiftly shifting to worries about policy tightening.apace的双语例句1. In the next two years his affairs crumbled apace.在以后的两年中他的.事业急速地崩溃了。2. Study and Simulation of Real-Time Detecting Method for Fundamental Positive Sequence, Negative Sequence and Harmonic components Based on Apace Vector.基于空间矢量的基波正序、负序分量及谐波分量的实时检测方法。

如何查看Apache的configure编译参数

`configure" configures this package to adapt to many kinds of systems.`configure" 配置这个包来适合多数系统.Usage: ./configure [OPTION]… [VAR=VALUE]…语法: ./configure [选项]… [变量=值]…To assign environment variables (e.g., CC, CFLAGS…), specify them as VAR=VALUE. See below for descriptions of some of the useful variables.配置环境变量(例如,CC,CFLAGS),格式为VAR=VALUE. 看下面对这些可用变量的说明.Defaults for the options are specified in brackets.选项的默认值括在方括号之中.Configuration:配置: -h, –help display this help and exit 显示这个帮助并退出 –help=short display options specific to this package 显示这个包的详细选项 –help=recursive display the short help of all the included packages 显示所有包括的包的帮助信息 -V, –version display version information and exit 显示版本信息并退出 -q, –quiet, –silent do not print `checking…" messages 不打印"检查"信息 –cache-file=FILE cache test results in FILE [disabled] 存储测试信息到文件中 [disabled] -C, –config-cache alias for `–cache-file=config.cache" `–cache-file=config.cache"的别名 -n, –no-create do not create output files 不生成输出文件 –srcdir=DIR find the sources in DIR [configure dir or `.."] 在DIR查找代码Installation directories:安装目录: –prefix=PREFIX install architecture-independent files in PREFIX 安装路径 [/usr/local/apache2] –exec-prefix=EPREFIX install architecture-dependent files in EPREFIX 执行文件安装路径 [PREFIX]By default, `make install" will install all the files in `/usr/local/apache2/bin", `/usr/local/apache2/lib" etc. You can specify an installation prefix other than `/usr/local/apache2′ using `–prefix",for instance `–prefix=$HOME".默认情况下,"make install"安装所有的文件在 `/usr/local/apache2/bin", `/usr/local/apache2/lib" 等等.你可以指定一个安装前缀 ‘–prefix"选项来改变安装位置,例如 `–prefix=$HOME".For better control, use the options below.更详细的配置,使用下面的选项.Fine tuning of the installation directories:调整安装目录的选项: –bindir=DIR user executables [EPREFIX/bin] –sbindir=DIR system admin executables [EPREFIX/sbin] –libexecdir=DIR program executables [EPREFIX/libexec] –sysconfdir=DIR read-only single-machine data [PREFIX/etc] –sharedstatedir=DIR modifiable architecture-independent data [PREFIX/com] –localstatedir=DIR modifiable single-machine data [PREFIX/var] –libdir=DIR object code libraries [EPREFIX/lib] –includedir=DIR C header files [PREFIX/include] –oldincludedir=DIR C header files for non-gcc [/usr/include] –datarootdir=DIR read-only arch.-independent data root [PREFIX/share] –datadir=DIR read-only architecture-independent data [DATAROOTDIR] –infodir=DIR info documentation [DATAROOTDIR/info] –localedir=DIR locale-dependent data [DATAROOTDIR/locale] –mandir=DIR man documentation [DATAROOTDIR/man] –docdir=DIR documentation root [DATAROOTDIR/doc/PACKAGE] –htmldir=DIR html documentation [DOCDIR] –dvidir=DIR dvi documentation [DOCDIR] –pdfdir=DIR pdf documentation [DOCDIR] –psdir=DIR ps documentation [DOCDIR]System types:系统类型: –build=BUILD configure for building on BUILD [guessed] –host=HOST cross-compile to build programs to run on HOST [BUILD] –target=TARGET configure for building compilers for TARGET [HOST]Optional Features:可选的功能: –disable-FEATURE do not include FEATURE (same as –enable-FEATURE=no) –enable-FEATURE[=ARG] include FEATURE [ARG=yes] –enable-layout=LAYOUT –enable-v4-mapped Allow IPv6 sockets to handle IPv4 connections –enable-exception-hook Enable fatal exception hook –enable-maintainer-mode Turn on debugging and compile time warnings –enable-pie Build httpd as a Position Independent Executable –enable-modules=MODULE-LIST Space-separated list of modules to enable | “all” | “most” –enable-mods-shared=MODULE-LIST Space-separated list of shared modules to enable | “all” | “most” –disable-authn-file file-based authentication control –enable-authn-dbm DBM-based authentication control –enable-authn-anon anonymous user authentication control –enable-authn-dbd SQL-based authentication control –disable-authn-default authentication backstopper –enable-authn-alias auth provider alias –disable-authz-host host-based authorization control –disable-authz-groupfile ‘require group" authorization control –disable-authz-user ‘require user" authorization control –enable-authz-dbm DBM-based authorization control –enable-authz-owner ‘require file-owner" authorization control –enable-authnz-ldap LDAP based authentication –disable-authz-default authorization control backstopper –disable-auth-basic basic authentication –enable-auth-digest RFC2617 Digest authentication –enable-isapi isapi extension support –enable-file-cache File cache –enable-cache dynamic file caching –enable-disk-cache disk caching module –enable-mem-cache memory caching module –enable-dbd Apache DBD Framework –enable-bucketeer buckets manipulation filter –enable-dumpio I/O dump filter –enable-echo ECHO server –enable-example example and demo module –enable-case-filter example uppercase conversion filter –enable-case-filter-in example uppercase conversion input filter –enable-ext-filter external filter module –disable-include Server Side Includes –disable-filter Smart Filtering –disable-charset-lite character set translation –enable-charset-lite character set translation –enable-deflate Deflate transfer encoding support –enable-ldap LDAP caching and connection pooling services –disable-log-config logging configuration –enable-log-forensic forensic logging –enable-logio input and output logging –disable-env clearing/setting of ENV vars –enable-mime-magic automagically determining MIME type –enable-cern-meta CERN-type meta files –enable-expires Expires header control –enable-headers HTTP header control –enable-ident RFC 1413 identity check –enable-usertrack user-session tracking –enable-unique-id per-request unique ids –disable-setenvif basing ENV vars on headers –enable-version determining httpd version in config files –enable-proxy Apache proxy module –enable-proxy-connect Apache proxy CONNECT module –enable-proxy-ftp Apache proxy FTP module –enable-proxy-http Apache proxy HTTP module –enable-proxy-ajp Apache proxy AJP module –enable-proxy-balancer Apache proxy BALANCER module –enable-ssl SSL/TLS support (mod_ssl) –enable-distcache Select distcache support in mod_ssl –enable-optional-hook-export example optional hook exporter –enable-optional-hook-import example optional hook importer –enable-optional-fn-import example optional function importer –enable-optional-fn-export example optional function exporter –enable-static-support Build a statically linked version of the support binaries –enable-static-htpasswd Build a statically linked version of htpasswd –enable-static-htdigest Build a statically linked version of htdigest –enable-static-rotatelogs Build a statically linked version of rotatelogs –enable-static-logresolve Build a statically linked version of logresolve –enable-static-htdbm Build a statically linked version of htdbm –enable-static-ab Build a statically linked version of ab –enable-static-checkgid Build a statically linked version of checkgid –enable-static-htcacheclean Build a statically linked version of htcacheclean –enable-static-httxt2dbm Build a statically linked version of httxt2dbm –enable-http HTTP protocol handling –disable-mime mapping of file-extension to MIME –enable-dav WebDAV protocol handling –disable-status process/thread monitoring –disable-autoindex directory listing –disable-asis as-is filetypes –enable-info server information –enable-suexec set uid and gid for spawned processes –disable-cgid CGI scripts –enable-cgi CGI scripts –disable-cgi CGI scripts –enable-cgid CGI scripts –enable-dav-fs DAV provider for the filesystem –enable-dav-lock DAV provider for generic locking –enable-vhost-alias mass virtual hosting module –disable-negotiation content negotiation –disable-dir directory request handling –enable-imagemap server-side imagemaps –disable-actions Action triggering on requests –enable-speling correct common URL misspellings –disable-userdir mapping of requests to user-specific directories –disable-alias mapping of requests to different filesystem parts –enable-rewrite rule based URL manipulation –enable-so DSO capabilitySome influential environment variables:一些有影响的环境变量: CC C compiler command CFLAGS C compiler flags LDFLAGS linker flags, e.g. -L<lib dir> if you have libraries in a nonstandard directory <lib dir> CPPFLAGS C/C++/Objective C preprocessor flags, e.g. -I<include dir> if you have headers in a nonstandard directory <include dir> CPP C preprocessor

安装wamp一直橙色,apache无法启动,端口没有被占用,提示缺失vcruntime140.dll。

楼主你好,你可以重新下载一个vcruntime140.dll文件,然后按如下步骤操作:上传了,在附件一、解压后直接拷贝该文件到系统目录里:1、Windows 95/98/Me系统,复制到C:WindowsSystem目录下。2、Windows NT/2000系统,复制到C:WINNTSystem32目录下。3、Windows XP/WIN7/Vista/win8/win10系统,复制到C:WindowsSystem32目录下。4、如果您的系统是64位的请将文件复制到C:WindowsSysWOW64目录二、打开"开始-运行-输入regsvr32 vcruntime140.dll",回车即可解决。已上传并提供下载连接,可根据需要下载。小技巧:如果无法进入桌面,可以启动安全模式或者使用PE启动电脑,然后修复。【重要】:一定要选择与系统版本一致的DLL才可以vcruntime140.dll下载地址:http://51dll.com/dll/file/?41630.1.31555.htmvcruntime140.dll无法定位、丢失、找不到、加载失败 等问题的修复

Apache启动提示VCRUNTIME140.dll丢失怎么办

楼主你好,你可以重新下载一个vcruntime140.dll文件,然后按如下步骤操作:一、解压后直接拷贝该文件到系统目录里:1、Windows 95/98/Me系统,复制到C:WindowsSystem目录下。2、Windows NT/2000系统,复制到C:WINNTSystem32目录下。3、Windows XP/WIN7/Vista系统,复制到C:WindowsSystem32目录下。4、如果您的系统是64位的请将文件复制到C:WindowsSysWOW64目录二、打开"开始-运行-输入regsvr32 vcruntime140.dll",回车即可解决。已上传并提供下载连接,可根据需要下载。vcruntime140.dll下载地址:http://www.edowning.net/soft/99562.htm

安装Apache提示丢失VCRUNTIME140.DLL怎么办

第一步,很显然,你所安装的软件缺少vcruntime140.dll,安装没有成功,请先卸载。我习惯使用:开始菜单->控制面板->程序/卸载程序,进行卸载,当然,你也可以使用其他类似软件管家的工具进行卸载。第二步,首先下载vc++2015,注意自己系统是32位还是64位的,下载对应版本。然后进行安装。如果只出现了修复按钮,那说明你已经安装过了,点击修复。这里提供 64位的vc++2015,32位的请自行百度“32位vc++2015”链接: http://pan.baidu.com/s/1pLaRTRd 密码: un85到这里,对于32位的系统已经完成了vcruntime140.dll的修复工作,可以重新安装软件了。而对于64位系统安装32位软件的同学,请注意接下来的步骤。首先,下载vcruntime140.dll链接: http://pan.baidu.com/s/1mi1wy3A 密码: r7n3下载之后,解压文件,把32位的vcruntime140.dll复制到:C:WindowsSysWOW64里,在把,zhuce.bat复制到同级目录,双击运行;当你看到:注册成功的字样,说明vrcuntime140.dll已经注册成功了。现在,请愉快的安装你所需要的软件吧

安装Apache的时候缺少vcruntime140.dll怎么办嘛

DLL控件丢失解决方法(仅供参考):一、如果在运行某软件或编译程序时提示缺少、找不到XXX.dll等类似提示,可以从网上下载丢失的XXX.dll拷贝到指定目录即可(一般是system系统目录或放到软件同级目录里面),或者重新添加文件引用。 二、从网站下载XXX.DLL文件之后,先将其解压(一般都是ZIP或RAR压缩包), 然后根据系统的情况选择X86/X64,X86为32位电脑,X64为64位电脑。默认都是支持32位系统的, 如果不知道是X86还是X64,建议先用32位试试。 三、根据软件情况选择文件版本。此步骤比较复杂,如果有一样的电脑,直接从该台电脑上拷贝比较方便,否则就需要懂电脑的来指导或自己一个一个试过去了。四、直接拷贝该文件到系统目录里:1、Windows 95/98/Me等系统,将dll复制到C:WindowsSystem目录下。2、Windows NT/2000等NT系统,将dll复制到C:WINNTSystem32目录下。3、Windows XP/WIN7/Vista系统(64位系统对应64位dll文件,32位系统对应32位dll文件),将dll复制到C:WindowsSystem32目录下。4、如果您的系统是64位的请将32位的dll文件复制到C:WindowsSysWOW64目录下。五、打开"开始-运行-输入:regsvr32 dll全名称,点击确定。如果提示注册成功即可。

org.apache.log.format.Formatter这个类在哪

apache的配置文件httpd、conf里默认有这么一句配置logformat"%h%l%u%t"%r""%>s%b""%{Referer}i""""%{User-Agent}i""""common。可以紧跟在""%""后面加上一个逗号分隔的状态码列表来限制记录的条目。例如,""%400,501{User-agent}i""只记录状态码400和501发生时的User-agent头内容;不满足条件时用""-""代替。状态码前还可以加上""!""前缀表示否定,""%!200,304,302{Referer}i""记录所有不同于200,304,302的状态码发生时的Referer头内容。"

tomcat和apache的区别

Tomcat是Apache 软件基金会(Apache Software Foundation)的Jakarta 项目中的一个核心项目,由Apache、Sun 和其他一些公司及个人共同开发而成。由于有了Sun 的参与和支持,最新的Servlet 和JSP 规范总是能在Tomcat 中得到体现,Tomcat 5支持最新的Servlet 2.4 和JSP 2.0 规范。因为Tomcat 技术先进、性能稳定,而且免费,因而深受Java 爱好者的喜爱并得到了部分软件开发商的认可,成为目前比较流行的Web 应用服务器。Apache是世界使用排名第一的Web服务器软件。它可以运行在几乎所有广泛使用的计算机平台上,由于其跨平台和安全性被广泛使用,是最流行的Web服务器端软件之一。它快速、可靠并且可通过简单的API扩充,将Perl/Python等解释器编译到服务器中。同时Apache音译为阿帕奇,是北美印第安人的一个部落,叫阿帕奇族,在美国的西南部。也是一个基金会的名称、一种武装直升机等等。

如何降低apache的cpu占用率,让他稳定下来

  Apache是运行在Linux操作系统上的头号Web服务器。很多小地方都可以用来调整Apache的性能,并降低它对系统资源的影响。其中一个就是调整内存使用率,当然达到这一目的可能还是需要花点功夫的。 例如,通过ps来确定httpd线程的内存使用率,可以输入下面的命令: # ps -U apache -u apache u USERPID %CPU %MEMVSZRSS TTYSTAT START TIME COMMAND apache130670.05.3 149704 54504 ?SOct071:53 /usr/sbin/httpd -f /etc/httpd/conf/httpd.conf -DAPACHE2 上面这段输出显示了单个httpd进程使用了50 MB的RSS(驻留集大小)内存(或者非交换物理内存),以及149 MB的VSZ(虚拟)内存。这当然在很大程度上取决于你在Apache里加载和运行的模块数量。这决不是一个固定的数字。由于这个数字里还包含了共享库包,所以不是100%的准确。我们可以认为RSS数字的一半是httpd线程真正使用的内存数,这可能还有点保守,但是离我们的目的已经非常接近了。 在本文里,我们假设每个httpd进程都在使用了27 MB内存。然后,你需要确定可以让httpd真正使用的内存数。根据运行在机器上的其他进程,你可能希望要求50%的物理内存都供Apache使用。在一个装有1GB内存的系统上,就有512MB的内存可以被划分为多个27MB的内存,也就是大约19个并发的httpd内存。有些人坚持认为每个httpd线程“真正”使用大约5MB的内存,所以从理论上讲你可以把512MB的内存划分出102个并发进程供Apache使用(要记住的是,除非你的网站需要极其巨大的流量,否则这种情况是非常罕见的)。 在默认状态下,Apache会分配最大256个并发客户端连接,或者256个进程(每一个都对应一个请求)。按照这种设置,一个流量巨大的网站会在顷刻间崩溃(即使你假设每个进程占用5MB内存,那也需要1.3GB的内存来满足请求的数量)。如果不采取其它措施,系统会通过硬盘来尝试使用交换空间以处理它无法在物理内存中完成的任务。 其他可以调整的项目包括KeepAlive、KeepAliveTimeout和MaxKeepAliveRequests等设置。可以放在httpd.conf文件里的推荐设置有: ServerLimit 128MaxClients 128KeepAlive OnKeepAliveTimeout 2MaxKeepAliveRequests 100 通过将KeepAliveTimeout从15秒减到2秒,可以增加MaxClients命令;19太小,而128要好得多。通过减少进程存活的秒数,你可以在相同的时间内允许更多的连接。 当然,如果没有真正的测试在背后支持,数字就是毫无意义的,这就是ab的作用之所在。使用ab对Apache配置文件(MaxClients等于256、ServerLimit等于256、KeepAliveTimeout等于15)进行调整,使其能够满足1000个请求(100个连续请求并发产生)的调整方法如下。(在执行测试的时候要确保服务器上有一个终端打开以观察系统的负载。) $ ab -n 1000 -c 100 -k http://yoursite.com/index.php 现在把上面的服务器设置改为更加保守的设置,重新启动Apache,试着再次测试(总是从远程计算机上进行,而不是本机)。 在这里的测试中,不同的设置导致执行所消耗的时间产生了一倍的差距(分别为27.8s和16.8s),但是负载的平均值为0.03和0.30。这可能会使得你的网站变得稍慢,但是会确保它不会在高负载的情况下崩溃。还要记住的是,你将需要进行多次测试,以便取得一个平均值。 使用ab是测试调整Apache配置的一个极佳方法,应该在你每次做出影响性能的更改时使用它

怎么关闭apache 的keep-alive

php对MySQL的持久连接函数为:mysql_pconnect() /etc/httpd/conf/httpd.conf # 需要在Apache的配置文件设置几个参数 # KeepAlive: Whether or not to allow persistent connections (more than one request per connection). Set to "Off" to deactivate. Keep-Alive on # MaxKeepAliveRequests: The maximum number of requests to allow during a persistent connection. Set to 0 to allow an unlimited amount. We recommend you leave this number high, for maximum performance. MaxKeepAliveRequests 0 # KeepAliveTimeout: Number of seconds to wait for the next request from the same client on the same connection. KeepAliveTimeout 15 # 客户端发送HTTP请求成功之后,Apache将不会立刻断开socket,而是一直监听客户端这一请求,持续时间为15秒,如果超过这一时间,Apache就立即断开socket。 注意:Apache的版本为2.0以上。

WIN7如何卸载apache + mysql +php

apache 、mysql 的卸载分两步:第一步删除服务(例如apache2.2、mysql)标准方法是使用这两个软件本身提供的功能删除,命令分别是:c:apacheinhttpd.exe -k uninstallc:mysqlinmysqld.exe --remove service_name这两个exe文件分别在apache和mysql安装文件的bin目录下,上面的命令需要在命令提示符下输入,直接双击exe文件是不行的如果相关的exe文件已经被破坏,或者你找不到具体路径,可以用下面的方法武力删除:运行注册表编辑器(regedit),进入HKEY_LOCALMACHINESYSTEMControlSet001services分支,下面的一个文件夹就是一个服务,删除apache和mysql的文件夹即可。第二步删除软件的文件(不是必须的)删除服务之后,重启计算机,这个时候就可以删除你安装的apache和mysql的文件夹了,删除后卸载即算完成。php的卸载只需要上面的第二步。

wampserver最新版本 安装多版本php后,apache启动不了

ecshop,你不要用wamp集成环境来安装这个程序,不兼容,你试试apmsevr5.26集成环境吧

wampserver可以代替apache吗?

应该不能吧

如何将wampserver 把apache 换成 nginx

习惯了windows下wamp,为了和服务器一至,所以把wamp中的apache换成了nginx,其他的不动。实现方法很简单1,下载windows下的nginxnginx下载地址:http://nginx.org/en/download.html2,把wampserver中的apache服务停掉,如果你想apache和nginx同时用的话,也可以,只不过不能同时监听80端口3,启动php-cgi和nginxwampserver版本不一样的话,调用的php.ini位置也不一样。如果apache调用的是php根目录下的php.ini,那就不做任何操作;如果不是,copy一份apache调用的php.ini到wampserver中php的根目录,这样做的目的,不想重新配置php.ini新建start.bat查看复制打印?@echo off echo Starting PHP FastCGI... D: ginx-1.5.0RunHiddenConsole.exe D:wampinphpphp5.3.13php-cgi.exe -b 127.0.0.1:9000 -c D:wampinphpphp5.3.13php.ini echo Starting nginx... D: ginx-1.5.0RunHiddenConsole.exe D:/nginx-1.5.0/nginx.exe -p D:/nginx-1.5.0 这里RunHiddenConsole.exe,是WINDOWS下的将程序运行到后一个工具,网上很多。4,停止php-cgi和nginx新建stop.bat查看复制打印?@echo off echo Stopping nginx... taskkill /F /IM nginx.exe > nul echo Stopping PHP FastCGI... taskkill /F /IM php-cgi.exe > nul exit

wampserver和apache冲突了,wampserver始终是黄色的状态,但是提示是WAMPSERVER--服务器在线

WAMP 三个套件自动安装,常见的错误是端口占用,防火墙阻挡,目录包含中文,文件夹权限,根据这几个常见错误来排查;最直接的是看日志文件,在WAMP的管理界面应该有日志查看的菜单,阅读错误日志针对性的排除错误。不确定是什么错误,只能建议按上述方式排错。

java.lang.NoClassDefFoundError: org/apache/commons/validator/ValidatorResources

已经很明显了,按楼上试试吧

It’s not obvious how the capacity to visualize objects and to figure out numerical patterns suits

句子的主干是主系表结构It"s not obvious how。It是形式主语,真正的主语是how引导的主语从句;is not是系动词;obvious是表语。而在主语从句中,主语是the capacity;to visualize objects and to figure out numerical patterns是后置定语;谓语是suits;宾语是one;to answer questions是宾语补足语;而questions后又跟了一个定语从句that have eluded some of the best poets and philosophers。翻译:一个人具有物体空间想象力和计算数字模式的能力,不见得就能够回答连一些最优秀的诗人和哲学家都会被难倒的问题。

法语capaciter competence aptitude talent区别

这几个词都有能力的意思,但还是有些区别。capacite可以用来指各种能力,而competence往往是指针对某一行业或某一岗位的能力、技能。所以capacite可以用在人、动物、植物或者无生命的东西上,但是competence一般只能用在人类上。capacite所指的能力一般来说是通过后天努力获得的,而aptitude所指的能力通常指的是天生就具备的。talent和其余的几个词最容易区分,它指的是才能、才华。

词语辨析(ability,capacity,competence)

ability一般的才干capacity特指行为能力competence指胜任某项工作或任务的能力

法语capaciter competence aptitude talent区别

这几个词都有能力的意思,但还是有些区别。capacite可以用来指各种能力,而competence往往是指针对某一行业或某一岗位的能力、技能。所以capacite可以用在人、动物、植物或者无生命的东西上,但是competence一般只能用在人类上。capacite所指的能力一般来说是通过后天努力获得的,而aptitude所指的能力通常指的是天生就具备的。talent和其余的几个词最容易区分,它指的是才能、才华。

如何用apachepoi操作excel文件

POI是Apache下的一个项目,是用Java编写的开源框架,提供API供开发者直接操作Microsoft Office(Excel,Word,PowerPoint...) POI为我们带来了什么?在很多的企业当中,储蓄数据是使用Excel文档的,因为Excel文档的格式方便,也能套用公式,而企业程序是存储在数据库当中,这样就需要一种两者之间互相转换的方法,当企业刚开始使用信息化的管理系统时,也需要将Excel的数据录入到程序当中,这种需求是非常普遍的. POI使用:首先增加Maven的依赖 <!-- POI核心依赖 --><dependency><groupId>org.apache.poi</groupId><artifactId>poi</artifactId><version>3.8</version></dependency><!-- 为POI支持Office Open XML --><dependency><groupId>org.apache.poi</groupId><artifactId>poi-ooxml</artifactId><version>3.8</version></dependency><dependency><groupId>org.apache.poi</groupId><artifactId>poi-ooxml-schemas</artifactId><version>3.8</version></dependency><!-- 支持Word文档的操作 --><dependency><groupId>org.apache.poi</groupId><artifactId>poi-scratchpad</artifactId><version>3.8</version></dependency>以下为操作Excel的测试类 package com.accentrix.ray;import java.io.File;import java.io.FileOutputStream;import java.io.IOException;import org.apache.poi.openxml4j.exceptions.InvalidFormatException;import org.apache.poi.ss.usermodel.Cell;import org.apache.poi.ss.usermodel.CellStyle;import org.apache.poi.ss.usermodel.Row;import org.apache.poi.ss.usermodel.Sheet;import org.apache.poi.ss.usermodel.Workbook;import org.apache.poi.ss.usermodel.WorkbookFactory;import org.apache.poi.xssf.usermodel.XSSFWorkbook;import org.junit.Before;import org.junit.Test;public class TestExcel {private Workbook workbook;/** 由于Excel当中的单元格Cell存在类型,若获取类型错误 就会产生错误,* 所以通过此方法将Cell内容全部转换为String类型*/private String getCellValue(Cell cell) {String str = null;switch (cell.getCellType()) {case Cell.CELL_TYPE_BLANK:str = "";break;case Cell.CELL_TYPE_BOOLEAN:str = String.valueOf(cell.getBooleanCellValue());break;case Cell.CELL_TYPE_FORMULA:str = String.valueOf(cell.getCellFormula());break;case Cell.CELL_TYPE_NUMERIC:str = String.valueOf(cell.getNumericCellValue());break;case Cell.CELL_TYPE_STRING:str = String.valueOf(cell.getStringCellValue());break;default:str = null;break;}return str;}@Beforepublic void setUp() throws InvalidFormatException, IOException {// 加载excel文件,自动判断是HSSF还是XSSFworkbook = WorkbookFactory.create(new File("E:/aaa.xls"));}/** 读取一个已存在的Excel*/@Testpublic void testReadExcel() throws InvalidFormatException, IOException {// 获取第一个工作目录,下标从0开始Sheet sheet = workbook.getSheetAt(0);// 获取该工作目录最后一行的行数int lastRowNum = sheet.getLastRowNum();for (int i = 0; i < lastRowNum; i++) {// 获取下标为i的行Row row = sheet.getRow(i);// 获取该行单元格个数int lastCellNum = row.getLastCellNum();for (int j = 0; j < lastCellNum; j++) {// 获取下标为j的单元格Cell cell = row.getCell(j);// 调用获取方法String cellValue = this.getCellValue(cell);}}}/** 使用Foreach方式读取Excel*/@Testpublic void testForeachReadExcel() {// 根据sheet的名字获取Sheet sheet = workbook.getSheet("test");// 处了上面testReadExcel的方式读取以外,还支持foreach的方式读取for (Row row : sheet) {for (Cell cell : row) {String cellValue = this.getCellValue(cell);System.out.println(cellValue);}}}/** 创建简单的Excel*/@Testpublic void testWriteExcel() throws IOException {// 创建一个XSSF的Excel文件workbook = new XSSFWorkbook();FileOutputStream fos = new FileOutputStream("E:/test.xlsx");// 创建名称为test的工作目录Sheet sheet = workbook.createSheet("test");/** 创建1个10行x10列的工作目录*/for (int i = 0; i < 10; i++) {// 创建一行Row row = sheet.createRow(i);for (int j = 0; j < 10; j++) {// 创建一个单元格Cell cell = row.createCell(j);// 设置单元格valuecell.setCellValue("test");// 此处为设置Excel的样式,设置单元格内容居中,// 但这样设置方式并不常用,请留意下面的方法CellStyle cs = workbook.createCellStyle();cs.setAlignment(CellStyle.ALIGN_CENTER);cell.setCellStyle(cs);}}// 将Excel写出到文件流workbook.write(fos);}

org.apache.poi是什么jar包

apache poi各jar包介绍poi-3.12-20150511.jar (excel文件生成需要)poi-examples-3.12-20150511.jar(例子,开发不需要) poi-excelant-3.12-20150511.jar(不需要)poi-ooxml-3.12-20150511.jar(excel,word,ppt均需要)poi-ooxml-schemas-3.12-20150511.jar(excel需要)poi-scratchpad-3.12-20150511.jar(ppt,doc,vsd等需要)

如何用Apache POI操作Excel文件

首先POI是开源组织Apache出品的一个开源jar包,提供了方便解析Excel的API,我们可以非常方便的使用它来读取Excel。这里介绍3.5Final版本。  所需用到的jar包如下:  说到Excel,有2003和2007,格式是不一样的,用POI解析的方法也就不一样,Excel2003主要是使用org.apache.poi.hssf.usermodel包中的类来解析,而Excel2007就是使用org.apache.poi.xssf.usermodel来解析。  解析Excel2003源码说到Excel,有2003和2007,格式是不一样的,用POI解析的方法也就不一样,Excel2003主要是使用org.apache.poi.hssf.usermodel包中的类来解析,而Excel2007就是使用org.apache.poi.xssf.usermodel来解析。解析Excel2003源码

我需要org.apache.poi.hwpf.extractor.WordExtractor 这个包,大家谁有啊,我下载了好多都不是,急等!!

poi-scratchpad-3.5-beta1.jar 我也再找 终于找到了

谁能给我一个详细的Java通过Apache POI导出Excel方法,最好能给完整代码

这是在开发中操作excel等等是最常见不过的问题了,今天给大家分享一下Apache POI导出Excel方法,ExportExcel 可以直接copy过去改改就可以用代码如下:01.package com.smnpc.util; 02. 03.import java.io.FileOutputStream; 04.import java.io.IOException; 05.import java.util.Calendar; 06. 07.import org.apache.poi.hssf.usermodel.HSSFCell; 08.import org.apache.poi.hssf.usermodel.HSSFCellStyle; 09.import org.apache.poi.hssf.usermodel.HSSFDataFormat; 10.import org.apache.poi.hssf.usermodel.HSSFRow; 11.import org.apache.poi.hssf.usermodel.HSSFSheet; 12.import org.apache.poi.hssf.usermodel.HSSFWorkbook; 13. 14./** 15.* 生成导出Excel文件对象 16.*17.* @author Robert 18.*19.*/ 20.public class ExportExcel { 21.// 设置cell编码解决中文高位字节截断 22.// private static short XLS_ENCODING = HSSFWorkbook.ENCODING_UTF_16; 23.// 定制日期格式 24.private static String DATE_FORMAT = " m/d/yy "; // "m/d/yy h:mm" 25.// 定制浮点数格式 26.private static String NUMBER_FORMAT = " #,##0.00 "; 27. 28.private String xlsFileName; 29. 30.private HSSFWorkbook workbook; 31. 32.private HSSFSheet sheet; 33. 34.private HSSFRow row; 35. 36./** 37.* 初始化Excel 38.*39.* @param fileName 40.* 导出文件名 41.* @return 42.*/ 43.public void XLSExport(String fileName) { 44.this.xlsFileName = fileName; 45.this.workbook = new HSSFWorkbook(); 46.this.sheet = workbook.createSheet(); 47.} 48. 49./** 50.* 导出Excel文件 51.*52.* @throws IOException 53.* @throws XLSException 54.*/ 55.public void exportXLS() throws IOException { 56.FileOutputStream fOut = new FileOutputStream(xlsFileName); 57.workbook.write(fOut); 58.fOut.flush(); 59.fOut.close(); 60.} 61. 62./** 63.* 增加一行 64.*65.* @param index 66.* 行号 67.*/ 68.public void createRow(int index) { 69.this.row = this.sheet.createRow(index); 70.} 71. 72./** 73.* 设置单元格 74.*75.* @param index 76.* 列号 77.* @param value 78.* 单元格填充值 79.*/ 80.public void setCell(int index, String value) { 81.HSSFCell cell = this.row.createCell((short) index); 82.cell.setCellType(HSSFCell.CELL_TYPE_STRING); 83.// cell.setEncoding(XLS_ENCODING); 84.cell.setCellValue(value); 85.} 86. 87./** 88.* 设置单元格 89.*90.* @param index 91.* 列号 92.* @param value 93.* 单元格填充值 94.*/ 95.public void setCell(int index, Calendar value) { 96.HSSFCell cell = this.row.createCell((short) index); 97.// cell.setEncoding(XLS_ENCODING); 98.cell.setCellValue(value.getTime()); 99.HSSFCellStyle cellStyle = workbook.createCellStyle(); // 建立新的cell样式 100.cellStyle.setDataFormat(HSSFDataFormat.getBuiltinFormat(DATE_FORMAT)); // 设置cell样式为定制的日期格式 101.cell.setCellStyle(cellStyle); // 设置该cell日期的显示格式 102.} 103. 104./** 105.* 设置单元格 106.*107.* @param index 108.* 列号 109.* @param value 110.* 单元格填充值 111.*/ 112.public void setCell(int index, int value) { 113.HSSFCell cell = this.row.createCell((short) index); 114.cell.setCellType(HSSFCell.CELL_TYPE_NUMERIC); 115.cell.setCellValue(value); 116.} 117. 118./** 119.* 设置单元格 120.*121.* @param index 122.* 列号 123.* @param value 124.* 单元格填充值 125.*/ 126.public void setCell(int index, double value) { 127.HSSFCell cell = this.row.createCell((short) index); 128.cell.setCellType(HSSFCell.CELL_TYPE_NUMERIC); 129.cell.setCellValue(value); 130.HSSFCellStyle cellStyle = workbook.createCellStyle(); // 建立新的cell样式 131.HSSFDataFormat format = workbook.createDataFormat(); 132.cellStyle.setDataFormat(format.getFormat(NUMBER_FORMAT)); // 设置cell样式为定制的浮点数格式 133.cell.setCellStyle(cellStyle); // 设置该cell浮点数的显示格式 134.} 135. 136. 137.public static void main(String[] args) { 138.ExportExcel excel = new ExportExcel(); 139.excel.XLSExport("d:\测试.xls"); 140.excel.createRow(0); 141.excel.setCell(0, "序号"); 142.excel.setCell(1, "公司"); 143.excel.setCell(2, "网址"); 144.excel.setCell(3, "姓名"); 145.excel.createRow(1);// excel正文 146.excel.setCell(0, "1"); 147.excel.setCell(1, "程序员之家"); 148.excel.setCell(2, "http://bbs.it-home.org"); 149.excel.setCell(3, "小贝"); 150.try { 151.excel.exportXLS(); 152.System.out.println("导出excel成功"); 153.} catch (IOException e) { 154.System.out.println("导出excel失败"); 155.e.printStackTrace(); 156.} 157.} 158.}

org.apache.poi.hslf报错,是因为缺少什么包

找到了吗,我这也出错了,不知道少了哪个jar包?

phpstudy安装完成后apache服务器的默认显示页为

默认是直接访问htdocs目录下的index.html。根据博可查询,访问Apache服务器时,默认是直接访问htdocs目录下的index.html,这是在conf/httpd.conf中配置的。查到conf/httpd.conf中的,其默认内容如下:DirectoryIndexindex.phpindex.html。访问Apache服务器时,它默认的从这里找文件,先找index.php,再找index.html,找不到时报错说没有访问权限。根据这个规则,只需要将要显示的文件设置在第一位就好啦。phpStudy是一个PHP调试环境的程序集成包。

phpStudy启动时Apache红色(启动失败)

解决办法:找到phpstudy安装的对应路径 D:phpStudyPHPTutorialApacheinhttpd.exe 查看错误解决即可

phpStudy开启Apache重写模块(开启伪静态)

pbootcms开启伪静态后地址栏不再包含 index.php,开启步骤如下: Apache环境: 1、开启Apache重写模块,具体请百度; 2、修改程序config/config.php文件 url_type=2 3、在站点目录建立.htaccess文件(默认已有),内容如下:

phpstudy在启动的时候apache显示已经停止是怎么回事

phpstudy在启动的时候apache显示已经停止的原因:控制面板该程序设置错误。解决的方法和操作步骤如下:1、首先,打开控制面板中的“管理工具”选项,如下图所示。2、其次,完成上述步骤后,在“管理工具”的界面中,找到其中的“服务”选项,如下图所示。3、接着,完成上述步骤后,打开“服务”选项。 在选项列表中,可以找到“Apache2a”,发现已关闭,如下图所示。4、然后,完成上述步骤后,鼠标右键单击“Apache2a”,在出现的菜单中点击“启动”,如下图所示。5、最后,完成上述步骤后,软件就可以正常启动了,如下图所示。这样,问题就解决了。

CAPACCI钱包是什么牌子的

“CAPACCI”是韩国语“卡巴奇”的英文表述,是朝鲜王国时代对有手艺的皮革匠人的称呼。1977年创立于韩国汉城的(株)卡巴奇商社使用这一商标,承继兢兢业业、精益求精的匠人精神,注重手工和品质,不断改进生产技术,并将欧美潮流和东方内涵柔和在一起,风靡韩国、日本、香港和东南亚市场。目前“CAPACCI”商标已在世界45个国家和地区注册,正充满信心地步入世界一流商品的行列,并向成为世界性商标的目标迅速挺进。  1994年6月,(株)卡巴奇商社在中国大陆开始生产销售“CAPACCI”产品,使日新月异的中国FASHIOG市场更加绚丽多姿,作为生产经营皮革制品的厂家,其产品质量已达到法国的“CHARLES? JOURDAN? PIEWRR? BALNAIN”社所认定的国际水平,畅销国际市场。曾荣获韩国商工部颁布的质量管理优秀标志“品”字奖章,同时被认定为优秀技术管理及优秀企业。“CAPACCI”产品在韩国同行业当中已被认定为最高的品质,且创出5600万美元/年的最高销售额。

capacci是什么牌子

“CAPACCI”是韩国语“卡巴奇”的英文表述,是朝鲜王国时代对有手艺的皮革匠人的称呼。1977年创立于韩国汉城的(株)卡巴奇商社使用这一商标,承继兢兢业业、精益求精的匠人精神,注重手工和品质,不断改进生产技术。并将欧美潮流和东方内涵柔和在一起,风靡韩国、日本、香港和东南亚市场。目前“CAPACCI”商标已在世界45个国家和地区注册,正充满信心地步入世界一流商品的行列,并向成为世界性商标的目标迅速挺进。

org.apache.hadoop.hbase.masternotrunningexception在哪个jar包

【HBase】org.apache.hadoop.hbase包,具体是那个jar包需要查找一下接口概要 Interface说明Cell HBase中的存储单元包括以下字段:1) row2) column family3) column qualifier4) timestamp5) type6) MVCC version7) value0Class概要 ClassDescriptionCellUtil Cell实例中一些有用的util工具方法.ClusterStatus HBase集群的状态信息.HBaseConfiguration 配置HBase相关数据HBaseInterfaceAudience 该类定义了HBase中受限私有api的类常量HColumnDescriptor HColumnDescriptor包含了一个列族的信息,例如版本号,压缩设置等等.HConstants HConstants定义了一组HBase相关常量HRegionInfo 包含HRegion信息.HRegionLocation 保存了HRegionInfo及访问HRegionServer地址的数据结构.HTableDescriptor HTableDescriptor包含了HBase表的详细信息, 例如所有列族的解析器, 该表是否为catalog表, -ROOT-还是hbase:meta, 该表是否只读, memstore的最大值, 什么时候应当进行分区, 与表关联的协同处理器等等...LocalHBaseCluster 用于创建单进程(本地)的HBase集群.NamespaceDescriptor POJO类的命名空间.RegionLoad 封装了每个region的加载指标.ServerLoad 用于输出某RegionServer当前的加载状态信息.ServerName HBas的ServerName类.TableName 用于表示表名的不可变POJO类.Exception概要 ExceptionDescriptionClockOutOfSyncException 当一个RegionServer始终偏移太大时,master节点结将会抛出此异常.DoNotRetryIOException 用于提示不要再重试的异常子类: 如UnknownScannerException.DroppedSnapshotException 如果在flush过程中快照内容并没有正确的存储到文件中时,该异常将被抛出.HBaseIOException 所有hbase特定的IOExceptions都是HBaseIOException类的子类.InvalidFamilyOperationException Hbase接收修改表schema的请求,但请求中对应的列族名无效.MasterNotRunningException master节点没有运行的异常NamespaceExistException 已存在某namespace的异常NamespaceNotFoundException 找不到该namsespace的异常NotAllMetaRegionsOnlineException 某操作需要所有root及meta节点同时在线,但实际情况不满足该操作要求NotServingRegionException 向某RegionServer发送访问请求,但是它并没有反应或该region不可用.PleaseHoldException 当某个ResionServer宕掉并由于重启过快而导致master来不及处理宕掉之前的server实例, 或者用户调用admin级操作时master正处于初始化状态时, 或者在正在启动的RegionServer上进行操作时都会抛出此类异常.RegionException 访问region时出现的异常.RegionTooBusyException RegionServer处于繁忙状态并由于阻塞而等待提供服务的异常.TableExistsException 已存在某表的异常TableInfoMissingException 在table目录下无法找到.tableinfo文件的异常TableNotDisabledException 某个表没有正常处于禁用状态的异常TableNotEnabledException 某个表没有正常处于启用状态的异常TableNotFoundException 无法找到某个表的异常UnknownRegionException 访问无法识别的region引起的异常.UnknownScannerException 向RegionServer传递了无法识别的scanner id的异常.YouAreDeadException 当一个RegionServer报告它已被处理为dead状态,由master抛出此异常.ZooKeeperConnectionException 客户端无法连接到zookeeper的异常.

如何验证apache 允许OPTIONS方法

配置有两种方法如下:在httpd.conf文件中添加<Location /> <Limit OPTIONS> Deny from all </Limit> </Location>或者采用rewrite模块后RewriteEngine onRewriteCond %{REQUEST_METHOD} ^(OPTIONS)RewriteRule .* - [F]添加后重启验证方法如下:$telnet 10.*.*.* 80 <telnet 本机IP apache端口>Trying 10.*.*.*...Connected to 10.194.177.187.Escape character is "^]".OPTIONS / HTTP 1.1 <输入后,两次回车,返回如下>HTTP/1.1 200 OKDate: Tue, 25 Feb 2014 09:09:31 GMTServer: IBM_HTTP_ServerAllow: GET,HEAD,POST,OPTIONS,TRACE <显示当前方法/漏洞>Content-Length: 0Connection: closeContent-Type: text/htmlConnection closed by foreign host.

apache 403 forbidden怎么解决

在配置Linux的 Apache服务时,经常会遇到http403错误,我今天配置测试时也出现了,最后解决了,总结了一下。http 403错误是拒绝访问的意思,有很多原因的。还有,这些问题在win平台的Apache里一样会发生!我按照经验总结的主要有以下4种原因!本人测试的环境 是:Scientific Linux 5.3(与RHEL和CentOS百分百兼容!),其它版本的Linux应该通用,没测试。1. 访问的文档权限不够。要755以上权限。解决方法:用命令chmod 755 /var/www/ 或其他相应目录。 2. SELinux或防火墙的原因。解决方法:先关闭SELinux和让防火墙通过WWW服务。 3. 虚拟主机配置错误。例如我遇到过一次的: httpd.conf里加载了虚拟主机的配置文件:代码如下:# Virtual hosts Include conf/extra/httpd-vhosts.conf而conf/extra/httpd-vhosts.conf并没有配置好,而且虚拟主机功能暂时还没有用,所以把Include conf/extra/httpd-vhosts.conf注释掉,重启apache后正常了。 解决方法:重新配置虚拟主机或暂时关闭。4. DocumentRoot的设置。解决方法如下:打开 apache的配置文件httpd.conf,找到这段代码:代码如下:<Directory /> Options FollowSymLinks AllowOverride None Order deny,allow Deny from all </Directory>有时候由于配置了php后,这里的“Deny from all”已经拒绝了一切连接。把该行改成“allow from all”,修改后的代码如下,问题解决。代码如下:<Directory /> Options FollowSymLinks AllowOverride None Order deny,allow Allow from all </Directory>以下是其它网友的补充:部署apache服务Forbidden 403问题小结很多朋友和学生都问过我同样的问题 访问网站Forbidden 403 什么原因?一般页面提示为:Forbidden You don"t have permission to access / on this server.http错误代码403: 403 Forbidden 资源不可用。服务器理解客户的请求,但拒绝处理它。通常由于服务器上文件或目录的权限设置导致。通常情况可能(但不限于此)的原因有:原因1:apache配置文件中没有对站点目录的权限许可,这通常是在初始安装apache后,更改了默认的apache站点目录时所至(重要,常发生):如将站点目录更改为:/var/blog,则在apache配置文件中如果不加下面的配置 就会返回403错误。<Directory "/var/blog"> Options Indexes FollowSymLinks AllowOverride None Order allow,deny Allow from all </Directory>提示:生产环境上面的配置还需修改,见下文,此处仅就本文的主题讲解。原因2:站点目录下无首页文件(index文件),而apache的配置又禁止了目录浏览,就会提示403错误,配置如下(偶尔发生):a.站点目录下无首页文件(index文件): [root@http-server blog]# pwd /var/blog [root@http-server blog]# ll total 12 drwxr-xr-x 2 root root 4096 Jun 4 22:11 oldboy -rw-r--r-- 1 root root 0 Jun 4 22:11 oldboy.html 提示:上面列出来的就是站点目录/var/blog目录下没有预设 首页DirectoryIndex index.html.apache的配置禁止目录浏览的三种配置 第一种配置: <Directory "/var/blog"> Options -Indexes FollowSymLinks AllowOverride None Order allow,deny Allow from all </Directory>第二种配置: <Directory "/var/blog"> Options FollowSymLinks AllowOverride None Order allow,deny Allow from all </Directory>第三种配置: <Directory "/var/blog"> Options None AllowOverride None Order allow,deny Allow from all </Directory>提示:第二种原因朋友们偶尔会朋友,但遇到问题最多的还是第一种原因。 ======================================================== 以上配置的详细说明:原因3:还是Directory权限问题(不常发生)如下文:拒绝10.0.0.0/24整段访问。这样被拒绝的主机访问就会出现403错误 <Directory "/var/blog"> Options Indexes FollowSymLinks AllowOverride None Order allow,deny #Allow from all Deny from 10.0.0.0/24 <Directory "/var/blog"> Options Indexes FollowSymLinks AllowOverride None Order allow,deny #Allow from all Allow from 10.0.0.116 #Deny from 10.0.0.0/24 </Directory>原因4:站点目录权限问题(不常发生)。站点目录需要apache的用户有访问权限,否则就会报403错误。 [root@http-server var]# pwd /var [root@http-server var]# chown -R root.root blog/ [root@http-server var]# chmod 700 blog [root@http-server var]# ll -d blog/ drwx------ 3 root root 4096 Jun 4 22:11 blog/一种可能性是DocumentRoot选项的设置,如果在安装好apache2后修改了该选项,并且忘记了配置该新目录的访问权限就会出现这样的情况。比如apache2安装好后默认的参数如下:我们常常会重新指定web文件存放的目录,比如设定DocumentRoot /var/www这时往往会忽略了对后面的Directory 项的修改,必须将里面的路径同时修改为 /var/www才行,否则将会访问所有目录都出现 403 forbidden错误。今天在公司电脑上安装Apache,版本2.2.8,装完刚测试可以;配置了下php的php.in文件再次localhost打开发现错误:HTTP 错误 403 - 禁止访问,即403 Forbidden:You don"t have permission to access / on this server.权限又不够了? 马上打开apache的配置文件httpd.conf,逐行检查。在大约快一半的地方有以下这段代码:发现了吧。由于配置了php后,这里的“Deny from all”已经拒绝了一切连接。把该行改成“allow from all”,修改后的代码如下,问题解决。另外一种可能性出现在我们配置了不同的VirtualHost,并且有某个VirtualHost的DocumentRoot不在全局的DocumentRoot目录下,这时必须在全局种单独增加对该目录的Directory 项进行设置,否则该VirtualHost下的所有访问均会出现403 forbidden错误。这个问题是因为Apache2对于权限和安全的更高要求,对分布在不同磁盘上的目录文件进行严格管理,我们进行web规划的时候必须注意这一点。 试试下面的步骤:终极解决办法:如果以上都不行的话!!!Forbidden You don"t have permission to access / ~ web on this server. Additionally, a 403 Forbidden error was encountered while trying to use an Error Document to handle the request.Apache/2.0.54 (CentOS) Server at 127.0.0.1 Port 80一般出现这个问题,直观地会想到的目录的存取权限问题,查了很久,调了很久也没有解决问题。其间曾想到是否Selinux的问题,进去看了一圈,没有发现什么要改的地方。(后来的事实证明,有时候直觉是很准的,能否找到答案,区别往往是:是否在直觉上走的更深入)。问题的解决用Google以Apache 403搜了好一会,终于在一个博客里看到,作者遇到和我完全相同的问题:Apache、目录的配置都没问题,但就是不能显示页面。而解决方法恰恰就是修改Selinux对public_html的访问控制。用以下命令修改文件夹安全属性

apache 403 forbidden怎么解决

在配置Linux的 Apache服务时,经常会遇到http403错误,我今天配置测试时也出现了,最后解决了,总结了一下。http 403错误是拒绝访问的意思,有很多原因的。还有,这些问题在win平台的Apache里一样会发生!我按照经验总结的主要有以下4种原因!本人测试的环境 是:Scientific Linux 5.3(与RHEL和CentOS百分百兼容!),其它版本的Linux应该通用,没测试。1. 访问的文档权限不够。要755以上权限。解决方法:用命令chmod 755 /var/www/ 或其他相应目录。 2. SELinux或防火墙的原因。解决方法:先关闭SELinux和让防火墙通过WWW服务。 3. 虚拟主机配置错误。例如我遇到过一次的: httpd.conf里加载了虚拟主机的配置文件:代码如下:# Virtual hosts Include conf/extra/httpd-vhosts.conf而conf/extra/httpd-vhosts.conf并没有配置好,而且虚拟主机功能暂时还没有用,所以把Include conf/extra/httpd-vhosts.conf注释掉,重启apache后正常了。 解决方法:重新配置虚拟主机或暂时关闭。4. DocumentRoot的设置。解决方法如下:打开 apache的配置文件httpd.conf,找到这段代码:代码如下:<Directory /> Options FollowSymLinks AllowOverride None Order deny,allow Deny from all </Directory>有时候由于配置了php后,这里的“Deny from all”已经拒绝了一切连接。把该行改成“allow from all”,修改后的代码如下,问题解决。代码如下:<Directory /> Options FollowSymLinks AllowOverride None Order deny,allow Allow from all </Directory>以下是其它网友的补充:部署apache服务Forbidden 403问题小结很多朋友和学生都问过我同样的问题 访问网站Forbidden 403 什么原因?一般页面提示为:Forbidden You don"t have permission to access / on this server.http错误代码403: 403 Forbidden 资源不可用。服务器理解客户的请求,但拒绝处理它。通常由于服务器上文件或目录的权限设置导致。通常情况可能(但不限于此)的原因有:原因1:apache配置文件中没有对站点目录的权限许可,这通常是在初始安装apache后,更改了默认的apache站点目录时所至(重要,常发生):如将站点目录更改为:/var/blog,则在apache配置文件中如果不加下面的配置 就会返回403错误。<Directory "/var/blog"> Options Indexes FollowSymLinks AllowOverride None Order allow,deny Allow from all </Directory>提示:生产环境上面的配置还需修改,见下文,此处仅就本文的主题讲解。原因2:站点目录下无首页文件(index文件),而apache的配置又禁止了目录浏览,就会提示403错误,配置如下(偶尔发生):a.站点目录下无首页文件(index文件): [root@http-server blog]# pwd /var/blog [root@http-server blog]# ll total 12 drwxr-xr-x 2 root root 4096 Jun 4 22:11 oldboy -rw-r--r-- 1 root root 0 Jun 4 22:11 oldboy.html 提示:上面列出来的就是站点目录/var/blog目录下没有预设 首页DirectoryIndex index.html.apache的配置禁止目录浏览的三种配置 第一种配置: <Directory "/var/blog"> Options -Indexes FollowSymLinks AllowOverride None Order allow,deny Allow from all </Directory>第二种配置: <Directory "/var/blog"> Options FollowSymLinks AllowOverride None Order allow,deny Allow from all </Directory>第三种配置: <Directory "/var/blog"> Options None AllowOverride None Order allow,deny Allow from all </Directory>提示:第二种原因朋友们偶尔会朋友,但遇到问题最多的还是第一种原因。 ======================================================== 以上配置的详细说明:原因3:还是Directory权限问题(不常发生)如下文:拒绝10.0.0.0/24整段访问。这样被拒绝的主机访问就会出现403错误 <Directory "/var/blog"> Options Indexes FollowSymLinks AllowOverride None Order allow,deny #Allow from all Deny from 10.0.0.0/24 <Directory "/var/blog"> Options Indexes FollowSymLinks AllowOverride None Order allow,deny #Allow from all Allow from 10.0.0.116 #Deny from 10.0.0.0/24 </Directory>原因4:站点目录权限问题(不常发生)。站点目录需要apache的用户有访问权限,否则就会报403错误。 [root@http-server var]# pwd /var [root@http-server var]# chown -R root.root blog/ [root@http-server var]# chmod 700 blog [root@http-server var]# ll -d blog/ drwx------ 3 root root 4096 Jun 4 22:11 blog/一种可能性是DocumentRoot选项的设置,如果在安装好apache2后修改了该选项,并且忘记了配置该新目录的访问权限就会出现这样的情况。比如apache2安装好后默认的参数如下:我们常常会重新指定web文件存放的目录,比如设定DocumentRoot /var/www这时往往会忽略了对后面的Directory 项的修改,必须将里面的路径同时修改为 /var/www才行,否则将会访问所有目录都出现 403 forbidden错误。今天在公司电脑上安装Apache,版本2.2.8,装完刚测试可以;配置了下php的php.in文件再次localhost打开发现错误:HTTP 错误 403 - 禁止访问,即403 Forbidden:You don"t have permission to access / on this server.权限又不够了? 马上打开apache的配置文件httpd.conf,逐行检查。在大约快一半的地方有以下这段代码:发现了吧。由于配置了php后,这里的“Deny from all”已经拒绝了一切连接。把该行改成“allow from all”,修改后的代码如下,问题解决。另外一种可能性出现在我们配置了不同的VirtualHost,并且有某个VirtualHost的DocumentRoot不在全局的DocumentRoot目录下,这时必须在全局种单独增加对该目录的Directory 项进行设置,否则该VirtualHost下的所有访问均会出现403 forbidden错误。这个问题是因为Apache2对于权限和安全的更高要求,对分布在不同磁盘上的目录文件进行严格管理,我们进行web规划的时候必须注意这一点。 试试下面的步骤:终极解决办法:如果以上都不行的话!!!Forbidden You don"t have permission to access / ~ web on this server. Additionally, a 403 Forbidden error was encountered while trying to use an Error Document to handle the request.Apache/2.0.54 (CentOS) Server at 127.0.0.1 Port 80一般出现这个问题,直观地会想到的目录的存取权限问题,查了很久,调了很久也没有解决问题。其间曾想到是否Selinux的问题,进去看了一圈,没有发现什么要改的地方。(后来的事实证明,有时候直觉是很准的,能否找到答案,区别往往是:是否在直觉上走的更深入)。问题的解决用Google以Apache 403搜了好一会,终于在一个博客里看到,作者遇到和我完全相同的问题:Apache、目录的配置都没问题,但就是不能显示页面。而解决方法恰恰就是修改Selinux对public_html的访问控制。用以下命令修改文件夹安全属性

capability和capacity三有什么区别

1、capacity:容量,生产量,容量,智能,才能,能力,接受力,地位.capacity用在制造业和商业上,通常就是指生产和承受能力.如:transport capacity 运输能力transmission capacity 输送容量sorption capacity 吸附能力,吸附容量seating capacity 座(位)数;容纳量parking capacity 停车容量2、capability:(实际)能力,性能,容量,接受力如:nuclear capability 核能力testing equipment for interrupting capability of switchgear 开关设备断流试验装置the capability of a metal to be fused 金属的可熔合性The act or capability of attracting.吸引力,魅力吸引的行为或能力Processing capability as found in an intelligent terminal.在智能终端上实现的处理能力.3、ability:能,能力(特别如体力、 脑力或法律能力等) 本领,技能,技巧,才能,天才,性能,效率如:abstract ability 抽象能力academic ability 学习能力,研究能力a man of ability 有本事的人ability in music 音乐天才4、faculty:才能,本领,能力,全体教员,(大学的)系,科,(授予的)权力.①能力:任何正常的能力或功能,尤指精神上的能力;②〔大学〕教工:学院或大学的教授和讲师的同仁组织或团体如:comprehensive faculty 理解力the medical faculty 医界同人the imaginative faculty 想象力a constructive faculty 组织力,建设力the students and faculty 全院师生the faculty of memory 记忆力ability是可通过练习或锻炼获得的,而capability指的是固有的能力,它与练习或锻炼无关.如:I do not doubt his ability to do the work.He has the capability to benefit from university education.第一句的ability是指通过训练或工作磨炼而获得的“能力”,而第二句的capability则是指"天赋之才",与后天无关.仔细一点儿就可以看到,capacity着重指容量;capability着重指性能;ability着重指身体的能力,能量;faculty着重指全体教员,指人.

capacity utilization是什么意思?

产能利用率(Capacity Utilization),也叫设备利用率,是工业总产出对生产设备的比率,简单的理解,就是实际生产能力到底有多少在运转发挥生产作用

capacity utilization是什么意思

产能利用率(Capacity Utilization),也叫设备利用率,是工业总产出对生产设备的比率,简单的理解,就是实际生产能力到底有多少在运转发挥生产作用

It is not obvious how the capacity to visualize objects and to figure out...句子成分解析

it为形式主语,suit 使适合 one 代人将物体形象化和辨析数字模式的这种能力可以使得一个人能够回答一个那些杰出的诗人和哲学家们都不能回答的问题,这并不明显(也就是有了这些能力的人也未必能回答出来)

如何在Docker容器中运行Apache服务器

所需软件您需要在电脑中安装 Oracle Virtual Box 和 Vagrant 。如果已经装好,那我们就开始吧!步骤1:创建 CentOS 虚拟机在本地目录(本文中使用 ~/vagrant 目录)中创建一个 Vagrantfile 文件,内容如下:# -*- mode: ruby -*-# vi: set ft=ruby :VAGRANTFILE_API_VERSION = "2"Vagrant.configure(VAGRANTFILE_API_VERSION) do |config| config.vm.box = "centos65" config.vm.box_url = "https://github.com/2creatives/vagrant-centos/releases/download/v6.5.1/centos65-x86_64-20131205.box" config.vm.network :forwarded_port, guest: 80, host: 8080 config.vm.network :public_network config.ssh.forward_agent = trueend在这里,我就不解释 Vagrant 和 Vagrantfile 了。 Vagrantfile 创建好后,在 Vagrantfile 所在目录中再创建一个 htdocs 目录并在其中创建一个 index.html 文件, html 文件内容如下:This file is being server by http server running inside docker containerVagrantfile 文件和 htdocs 目录都创建好了,现在我们来执行下面的命令:vagrant up # 启动虚拟机,这一步可能会让我们选择网卡vagrant ssh # 虚拟机启动后,通过ssh登陆到虚拟机中步骤2:安装 docker执行下面的命令来安装 docker :sudo yum -y update # Update Installed packagessudo yum install docker-io # Install Dockersudo service docker start # Start Docker步骤3:设置 DockerDocker 需要一个基本的镜像才能运行,我们的所有容器都是(直接或间接)基于这样一个镜像来运行的,下面的命令把一个基本镜像 pull 到本地:sudo docker pull centos # Download base image步骤4:为我们的容器创建第一个镜像# 以 centos 镜像作为基础镜像,我们启动自己的容器并在其中执行/bin/bash命令# 注:-t -i 参数用于创建一个虚拟的命令行。sudo docker run -t -i centos /bin/bash 现在我们已经成功的运行了自己的第一个容器,并且进入到容器的命令行界面中。在容器中,我们执行下面的命令:yum -y update # 更新软件包yum install which # 安装which命令yum install git # 安装Git安装完成后,按 Ctrl + d 来退出容器的命令行。# 执行sudo docker ps -a,可以看到被我们终止的容器CONTAINER ID IMAGE COMMAND CREATED……da9031d3568f centos:6.4 /bin/bash 5 minutes ago…..把我们所做的改变提交到一个新的容器:# 这里我们创建一个自己的基础容器,容器中安装好了文章中所需的常用工具。读者的容器 id 可能与文章中的有所不同,以上一步 docker ps -a 的结果为准。sudo docker commit da90 custom/base容器成功提交后,执行 sudo docker images ,我们会看到刚才提交的容器(如下面的结果所示)。我们就以这个容器为基础容器,再来创建一个新的容器。REPOSITORY TAG IMAGE ID CREATED custom/base latest 05b6cecd370b 2 minutes ago centos 6.4 539c0211cd76 10 months ago centos latest 539c0211cd76 10 months ago…步骤5:创建新的容器,并安装 apache# 以 custom/base 容器为基础,运行一个新的容器。sudo docker run -t -i custom/base /bin/bash# 安装 httpdyum install httpd步骤6:再次提交新的容器按 Ctrl + d 来退出容器的命令行,然后执行命令:# 这个命令会把步骤5中我们安装 httpd 带来的改变提交到新的名为 custom/httpd 的容器镜像中。你的容器 id 可能会和文章中有所不同,以 sudo docker ps -a 命令的结果为准。sudo docker commit aa6e2fc0b94c custom/httpd你应该已经发现了,我们创建了一个带有 http 服务器并可以复用的容器镜像。你可以根据这种思想,为自己所需的每个组件都创建一个容器,然后把这些容器复用于开发环境或者生产环境。步骤7:运行 http 服务器# -v will Mount a volume from VM to the container which was also shared from host to Vagrant VM.# -v 参数把主机共享给虚拟机的一个卷挂载到容器中# -p forward VM port 80 to container port 80; VM port 80 is mapped to host port 8080 in Vagrantfile # -p 参数把虚拟机的80端口映射到容器的80端口;虚拟机的80端口在 Vagrantfile 中被绑定到主机的8080端口,也就是:主机8080->虚拟机80->容器80sudo docker run -t -i -p 80:80 -v /vagrant/htdocs:/var/www/html custom/httpd /bin/bash# 启动 Apacheapachectl -k start 步骤8:在浏览器中测试在浏览器中浏览 http://localhost:8080 ,你应该可以看到步骤1中 html 文件的内容。

annualcapacity是什么意思

年产量

apache与httpd是什么关系呀?

/etc/init.d/下的 httpd 应该是一个 script,它用来启动 HTTP 处事器,经常可能就是 apache。你看一下 httpd 的内容,应该可以找到对应的 HTTP 处事器装在了哪里。 确认一下是不是 apache。卸载了/etc/init.d/下的httpd往后,影响是,原有的HTTP 处事器在开机时,就不会自动启动。你当然可以自行安装另一个HTTP 处事器,如apache。可以共存。可是要注重 HTTP network port 不冲要突。

Apache和Apache Tomcat的区别是什么

apache:侧重于http server tomcat:侧重于servlet引擎,如果以standalone方式运行,功能上与apache等效 , 支持JSP,但对静态网页不太理想; apache是web服务器,tomcat是应用(java)服务器,它只是一个servlet(jsp也翻译成servlet)容器,可以认为是apache的扩展,但是可以独立于apache运行。 换句话说,apache是一辆卡车,上面可以装一些东西如html等。但是不能装水,要装水必须要有容器(桶),而这个桶也可以不放在卡车上。

apache 用什么语言

apache一款WEB服务器软件,支持除server脚本(asp,php,jsp,ado)以外的web技术(如HTML)。因为server脚本运行需要编译,所以需要安装相关编译软件就可以支持server脚本。理论上。实际上人们编程用的组合为:(1)apache+php+mysql (2)iis+asp+sqlserver (3)mysql+tomcat+myeclipse

什么是apache虚拟主机?

apache是开源的web服务软件之一,虚拟主机是提供网站服务的集成环境。简单来说,Apache虚拟主机就是在一个Apache服务器上配置多个虚拟空间,实现一个服务器提供多站点服务,其实就是访问同一个服务器上的不同目录.

APACHE问题

如果 apache启动了且设置正确那么在地址栏里输入 localhost应该是应出现is work!的欢迎页。如没有显示。在xx/apache/conf/httpd.conf 文件中查找"Documentroot"和"<directory" 看默认的/htdocs 目录是否被更改了。如更改了,则到更改的对应的目录中新建index.html,重启apache,在此访问。

apache的主要模块包含哪些内容

mod_access根据客户端的主机名,IP地址,或其他特性的客户端请求提供访问控制。mod_actions该模块提供了根据媒体类型或请求方法执行CGI脚本。用到mod_alias模组提供文档树中的主机文件系统的不同部分映射和URL重定向mod_asis发送文件,其中包含他们自己的HTTP标头mod_auth使用文本文件的用户身份验证mod_auth_anon允许“匿名”用户访问身份验证领域mod_auth_dbm提供用户认证使用DBM文件mod_auth_digest用户认证使用MD5摘要式身份验证。mod_auth_ldap允许使用LDAP目录来存放数据库的HTTP基本身份验证。mod_autoindex生成目录索引,自动,类似的Unix LS命令或Win32 目录的shell命令mod_cache内容缓存键的URI。mod_cern_metaCERN httpd的图元文件的语义mod_cgi的CGI脚本的执行mod_cgid使用一个外部CGI守护进程执行CGI脚本mod_charset_lite指定字符集转换或重新编码mod_dav分布式创作和版本控制(WebDAV的)功能mod_dav_fs为mod_dav的文件系统提供者mod_deflate模块压缩的内容,然后传送到客户端mod_dir提供“结尾的斜线”重定向和服务目录索引文件mod_disk_cache内容缓存存储管理器键入的URImod_dumpio转储所有的I / O错误日志中。mod_echo一个简单的echo服务器来说明协议模块mod_env修改传递给CGI脚本和SSI页面的环境,mod_example说明在Apache模块APImod_expires生成到期的Cache-Control HTTP报头,根据用户指定的标准mod_ext_filter通过外部程序发送给客户端之前,通过响应体mod_file_cache实现在内存中缓存静态文件列表mod_headers定制的HTTP请求和响应头mod_imap服务器端图像映射处理mod_include服务器解析的HTML文件(服务器端包含)mod_info服务器的配置提供了一个全面的概述mod_isapi在Apache的ISAPI扩展为Windowsmod_ldap模块LDAP连接池和结果缓存服务使用的其他LDAP模块mod_log_config记录向服务器发出的请求mod_log_forensic法医记录的请求到服务器mod_logio记录每个请求的输入和输出字节mod_mem_cache内容缓存键的URImod_mime联营公司所要求的文件名的扩展名与文件的行为(处理程序和过滤器)和内容(MIME类型,语言,字符集和编码)mod_mime_magic通过在几个字节,其内容来确定一个文件的MIME类型mod_negotiation模块提供内容协商mod_nw_ssl对于NetWare启用SSL加密mod_proxyHTTP/1.1代理/网关服务器mod_proxy_connectmod_proxy的扩展名 CONNECT请求处理mod_proxy_ftpFTP支持模块 的mod_proxymod_proxy_httpHTTP支持模块 的mod_proxymod_rewrite提供了一个基于规则的重写引擎重写请求的URL飞mod_setenvif基于请求的特性,允许设置的环境变量则mod_so服务器在启动时加载的可执行代码和模块或重新启动时间mod_speling尝试纠正错误的URL,用户可能忽略了资本输入,并允许一个拼写错误mod_ssl的强效加密使用安全套接字层(SSL)和传输层安全协议(TLS)使用mod_status提供有关服务器活动和性能mod_suexec允许CGI脚本来运行指定的用户和组mod_unique_id每个请求的唯一标识符提供了一个环境变量mod_userdir模块用户特定的目录mod_usertrack点击流记录在网站上的用户活动mod_version版本相关的配置mod_vhost_alias提供质量的虚拟主机动态配置

apache 如何部署 php

extension=php_***.dll这里面的*号不是指具体的名字,是个变量比如 extension=php_mysql.dll你搜索“extension=php_”这个这里的每一行都代表一个PHP的功能扩展再在apache安装目录里的conf目录下找到httpd.conf搜索DocumentRoot 这后面的目录你自己定一个,这个目录就是WEB目录再把你的PHP文件放到这个目录下面! 如果你实在不会的话你下载一个AppServ这个是集成了apache,MySQL,php这三个的!而且是exe文件按步骤安装!

apache的优化

我们在使用Apache作为web服务器的过程中,只有对Apache服务器进行适当的优化配置,才能让Apache发挥出更好的性能;再反过来说,如果Apache的配置非常糟糕,Apache可能无法正常为我们服务。因此,针对我们的应用需求对Apache服务器的配置进行一定的优化是必不可少的。硬件和操作系统毫无疑问,要想让Apache服务器发挥出更好的性能,首先必须得保证硬件和操作系统能够满足Apache服务器的负载需要。如果由于硬件和操作系统原因导致Apache的运行性能受到较大的影响,即使对Apache服务器本身优化配置得再好也无济于事,「想要马儿跑得好,又想马儿不吃草」当然是行不通的。一般而言,影响web服务器性能的最大的因素是内存。当内存不足时,操作系统将会使用内存交换机制。内存交换机制,简而言之,就是将本地磁盘的一部分作为虚拟内存空间供程序使用。web服务器想要更好地所有用户服务,则其应该永远不要使用内存交换机制,否则其性能将会受到较大的影响。不仅如此,由于服务器使用了内存交换机制所产生的「滞后」,「滞后」的直接后果就是让用户感觉网站的访问速度很慢,此时用户极有可能会点击【停止】或者【刷新】,如果用户不停地点击【刷新】,将会给服务器带来更大的负载,从而进入一个恶性循环。对于Apache服务器的内存需求量,我们可以通过操作系统相关命令查看服务器正常运行时每个为用户服务的进程(或线程)平均占用多少的内存,再根据需求或者相关数据得出单个服务器所要支撑的最大并发负载数,从而计算出Apache服务器的内存需求量。为Apache服务器分配的内存最好能够大于计算得来的需求量。除此之外,硬件最好能够保证有足够快的CPU、足够快的网卡(足够的带宽)、足够快足够大的硬盘。这里的「足够」是指能够满足web应用的实际需求。至于操作系统,最好能够选择一个有利于服务器运行的最新最稳定的版本并安装好了对应的补丁程序。毕竟,随着时代的发展,操作系统也在不断进步。许多操作系统厂商都提供了可以显著改善性能的TCP协议栈和线程库。例如,如果你的操作系统支持sendfile()系统调用,Apache 2.x服务器可以使用sendfile()从而更快地发送静态内容并且占用较少的CPU时间。优化Apache配置1.尽量使用IP地址代替域名在Apache的配置文件中,有许多可以针对具体请求来源进行相应操作的配置,例如 allow from 365mini.com表示允许域名为365mini.com的用户访问。在这种情况下,如果我们知道该域名或主机名与某个IP地址一一对应,则最好使用具体的IP地址来代替域名。否则Apache服务器将要进行多次DNS查询来确定该域名或主机名所对应的IP地址。 注意:可能存在一些例外情况,例如一个IP地址对应多个域名,或者一个域名对应多个IP地址或者对应一个变化的IP地址,此时仍然要使用域名或主机名。一般而言,只有域名或主机名与IP地址具有一一对应关系时,才使用IP地址来代替域名。请根据实际情况作出选择。 2.启用FollowSymLinks选项当Apache处理请求时,如果对应的请求文件所在目录没有启用FollowSymLinks选项,或使用了SymLinksIfOwnerMatch选项,Apache就必须执行额外的系统调用来验证符号连接的安全性。文件名的每一个组成部分都需要一次额外的调用。因此,如果在安全性允许的情况下,为了得到更加良好的运行性能,应当放弃对符号连接的保护,在所有地方都设置FollowSymLinks,并放弃使用SymLinksIfOwnerMatch。 #启用FollowSymLinks选项,如果子目录没有额外的设置,将会继承该设置<Directory />Options FollowSymLinks</Directory> 3.禁用AllowOverride如果Apache的配置文件中允许了AllowOverride指令,则Apache在处理每个请求路径时,都会尝试对文件路径的每一个组成部分都打开该目录下的.htaccess文件。例如,当用户请求访问服务器上的/static/test/hello.html,则Apache将会尝试打开/static/test/.htaccess、/static/.htaccess、/.htaccess三个文件。从而影响服务器的运行性能。因此,如果当前用户拥有Apache配置文件的编辑权限,建议将.htaccess文件中的配置内容直接写在Apache对应的配置文件(一般为httpd.conf)中,并禁用AllowOverride。 #禁用AllowOverride<Directory />AllowOverride None</Directory> 当然,如果用户不具备Apache配置文件的编辑权限,又希望能够对站点进行相应的管理设置,就需要管理员允许AllowOverride,以便于用户编写自己的.htaccess文件。4.尽量不使用通配符在Apache的配置文件中,我们可以指定每个目录下的默认欢迎页面,例如: #以内容协商的方式指定欢迎页面<Directory />DirectoryIndex index</Directory> 使用上述配置后,当访问当前目录时,Apache将会在当前目录下查找名称形如index.*的文件,并根据客户端期望响应的类型自动返回一个最匹配的请求文件(即内容协商)。不过,这样做将会导致一点性能损失,尽管内容协商的好处大于性能的损失,如果你仍然在意这一点性能损失的话,建议你不要使用上述通配符形式的配置,而是根据自己的需要,指定一个完整的index.*文件列表。 #指定欢迎页面<Directory />DirectoryIndex index.html index.cgi index.pl</Directory> 使用上述配置后,Apache将按照从左到右的先后顺序依次查找上述三个名称的文件,并响应最先找到的那个文件。5.选择适当的多路处理模块(MPM)由于多路处理模块的相关内容较多,请参考下面的修改最大并发连接数。6.修改Apache的并发连接配置关于修改Apache的并发连接配置的具体内容,请同样参考请参考下面的修改最大并发连接数。 Apache是一个跨平台的web服务器,由于其简单高效、稳定安全的特性,被广泛应用于计算机技术的各个领域。现在,Apache凭借其庞大的用户数,已成为用户数排名第一的web服务器。尽管如此,在实际的生产环境中,我们仍然不可能直接使用默认配置的Apache来充当服务器。毕竟,为了更充分合理地利用Apache服务器,我们都应该根据自己的实际需要对Apache的默认配置作出一些必要的调整。而针对Apache的优化配置过程中,修改Apache的最大并发连接数 就显得尤为重要。在修改Apache的最大并发连接数 之前,我们需要预先了解一些Apache的相关知识。众所周知,Apache是一个跨平台的、采用模块化设计的服务器。为了应对不同的平台和不同的环境产生的各种不同的需求,也为了在具体的平台或环境下达到最佳的效果,Apache在web服务器的基础功能方面(端口绑定、接收请求等)也同样采用了模块化设计,这个Apache的核心模块就叫做多路处理模块(Multi-ProcessingModule,简称MPM)。Apache针对不同的操作系统提供了多个不同的MPM模块,例如:mpm_beos、mpm_event、mpm_netware、mpmt_os2、mpm_prefork、mpm_winnt、mpm_worker。如果条件允许,我们可以根据实际需求将指定的MPM模块编译进我们自己的Apache中(Apache的源码是开放的,允许用户自行编译)。不过,如果在编译时我们没有选择,Apache将按照如下表格根据不同的操作系统自行选择对应的MPM模块,这也是Apache针对不同平台推荐使用的MPM模块。 不同操作系统上默认的MPM模块 操作系统 MPM模块 描述 Windows mpm_winnt 不用介绍了吧:) Unix/Linux mpm_prefork 不用介绍了吧:) BeOS mpm_beos 由Be公司开发的一种多媒体操作系统,官方版已停止更新。 Netware mpm_netware 由NOVELL公司推出的一种网络操作系统 OS/2 mpmt_os2 一种最初由微软和IBM共同开发的操作系统,现由IBM单独开发(微软放弃OS/2,转而开发Windows) mpm_event模块可以看作是mpm_worker模块的一个变种,不过其具有实验性质,一般不推荐使用。当然,Apache在其官方网站上也提供了根据不同操作系统已经编译好对应MPM模块的成品Apache。你可以点击此处进入Apache官方网站下载。此外,如果我们想要知道某个Apache内部使用的是何种MPM模块,我们可以以命令行的方式进入Apache安装目录in,然后键入命令httpd-l,即可查看到当前Apache内部使用的何种MPM模块。使用httpd-l命令查看编译模块由于在平常的开发工作中,BeOS、NetWare、OS/2等操作系统并不常见,这里我们主要针对Windows和Unix/Linux操作系统上的MPM模块进行讲解。在Windows和Unix/Linux操作系统上,MPM模块主要有mpm_winnt、mpm_prefork、mpm_worker三种。mpm_prefork模块mpm_prefork模块主要应用于Unix/Linux平台的Apache服务器,其主要工作方式是:当Apache服务器启动后,mpm_prefork模块会预先创建多个子进程(默认为5个),当接收到客户端的请求后,mpm_prefork模块再将请求转交给子进程处理,并且每个子进程同时只能用于处理单个请求。如果当前的请求数将超过预先创建的子进程数时,mpm_prefork模块就会创建新的子进程来处理额外的请求。Apache总是试图保持一些备用的或者是空闲的子进程用于迎接即将到来的请求。这样客户端的请求就不需要在接收后等候子进程的产生。由于在mpm_prefork模块中,每个请求对应一个子进程,因此其占用的系统资源相对其他两种模块而言较多。不过mpm_prefork模块的优点在于它的每个子进程都会独立处理对应的单个请求,这样,如果其中一个请求出现问题就不会影响到其他请求。同时,mpm_prefork模块可以应用于不具备线程安全的第三方模块(比如PHP的非线程安全版本),且在不支持线程调试的平台上易于调试。此外,mpm_prefork模块还具有比mpm_prefork模块更高的稳定性。mpm_worker模块mpm_worker模块也主要应用于Unix/Linux平台的Apache服务器,它可以看作是mpm_prefork模块的改进版。mpm_worker模块的工作方式与mpm_prefork模块类似。不过,由于处理相同请求的情况下,基于进程(例如mpm_prefork)比基于线程的处理方式占用的系统资源要多。因此,与mpm_prefork模块不同的是,mpm_worker模块会让每个子进程创建固定数量的服务线程和一个监听线程,并让每个服务线程来处理客户端的请求,监听线程用于监听接入请求并将其传递给服务线程处理和应答。Apache总是试图维持一个备用或是空闲的服务线程池。这样,客户端无须等待新线程或新进程的建立即可得到处理。与mpm_prefork模块相比,mpm_worker模块可以进一步减少系统资源的开销。再加上它也使用了多进程,每个进程又有多个线程,因此它与完全基于线程的处理方式相比,又增加了一定的稳定性。mpm_winnt模块mpm_winnt模块是专门针对Windows操作系统而优化设计的MPM模块。它只创建一个单独的子进程,并在这个子进程中轮流产生多个线程来处理请求。修改MPM模块配置在对Apache的MPM模块具备一定了解后,我们就可以针对不同的MPM模块来修改Apache的最大并发连接数 配置了。1、启用MPM模块配置文件在Apace安装目录/conf/extra目录中有一个名为httpd-mpm.conf的配置文件。该文件主要用于进行MPM模块的相关配置。不过,在默认情况下,Apache的MPM模块配置文件并没有启用。因此,我们需要在httpd.conf文件中启用该配置文件,如下所示: #Server-poolmanagement(MPMspecific)Includeconf/extra/httpd-mpm.conf(去掉该行前面的注释符号#)2、 修改MPM模块配置文件中的相关配置在启动MPM模块配置文件后,我们就可以使用文本编辑器打开该配置文件,我们可以看到,在该配置文件中有许多<IfModule>配置节点,只有Apache使用对应MPM模块时,对应配置才会生效此时,我们就需要根据当前Apache服务器所使用的MPM模块,来修改对应<IfModule>节点下的参数配置。首先,我们来看看mpm_winnt模块下的默认配置: #由于mpm_winnt模块只会创建1个子进程,因此这里对单个子进程的参数设置就相当于对整个Apache的参数设置<IfModulempm_winnt_module>ThreadsPerChild150#推荐设置:小型网站=1000中型网站=1000~2000大型网站=2000~3500MaxRequestsPerChild0#推荐设置:小=10000中或大=20000~100000</IfModule>对应的配置参数作用如下: 参数名称参数作用ThreadsPerChild 每个子进程的最大并发线程数。MaxRequestsPerChild每个子进程允许处理的请求总数。(如果累计处理的请求数超过该值,该子进程将会结束(然后根据需要确定是否创建新的子进程),该值设为0表示不限制请求总数(子进程永不结束)。该参数建议设为非零的值,可以带来以下两个好处:1.可以防止程序中可能存在的内存泄漏无限进行下去,从而耗尽内存。2.给进程一个有限寿命,从而有助于当服务器负载减轻的时候减少活动进程的数量。) 注意:在以上涉及到统计请求数量的参数中,对于KeepAlive的连接,只有第一个请求会被计数。接着,我们再来看看mpm_perfork模块和mpm_worker模块下的默认配置: #mpm_perfork模块<IfModulempm_prefork_module>StartServers5#推荐设置:小=默认中=20~50大=50~100MinSpareServers5#推荐设置:与StartServers保持一致MaxSpareServers10#推荐设置:小=20中=30~80大=80~120MaxClients150#推荐设置:小=500中=500~1500大型=1500~3000MaxRequestsPerChild0#推荐设置:小=10000中或大=10000~500000(此外,还需额外设置ServerLimit参数,该参数最好与MaxClients的值保持一致。)</IfModule>#mpm_worker模块<IfModulempm_worker_module>StartServers2#推荐设置:小=默认中=3~5大=5~10MaxClients150#推荐设置:小=500中=500~1500大型=1500~3000MinSpareThreads25#推荐设置:小=默认中=50~100大=100~200MaxSpareThreads75#推荐设置:小=默认中=80~160大=200~400ThreadsPerChild25#推荐设置:小=默认中=50~100大型=100~200MaxRequestsPerChild0#推荐设置:小=10000中或大=10000~50000(此外,如果MaxClients/ThreadsPerChild大于16,还需额外设置ServerLimit参数,ServerLimit必须大于等于MaxClients/ThreadsPerChild的值。)</IfModule>对应的配置参数作用如下表: 参数名称参数作用StartServers启动Apache时创建的子进程数。MinSpareServers处于空闲状态的最小子进程数。(所谓空闲子进程是指没有正在处理请求的子进程。如果当前空闲子进程数少于MinSpareServers,那么Apache将以最大每秒一个的速度产生新的子进程。只有在非常繁忙机器上才需要调整这个参数。此值不宜过大。)MaxSpareServers处于空闲状态的最大子进程数。(只有在非常繁忙机器上才需要调整这个参数。此值不宜过大。如果你将该指令的值设置为比MinSpareServers小,Apache将会自动将其修改成MinSpareServers+1。)MaxClients允许同时连接的最大请求数量。1、任何超过MaxClients限制的请求都将进入等待队列,直到达到ListenBacklog指令限制的最大值为止2、对于非线程型的MPM(也就是mpm_prefork),MaxClients表示可以用于处理客户端请求的最大子进程数量,默认值是256。要增大这个值,你必须同时增大ServerLimit。3、对于线程型或者混合型的MPM(也就是mpm_beos或mpm_worker),MaxClients表示可以用于处理客户端请求的最大线程数量。线程型的mpm_beos的默认值是50。对于混合型的MPM默认值是16(ServerLimit)乘以25(ThreadsPerChild)的结果。因此要将MaxClients增加到超过16个进程才能提供的时候,你必须同时增加ServerLimit的值。 MinSpareThreads处于空闲状态的最小线程数。(注:不同的MPM对这个指令的处理是不一样的:mpm_worker的默认值是75。这个MPM将基于整个服务器监视空闲线程数。如果服务器中总的空闲线程数太少,子进程将产生新的空闲线程。mpm_netware的默认值是10。既然这个MPM只运行单独一个子进程,此MPM当然亦基于整个服务器监视空闲线程数。mpm_beos和mpmt_os2的工作方式与mpm_netware差不多,mpm_beos的默认值是1;mpmt_os2的默认值是5。) MaxSpareThreads处于空闲状态的最大线程数。(注:不同的MPM对这个指令的处理是不一样的:mpm_worker的默认值是250。这个MPM将基于整个服务器监视空闲线程数。如果服务器中总的空闲线程数太多,子进程将杀死多余的空闲线程。mpm_netware的默认值是100。既然这个MPM只运行单独一个子进程,此MPM当然亦基于整个服务器监视空闲线程数。mpm_beos和mpmt_os2的工作方式与mpm_netware差不多,mpm_beos的默认值是50;mpmt_os2的默认值是10。) 备注:ServerLimit表示Apache允许创建的最大进程数。值得注意的是,Apache在编译时内部有一个硬限制ServerLimit20000(对于mpm_prefork模块为ServerLimit200000)。你不能超越这个限制。使用这个指令时要特别当心。如果将ServerLimit设置成一个高出实际需要许多的值,将会有过多的共享内存被分配。如果将ServerLimit和MaxClients设置成超过系统的处理能力,Apache可能无法启动,或者系统将变得不稳定。 注意:在配置相关参数时,请先保证服务器具备足够的硬件性能(例如:CPU、内存等)。如果发现自启动后,随着服务器的运行时间增加,服务器的内存占用也随之增加,可能是程序中出现内存泄露,请向下调整参数MaxRequestsPerChild的值以降低内存泄露带来的影响,然后尽快找出程序中的问题之所在。

apache和tomcat区别是什么?

1、服务器方面Apache是Web服务器,Tomcat是运行在Apache上的应用服务器Web服务器传送(serves)页面使浏览器可以浏览,Web服务器专门处理HTTP请求(request),但是应用程序服务器是通过很多协议来为应用程序提供(serves)商业逻辑(business logic)。Apache上的应用程序服务器提供的是客户端应用程序可以调用(call)的方法(methods)。它只是一个servlet(jsp也翻译成servlet)容器,可以认为是Apache的扩展,但是可以独立于apache运行。2、支持连接方面Apache是普通服务器,Tomcat是jsp/servlet容器Apache本身只支持html静态普通网页。不过可以通过插件支持PHP,还可以与Tomcat连通(单向Apache连接Tomcat,就是说通过Apache可以访问Tomcat资源,反之不然),Tomcat同时也支持HTML、JSP、ASP、PHP、CGI等,其中CGI需要一些手动调试,不过很容易的。3、侧重点方面Apache侧重于http server,Tomcat侧重于servlet引擎如果以standalone方式运行,功能上Tomcat与apache等效支持JSP,但对静态网页不太理想。扩展资料:Apache是普通服务器,本身只支持html即普通网页,可以通过插件支持php,还可以与Tomcat连通。Apache只支持静态网页,但像Jsp动态网页就需要Tomcat来处理。Apache是有C语言实现的,支持各种特性和模块从而来扩展核心功能;Tomcat是Java编写的,更好的支持Servlet和JSP。

nginx和apache分别是什么?

他们之间的关系大概是这样子:浏览器 《《-》》 nginx或者apache 《《-》》 tomcat或者php-fpmnginx和apache两者的作用相同,都是常见webserver服务器,相互独立也可相符搭配,都是用于浏览器用户过来的http请求,然后把请求结果反应给浏览器。apache是出现比较早的web server,90年代就有了,兼容性好文档全应用广泛。nginx是后起之秀,2000年以后才有的,在web2.0年代性能远远超过apache,是时下比较流行的web server。至于tomcat ,那是用来处理java程序的解释器。本身apache也好,nginx也好,都是无法直接处理java语言的,只能通过设置,当收到java文件请求时,传给后方tomcat处理,再把tomcat的反应回给浏览器。ps:上述中的php-fpm,是用来处理php程序的,作用跟tomcat差不多。怎么选择搭配,这个就看各人的喜欢和开发需要了。我比较常用的就是nginx+php-fpm,apache+tomcat,nginx+tomcat。也试过nginx+apache+php-fpm+tomcat等复杂组合。只要了解每个软件的功能和作用,就可以合理利用自由搭配。等等。希望对你有帮助。
 首页 上一页  1 2 3 4 5 6  下一页  尾页