配置项 |
配置说明 |
storm.zookeeper.servers |
ZooKeeper服务器列表 |
storm.zookeeper.port |
ZooKeeper连接端口 |
storm.local.dir |
storm使用的本地文件系统目录(必须存在并且storm进程可读写) |
storm.cluster.mode |
Storm集群运行模式([distributed|local]) |
storm.local.mode.zmq |
Local模式下是否使用ZeroMQ作消息系统,如果设置为false则使用java消息系统。默认为false |
storm.zookeeper.root |
ZooKeeper中Storm的根目录位置 |
storm.zookeeper.session.timeout |
客户端连接ZooKeeper超时时间 |
storm.id |
运行中拓扑的id,由storm name和一个唯一随机数组成。 |
nimbus.host |
nimbus服务器地址 |
nimbus.thrift.port |
nimbus的thrift监听端口 |
nimbus.childopts |
通过storm-deploy项目部署时指定给nimbus进程的jvm选项 |
nimbus.task.timeout.secs |
心跳超时时间,超时后nimbus会认为task死掉并重分配给另一个地址。 |
nimbus.monitor.freq.secs |
nimbus检查心跳和重分配任务的时间间隔.注意如果是机器宕掉nimbus会立即接管并处理。 |
nimbus.supervisor.timeout.secs |
supervisor的心跳超时时间,一旦超过nimbus会认为该supervisor已死并停止为它分发新任务. |
nimbus.task.launch.secs |
task启动时的一个特殊超时设置.在启动后第一次心跳前会使用该值来临时替代nimbus.task.timeout.secs. |
nimbus.reassign |
当发现task失败时nimbus是否重新分配执行。默认为真,不建议修改。 |
nimbus.file.copy.expiration.secs |
nimbus判断上传/下载链接的超时时间,当空闲时间超过该设定时nimbus会认为链接死掉并主动断开 |
ui.port |
Storm UI的服务端口 |
drpc.servers |
DRPC服务器列表,以便DRPCSpout知道和谁通讯 |
drpc.port |
Storm DRPC的服务端口 |
supervisor.slots.ports |
supervisor上能够运行workers的端口列表.每个worker占用一个端口,且每个端口只运行一个worker.通过这项配置可以调整每台机器上运行的worker数.(调整slot数/每机) |
supervisor.childopts |
在storm-deploy项目中使用,用来配置supervisor守护进程的jvm选项 |
supervisor.worker.timeout.secs |
supervisor中的worker心跳超时时间,一旦超时supervisor会尝试重启worker进程. |
supervisor.worker.start.timeout.secs |
supervisor初始启动时,worker的心跳超时时间,当超过该时间supervisor会尝试重启worker。因为JVM初始启动和配置会带来的额外消耗,从而使得第一次心跳会超过supervisor.worker.timeout.secs的设定 |
supervisor.enable |
supervisor是否应当运行分配给他的workers.默认为true,该选项用来进行Storm的单元测试,一般不应修改. |
supervisor.heartbeat.frequency.secs |
supervisor心跳发送频率(多久发送一次) |
supervisor.monitor.frequency.secs |
supervisor检查worker心跳的频率 |
worker.childopts |
supervisor启动worker时使用的jvm选项.所有的”%ID%”字串会被替换为对应worker的标识符 |
worker.heartbeat.frequency.secs |
worker的心跳发送时间间隔 |
task.heartbeat.frequency.secs |
task汇报状态心跳时间间隔 |
task.refresh.poll.secs |
task与其他tasks之间链接同步的频率.(如果task被重分配,其他tasks向它发送消息需要刷新连接).一般来讲,重分配发生时其他tasks会理解得到通知。该配置仅仅为了防止未通知的情况。 |
topology.debug |
如果设置成true,Storm将记录发射的每条信息。 |
topology.optimize |
master是否在合适时机通过在单个线程内运行多个task以达到优化topologies的目的. |
topology.workers |
执行该topology集群中应当启动的进程数量.每个进程内部将以线程方式执行一定数目的tasks.topology的组件结合该参数和并行度提示来优化性能 |
topology.ackers |
topology中启动的acker任务数.Acker保存由spout发送的tuples的记录,并探测tuple何时被完全处理.当Acker探测到tuple被处理完毕时会向spout发送确认信息.通常应当根据topology的吞吐量来确定acker的数目,但一般不需要太多.当设置为0时,相当于禁用了消息可靠性,storm会在spout发送tuples后立即进行确认. |
topology.message.timeout.secs |
topology中spout发送消息的最大处理超时时间.如果一条消息在该时间窗口内未被成功ack,Storm会告知spout这条消息失败。而部分spout实现了失败消息重播功能。 |
topology.kryo.register |
注册到Kryo(Storm底层的序列化框架)的序列化方案列表.序列化方案可以是一个类名,或者是com.esotericsoftware.kryo.Serializer的实现. |
topology.skip.missing.kryo.registrations |
Storm是否应该跳过它不能识别的kryo序列化方案.如果设置为否task可能会装载失败或者在运行时抛出错误. |
topology.max.task.parallelism |
在一个topology中能够允许的最大组件并行度.该项配置主要用在本地模式中测试线程数限制. |
topology.max.spout.pending |
一个spout task中处于pending状态的最大的tuples数量.该配置应用于单个task,而不是整个spouts或topology. |
topology.state.synchronization.timeout.secs |
组件同步状态源的最大超时时间(保留选项,暂未使用) |
topology.stats.sample.rate |
用来产生task统计信息的tuples抽样百分比 |
topology.fall.back.on.java.serialization |
topology中是否使用java的序列化方案 |
zmq.threads |
每个worker进程内zeromq通讯用到的线程数 |
zmq.linger.millis |
当连接关闭时,链接尝试重新发送消息到目标主机的持续时长.这是一个不常用的高级选项,基本上可以忽略. |
java.library.path |
JVM启动(如Nimbus,Supervisor和workers)时的java.library.path设置.该选项告诉JVM在哪些路径下定位本地库. |
相关推荐
HADOOP 安装配置实践手册 0 Linux 基础 1 Hadoop 安装配置 2 HDFS 编程 3 MYSQL 4 HIVE 5 Sqoop 6 Storm 7 Kafka 8 RDS 9 词云
计算机大三大数据 方向学生 必备,大二就可以提前准备,预习预习,熟悉熟悉linux相关基本指令,大三学起来轻松一点,这里面包含整个学期的实验实践教程代码等
zookeeper,kafka,storm,flume,spark的部署安装。安装之前要确认安装好了oracle jdk,如果系统自带OpenJDK,需要先卸载,可以参考cdh的...另:文档提供的配置文件只提供说明,具体可以从随付的相应的配置文件中拷贝。
暴风雪SnowStorm是一种音频流传输工具,旨在简化运行互联网广播电台的过程入门这些说明将为您提供在本地计算机上运行并运行的项目的副本,以进行开发和测试。 有关如何在实时系统上部署项目的注释,请参阅部署。先决...
读者可以通过学习本论文,掌握Hadoop的基本概念、工作原理和核心组件,了解其在实际场景中的应用,并能够根据需求进行相应的配置和优化。 其他说明: 本论文采用了系统化的研究方法,包括文献综述、理论分析和实证...
说明了一些 Kafka 和 Storm 设计模式: 正式的 Kafka 层,对协作组件隐藏主题实现和配置细节将 spout 和 bolt 逻辑分解为三层(特定于风暴、特定于拓扑和纯业务逻辑),允许关注点分离、更简单的测试和更少的开发...
延云YDB安装与使用说明书 超千亿规模的数据,数据库根本就运行不了,怎么办? 数据从产生到能够查询,要延迟一天才能看到,如何能做到分钟级延迟? 50台规模的hadoop集群,几亿条数据,一个MR任务要运行几小时,...
此示例适用于 Storm 示例 Web 应用程序,并且需要运行 Web 应用程序、Redis Spring XD(单节点)和 Spring XD shell。 该项目包括以下 XD 自定义模块: Redis源码(近期将由XD提供) 产品类别丰富 用户历史...
延云YDB安装与使用说明书 超千亿规模的数据,数据库根本就运行不了,怎么办? 数据从产生到能够查询,要延迟一天才能看到,如何能做到分钟级延迟? 50台规模的hadoop集群,几亿条数据,一个MR任务要运行几小时,每天...
详细描述CDH集群部署 1规划服务器 2 2安装和配置Mysql数据库 4 3离线安装Cloudera Manager5和CDH5 7 3.1创建本地yum软件源 7 3.2使用本地类库安装CM 10 ...6.安装Storm 25 7.附录. 25 7.1 CDH安装部署问题记录 25
Storm,Hadoop,Spark,Cassandra)开发,每种技术通常具有数十种可配置参数,应对其进行仔细调整以使其达到最佳性能。 BO4CO可帮助大数据系统的最终用户(例如数据科学家或中小型企业)自动调整系统。 建筑学 下图...
Apache HTTPD和NGINX访问日志解析器 ...关于Apache HTTPD令牌%{format} t的特别说明 引用 %{format}t: The time, in the form given by format, which should be in strftime(3) format. (potentially locali
2. 低延迟:数据从产生到能查询,根据配置的不同一般在十几秒到几分钟。 3. 查询快-高性能 :常规查询毫秒级响应 常规统计秒级响应。 4. 实时搜索:长文本字段可以根据关键词进行全文检索模糊匹配,并且有较高的性能...
下载地址: : : : 使用说明下载git clone https://github.com/xuwujing/springBoot-study.git使用秉着开箱即用的原则,这些工程只需下载之后,更改相应的配置(MySql,Es,Redis等地址配置),运行main方法,即可...
这套脚本安装一个3台机器的zookeeper、kafka、storm、hadoop、elasticsearch、hbase、flink、clickhouse集群,从无到有都只需要4分钟,而且脚本极其简单。 开发规则 充分利用"约定大于配置"使脚本简化,系统hostname...
它主要参考当前流行的实时计算框架Storm的任务分发和Spark Streaming的Mini-Batch处理思想设计,设计目的是为了降低当前大数据时代的分布式实时计算入门门槛,方便初中级学者上手,快速实现企业所需计算实时性要求...
在Apache Storm中实现一个系统,该系统能够检测动态网络环境中的流网络数据异常。 该系统使用2004年Ide&Kashima论文“计算机系统中基于特征空间的异常检测”中说明的无监督机器学习技术作为其异常检测模块的基础。 ...
假设此说明书安装在storm nimbus 节点上。 要求 暂无特殊要求 属性 钥匙 类型 描述 默认 [:monasca_thresh][:data_bag] 细绳 要使用的数据包 monasca_thresh 资料袋 node[:monasca_thresh][:data_bag] 数据包用于...
声明 :读者可以随意使用本源码,但由于本工程定位是“示例”,不是为生产应用而设计,第一追求的是读者能用最简单的环境、最少的操作就能将示例运行起来,所以这里不会有NoSQL、消息队列、配置下发服务等生产环境下...