<plugin><groupId>org.apache.maven.plugins</groupId><artifactId>maven-surefire-plugin</artifactId><configuration><skip>true</skip></configuration></plugin>
这段代码主要是修改构建过程中跳过junit测试,此项可以不改,使用命令行模式:mvn clean install -DskipTest但是到这里大部分人还是会执行失败,接着修改
由于saiku-ui构建的时候会执行一个文件“minify.patch”,在saiku-ui的pom文件中找到这行代码,注释掉,然后,然后还是先别急着构建的,还是有问题的,继续修改之前我构建的时候,顺手把plugin给删了,所以没构建,今天构建plugin的时候,发现无论如何有几个文件报错于是我放弃了,毕竟我现在还用不到这个plugin在saiku目录下的pom文件中,将<module>saiku-bi-platform-plugin-p5</module>一行注释掉,构建就可以了
如果你导入到eclipse中了,那么saiku项目右键-->Run As -->Maven install即可
如果没有导入到eclipse中,那么使用脚本构建
mvn clean install -DskipTest
build成功后,会在saiku-server的target目录中出现如下一些文件
转载请注明出处,也不枉我辛苦一番,谢谢
重点在选中文件,打开
文件都在,然后解压,启动即可
by 刘迎光@萤火虫工作室
OpenBI交流群:495266201
MicroService 微服务交流群:217722918
mail: liuyg#liuyingguang.cn
博主首页(防止爬虫):http://blog.liuying
by 刘迎光@萤火虫工作室
OpenBI交流群:495266201
MicroService 微服务交流群:217722918
mail: liuyg#liuyingguang.cn
博主首页(==防止爬虫==):http://blog.liuyingguang.cn
<repository> <id>mine</id> <name>public Releases</name> <layout>default</layout> </repository> <repository> <id>mine-meteorite-bi-release</id> <name>publ |
一、安装jdk
export JAVA_HOME=/usr/java/jdk1.6.0_27export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jarexport path=$PATH:$JAVA_HOME/bin
使配置生效
# vi hadoop-env.sh添加如下内容
export JAVA_HOME=/usr/java/jdk1.6.0_27/
3、配置conf/hdfs-site.xml,Hadoop中的HDFS的配置,配置的备份方式默认是3,在单机版的Hadoop中,需要设置为1<configuration><property><name>fs.default.name</name><value>hdfs://localhost:9000</value></property></configuration>
<configuration><property>
三台机器配置(配置etc/hosts):
192.168.10.128 master
192.168.10.135 slave1
192.168.10.136 slave2
# vi /etc/sysconfig/network
二、配置三台主机的Hadoop文件
# vi conf/hadoop-env.sh添加如下内容
export JAVA_HOME=/usr/java/jdk1.6.0_27/
3、配置conf/hdfs-site.xml,Hadoop中的HDFS的配置,配置的备份方式默认是3,在单机版的Hadoop中,需要设置为1<configuration><property><name>fs.default.name</name><value>hdfs://master:9000</value></property><property><name>hadoop.tmp.dir</name><value>/tmp</value></property></configuration>
4、配置conf/mapred-site.xml,Hadoop中MapReduce配置文件,配置JobTracker的地址和端口(value中的配置,在master中写master,slave中,分别写slave1/slave2)<configuration><property><name>dfs.replication</name><value>2</value></property></configuration>