范文健康探索娱乐情感热点
投稿投诉
热点动态
科技财经
情感日志
励志美文
娱乐时尚
游戏搞笑
探索旅游
历史星座
健康养生
美丽育儿
范文作文
教案论文
国学影视

大数据之HIVE入门(三)

  安装hadoop
  用root账号建立一个软件安装目录。mkdir -p /app chown cloud.cloud /app
  将已下载好的hadoop安装包等通过putty套件中的psftp上传到已安装好的虚拟机 /app 目录。
  题外话:psftp传输请用 open 192.168.10、 输入root、 输入 密码、lcd d:xx 改变本地目录、cd /app 改变远程目录。put 文件名上传、quit退出。
  方便的话可以下载securefx、xshell、secureCRT等工具完成。当然也可以直接用wget在linux中下载.cd /app tar -zxvf hadoop-2.10.1.tar.gz ln -s hadoop-2.10.1.tar.gz hadoopecho "master" >/app/hadoop/etc/hadoop/slaves #设定有集群服务器别名列表,由于是伪分布只填写本机器名称。配置core-site.xmlvi /app/hadoop/etc/hadoop/core-site.xml  fs.defaultFS hdfs://master:8020         fs.default.name       hdfs://master:9000      hadoop.tmp.dir /tmp   配置hdfs-site.xml  dfs.namenode.name.dir /app/hadoop/hadoop/dfs/name    dfs.datanode.data.dir /app/hadoop/hadoop/dfs/data   dfs.replication 1  配置yarn-site.xml                                mapreduce.framework.name                   yarn                 yarn.resourcemanager.scheduler.class     org.apache.hadoop.yarn.server.resourcemanager.scheduler.capacity.CapacityScheduler    配置队列名称 capacity-scheduler.xml 默认即可。配置hadoop环境变量
  vi ~/.bashrcexport JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk export JRE_HOME=$JAVA_HOME/jre export CLASSPATH=$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH HADOOP_HOME=/app/hadoop export HADOOP_HOME PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH export PATH
  运行. ~/.bashrc  #使参数生效。格式化namenodehadoop namenode -format
  注意:这个命令只需运行一次,每次运行它会生成一个新clusterID,从而造成集群ID和版本号不一致,从而不能正常启动。需要手动删除hadoop/dfs目录再重新格式化即可,当然也可手动修改id。启动集群start-dfs.sh start-yarn.sh --------------启动完成可用jps看到如下进程hadoop安装完成---------------------- jps 8769 SecondaryNameNode 9096 NodeManager 8444 NameNode 8988 ResourceManager 8589 DataNode 9150 JpsHive安装解压安装文件tar -zxvf apache-hive-2.3.9-bin.tar.gz ln -s apache-hive-2.3.9-bin hive配置环境变量 ~/.bashrcexport HIVE_HOME=/app/hive export PATH=$PATH:$HIVE_HOME/bin:$HIVE_HOME/conf export HADOOP_CONF_DIR=${HADOOP_HOME}/etc/hadoop  export HADOOP_COMMON_LIB_NATIVE_DIR=${HADOOP_HOME}/lib/native  export HADOOP_OPTS="-Djava.library.path=${HADOOP_HOME}/lib"  export HIVE_CONF_DIR=${HIVE_HOME}/conf  export CLASS_PATH=.:${JAVA_HOME}/lib:${HIVE_HOME}/lib:$CLASS_PATH export PATH=.:${HIVE_HOME}/bin:$PATH export JAVA_LIBRARY_PATH=${HADOOP_HOME}/lib/native复制hive meta的mysql驱动
  用cloud账号复制mysql驱动mysql-connector-java.jar到/app/hive/lib下cp /app/mysql-connector-java.jar /app/hive/lib/
  mysql安装
  mysql用于存储hive元数据,该操作需要切换到root账号。准备好mysql-5.7.28-1.el7.x86_64.rpm-bundle.tar文件,笔者已经在网盘中准备好了该文件,请下载后上传到虚拟机中/app目录。tar xvf mysql-5.7.28-1.el7.x86_64.rpm-bundle.tar rpm -ivh mysql-community-server-5.7.28-1.el7.x86_64.rpm mysql-community-client-5.7.28-1.el7.x86_64.rpm mysql-community-devel-5.7.28-1.el7.x86_64.rpm mysql-community-libs-* mysql-community-common-5.7.28-1.el7.x86_64.rpm mysql-community-embedded*如果安装过*程中报错,说明系统中包冲突。 error: Failed dependencies: mariadb-libs is obsoleted by mysql-community-libs-5.7.28-1.el7.x86_64 mariadb-libs is obsoleted by mysql-community-libs-compat-5.7.28-1.el7.x86_64 只需要remove掉即可解决冲突 ---------------------------------------------------------------------- yum remove mariadb-libs -ysystemctl start mysqld     #启动mysql systemctl enable mysqld #设成开机自启
  配置/etc/my.cnf,完成后重启下systemctl restart mysqld[client] default-character-set = utf8mb4  [mysql] default-character-set = utf8mb4 [mysqld] datadir=/var/lib/mysql socket=/var/lib/mysql/mysql.sock character-set-server = utf8mb4 collation-server = utf8mb4_unicode_ci init_connect="SET NAMES utf8mb4" validate_password=off #关闭复杂密码校验功能,生产环境请不要这样做 symbolic-links=0 log-error=/var/log/mysqld.log pid-file=/var/run/mysqld/mysqld.pid
  取到mysql系统 root 密码grep "A temporary password" /var/log/mysqld.log ---------------------------------------------------------  2022-02-20T07:06:08.776350Z 1 [Note] A temporary password is generated for root@localhost: hylg#9;dlsSC   看到返回的内容,则初始的root密码为 hylg#9;dlsSC  --------------------------------------------------------
  修改root密码:mysqladmin -uroot -p"hylg#9;dlsSC" password 123456
  建立hive meta库和授权create database hive; grant all privileges on hive.* to "hive"@"%" identified by "123456"; flush privileges;设置hive-site.xmlcd /app/hive/conf cp /app/hive/conf/hive-default.xml.template /app/hive/conf/hive-site.xml vi /app/hive/conf/hive-site.xml
  分别搜索/ConnectionPassword /ConnectionURL /ConnectionUserName /hive.exec.local.scratchdir /hive.downloaded.resources.dir 在其value项中填写我们前面设置的用户名、密码、连接数据库的参数、临时目录等。      hive.exec.local.scratchdir     /tmp     Local scratch space for Hive jobs          hive.downloaded.resources.dir     /tmp     Temporary local directory for added resources in the remote file system.         javax.jdo.option.ConnectionUserName     hive     Username to use against metastore database             javax.jdo.option.ConnectionPassword     123456     password to use against metastore database         javax.jdo.option.ConnectionURL     jdbc:mysql://192.168.1.10:3306/hive?createDatabaseIfNotExist=true            JDBC connect string for a JDBC metastore.       To use SSL to encrypt/authenticate the connection, provide database-specific SSL flag in the connection URL.       For example, jdbc:postgresql://myhost/db?ssl=true for postgres database.      设置hive-env.shcp hive-env.sh.template hive-env.sh vi hive-env.sh 
  增加以下参数:export  HADOOP_HOME=/app/hadoop export  HIVE_CONF_DIR=/app/hive/conf export  HIVE_AUX_JARS_PATH=/app/hive/lib初始化hive meta信息表schematool -dbType mysql -initSchema至此,恭喜各位hive已安装完成了,大家感兴趣还可以把spark和hbase安装上,这个以后我们再介绍。[cloud@master conf]$ hive -e "show databases;" which: no hbase in (.:/app/hive/bin:/app/hadoop/bin:/app/hadoop/sbin:/usr/lib/jvm/java-1.8.0-openjdk/bin:/usr/lib/jvm/java-1.8.0-openjdk/jre/bin:/usr/lib/jvm/java-1.8.0-openjdk/bin:/usr/lib/jvm/java-1.8.0-openjdk/jre/bin:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/root/bin:/app/hive/bin:/app/hive/conf) SLF4J: Class path contains multiple SLF4J bindings. SLF4J: Found binding in [jar:file:/app/apache-hive-2.3.9-bin/lib/log4j-slf4j-impl-2.6.2.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J: Found binding in [jar:file:/app/hadoop-2.10.1/share/hadoop/common/lib/slf4j-log4j12-1.7.25.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation. SLF4J: Actual binding is of type [org.apache.logging.slf4j.Log4jLoggerFactory]  Logging initialized using configuration in jar:file:/app/apache-hive-2.3.9-bin/lib/hive-common-2.3.9.jar!/hive-log4j2.properties Async: true OK default Time taken: 5.277 seconds, Fetched: 1 row(s)yarn监控地址: http://192.168.1.10:8088/cluster/

发力智能建造碧桂园打造绿色生态建筑随着人工智能机器人5G新材料等技术与建筑业的融合,智能建造的时代正在到来。记者了解到,今年两会,全国政协委员碧桂园集团董事会主席杨国强围绕智能建造带来了关于加快应用智能建造产品技术堪称行业标杆,500eTOPS自动驾驶芯片还有软实力电子发烧友网报道(文吴子鹏)2020年底,中国交通运输部印发关于促进道路交通自动驾驶技术发展和应用的指导意见。意见指出,到2025年,自动驾驶基础理论研究取得积极进展,道路基础设施快手电商太垃圾了大家千万别上当受骗!!!大家千万不要在快手极速版上买东西,全部是骗人的,视频宣传的照片与商家邮寄来的商品完全不一样。因为快手上的视频广告做宣传,而且现场演示其功能,东西都不贵,非常印度支付宝Paytm目前比特币处在灰色地带,若监管明朗则考虑推出相关产品彭博11月3日报道,如果印度当局打消对加密货币的监管不确定性的话,印度版支付宝Paytm将考虑比特币产品。据报道,Paytm首席财务官MadhurDeora在接受采访时表示,围绕这中国电信与华为公司联合创新项目获得2020年度国家科技进步奖二等奖2021年11月3日,在2020年度国家科学技术奖励大会上,由中国电信股份有限公司参与完成的超大容量智能骨干路由器技术创新及产业化科技成果获得国家科技进步奖二等奖。该项目主要是成功华米GTR3Pro智能手表来了!内置自研系统一键测量,30天超长续航作者松鼠摄影Kyralll来源极果编辑部Amazfit跃我GTR3Pro首次搭载了PumpBeats血压监测引擎,未来,华米科技将通过与北京大学第一医院合作,共同研究腕部智能血压手KINGKABLE发布业界首款RGB灯效光纤HDMI2。1版8K线代号变色龙近日,KINGKABLE在深圳正式发布全新产品系列ANOLE变色龙系列光纤HDMI线2。1版。以ANOLE变色龙作为产品名,显然代表了这类产品的独特性能,即支持变色功能。KINGKMacBookProM1Win11运行英雄联盟测试ParallelsDesktop在macbookprom116g通过最新的pd17。1和windows11arm,玩英雄联盟体验怎么样?自己通过实际测试分享下游戏体验。首先可以从ParallelsDesktop官低代码发展正当时,中国将取代美国成为低代码开发的全球领导者企业低代码应用开发全球领导者Mendix,aSiemensbusiness于今日发布了全球低代码发展现状调研报告,即2021低代码现状回顾过去,展望未来。调研结果显示从全球角度,企数科日报丨哪吒新车搭载360安全卫士腾讯高管回应腾讯不造车01腾讯公布全新智慧出行业务版图,钟翔平回应腾讯不造车11月4日,在2021腾讯数字生态大会智慧出行论坛上,腾讯公布了全新升级的智慧出行业务版图,发布智能座舱自动驾驶数字营销出行服前沿科技助力音乐行业数字化发展TME科技乐享季第四期看点多随着互联网技术的迅猛发展,数字经济正成为我国经济增长的重要引擎,在数字音乐产业迈入高速发展的新阶段,技术驱动态势更加明显。10月31日,由腾讯音乐娱乐集团(TME)主办的TME科技
我今天看到的10张好照片(168)CayetanoGonzalez这是这一系列的第168次推送。逐相君每次会推送10张我今天看到的好照片。在你参观照片之前,我不愿意给照片加任何文字阐释。这可能会是一种干扰。废话不说我今天看到的10张好照片(169)NathanLanders这是这一系列的第169次推送。逐相君每次会推送10张我今天看到的好照片。在你参观照片之前,我不愿意给照片加任何文字阐释。这可能会是一种干扰。废话不说,一起我今天看到的10张好照片(175)EfeCaylak这是这一系列的第175次推送。逐相君每次会推送10张我今天看到的好照片。在你参观照片之前,我不愿意给照片加任何文字阐释。这可能会是一种干扰。废话不说,一起逐相Ef我今天看到的10张好照片(160)LenaigChatel这是这一系列的第160次推送。逐相君每次会推送10张我今天看到的好照片。在你参观照片之前,我不愿意给照片加任何文字阐释。这可能会是一种干扰。废话不说,一起逐我今天看到的10张好照片(171)LauraZalenga这是这一系列的第171次推送。逐相君每次会推送10张我今天看到的好照片。在你参观照片之前,我不愿意给照片加任何文字阐释。这可能会是一种干扰。废话不说,一起逐人愿意做一件事有时不为挣钱,是因为只有这样做才对文图逐相君今天是我跟随曙光救援队来到河南灾区的第15天。两年了,我无论如何想不到,自己重回河南老家,居然是因为郑州下了一场特大暴雨。我更想不到,如今又因郑州疫情的爆发而进退两难。两互认证杉岩存储系统与宝德自强服务器完成兼容性互认证测试近日,宝德自强系列服务器与杉岩分布式存储系统正式完成互认证测试。测试结果显示,双方产品兼容性良好整体运行流畅且性能表现优异,可满足用户安全性可靠性及关键性应用需求。随着云计算大数据入驻上海鲲鹏生态创新中心宝德风采展示当前,随着5GIoT智能终端自动驾驶等发展,行业应用越来越多样化,端云协同智能边缘海量数据处理的场景也越来越多应用多样性也带来数据的多样性,数字文本图片视频图像结构数据非结构数据等赞!宝德AI加速计算服务器PR4908R又揽一奖在21世纪的时间轴上,2020必将是载入史册的一年。伴随着人工智能云计算和5G为代表的新一轮科技革命进程,社会正在加速朝着智能化网联化和共享化的方向迈进。在这风云变幻的这一年中,宝我今天看到的10张好照片(188)DavidStewart这是这一系列的第188次推送。逐相君每次会推送10张我今天看到的好照片。在你参观照片之前,我不愿意给照片加任何文字阐释。这可能会是一种干扰。废话不说,一起逐我今天看到的10张好照片(190)这是这一系列的第190次推送。逐相君每次会推送10张我今天看到的好照片。在你参观照片之前,我不愿意给照片加任何文字阐释。这可能会是一种干扰。废话不说,一起逐相VassilisVas