Hive启动错误_hivemetastore.audit: ugi-程序员宅基地

技术标签: Hive  大数据  

不知道怎么回事,启动hive出现这种错误。

SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/opt/software/hive/lib/log4j-slf4j-impl-2.6.2.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/opt/software/hadoop/share/hadoop/common/lib/slf4j-log4j12-1.7.10.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
SLF4J: Actual binding is of type [org.apache.logging.slf4j.Log4jLoggerFactory]

Logging initialized using configuration in jar:file:/opt/software/hive/lib/hive-common-2.2.0.jar!/hive-log4j2.properties Async: true
Exception in thread “main” java.lang.RuntimeException: org.apache.hadoop.ipc.RemoteException(java.io.IOException): Exceeded the configured number of objects 3 in the filesystem.
at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.checkFsObjectLimit(FSNamesystem.java:5902)
at org.apache.hadoop.hdfs.server.namenode.FSDirMkdirOp.mkdirs(FSDirMkdirOp.java:79)
at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.mkdirs(FSNamesystem.java:3872)
at org.apache.hadoop.hdfs.server.namenode.NameNodeRpcServer.mkdirs(NameNodeRpcServer.java:984)
at org.apache.hadoop.hdfs.protocolPB.ClientNamenodeProtocolServerSideTranslatorPB.mkdirs(ClientNamenodeProtocolServerSideTranslatorPB.java:634)
at org.apache.hadoop.hdfs.protocol.proto.ClientNamenodeProtocolProtos$ClientNamenodeProtocol 2. c a l l B l o c k i n g M e t h o d ( C l i e n t N a m e n o d e P r o t o c o l P r o t o s . j a v a ) a t o r g . a p a c h e . h a d o o p . i p c . P r o t o b u f R p c E n g i n e 2.callBlockingMethod(ClientNamenodeProtocolProtos.java) at org.apache.hadoop.ipc.ProtobufRpcEngine 2.callBlockingMethod(ClientNamenodeProtocolProtos.java)atorg.apache.hadoop.ipc.ProtobufRpcEngineServer P r o t o B u f R p c I n v o k e r . c a l l ( P r o t o b u f R p c E n g i n e . j a v a : 616 ) a t o r g . a p a c h e . h a d o o p . i p c . R P C ProtoBufRpcInvoker.call(ProtobufRpcEngine.java:616) at org.apache.hadoop.ipc.RPC ProtoBufRpcInvoker.call(ProtobufRpcEngine.java:616)atorg.apache.hadoop.ipc.RPCServer.call(RPC.java:982)
at org.apache.hadoop.ipc.Server$Handler 1. r u n ( S e r v e r . j a v a : 2217 ) a t o r g . a p a c h e . h a d o o p . i p c . S e r v e r 1.run(Server.java:2217) at org.apache.hadoop.ipc.Server 1.run(Server.java:2217)atorg.apache.hadoop.ipc.ServerHandler 1. r u n ( S e r v e r . j a v a : 2213 ) a t j a v a . s e c u r i t y . A c c e s s C o n t r o l l e r . d o P r i v i l e g e d ( N a t i v e M e t h o d ) a t j a v a x . s e c u r i t y . a u t h . S u b j e c t . d o A s ( S u b j e c t . j a v a : 422 ) a t o r g . a p a c h e . h a d o o p . s e c u r i t y . U s e r G r o u p I n f o r m a t i o n . d o A s ( U s e r G r o u p I n f o r m a t i o n . j a v a : 1758 ) a t o r g . a p a c h e . h a d o o p . i p c . S e r v e r 1.run(Server.java:2213) at java.security.AccessController.doPrivileged(Native Method) at javax.security.auth.Subject.doAs(Subject.java:422) at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1758) at org.apache.hadoop.ipc.Server 1.run(Server.java:2213)atjava.security.AccessController.doPrivileged(NativeMethod)atjavax.security.auth.Subject.doAs(Subject.java:422)atorg.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1758)atorg.apache.hadoop.ipc.ServerHandler.run(Server.java:2213)

at org.apache.hadoop.hive.ql.session.SessionState.start(SessionState.java:614)
at org.apache.hadoop.hive.ql.session.SessionState.beginStart(SessionState.java:549)
at org.apache.hadoop.hive.cli.CliDriver.run(CliDriver.java:750)
at org.apache.hadoop.hive.cli.CliDriver.main(CliDriver.java:686)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
at java.lang.reflect.Method.invoke(Method.java:498)
at org.apache.hadoop.util.RunJar.run(RunJar.java:221)
at org.apache.hadoop.util.RunJar.main(RunJar.java:136)

Caused by: org.apache.hadoop.ipc.RemoteException(java.io.IOException): Exceeded the configured number of objects 3 in the filesystem.
at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.checkFsObjectLimit(FSNamesystem.java:5902)
at org.apache.hadoop.hdfs.server.namenode.FSDirMkdirOp.mkdirs(FSDirMkdirOp.java:79)
at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.mkdirs(FSNamesystem.java:3872)
at org.apache.hadoop.hdfs.server.namenode.NameNodeRpcServer.mkdirs(NameNodeRpcServer.java:984)
at org.apache.hadoop.hdfs.protocolPB.ClientNamenodeProtocolServerSideTranslatorPB.mkdirs(ClientNamenodeProtocolServerSideTranslatorPB.java:634)
at org.apache.hadoop.hdfs.protocol.proto.ClientNamenodeProtocolProtos$ClientNamenodeProtocol 2. c a l l B l o c k i n g M e t h o d ( C l i e n t N a m e n o d e P r o t o c o l P r o t o s . j a v a ) a t o r g . a p a c h e . h a d o o p . i p c . P r o t o b u f R p c E n g i n e 2.callBlockingMethod(ClientNamenodeProtocolProtos.java) at org.apache.hadoop.ipc.ProtobufRpcEngine 2.callBlockingMethod(ClientNamenodeProtocolProtos.java)atorg.apache.hadoop.ipc.ProtobufRpcEngineServer P r o t o B u f R p c I n v o k e r . c a l l ( P r o t o b u f R p c E n g i n e . j a v a : 616 ) a t o r g . a p a c h e . h a d o o p . i p c . R P C ProtoBufRpcInvoker.call(ProtobufRpcEngine.java:616) at org.apache.hadoop.ipc.RPC ProtoBufRpcInvoker.call(ProtobufRpcEngine.java:616)atorg.apache.hadoop.ipc.RPCServer.call(RPC.java:982)
at org.apache.hadoop.ipc.Server$Handler 1. r u n ( S e r v e r . j a v a : 2217 ) a t o r g . a p a c h e . h a d o o p . i p c . S e r v e r 1.run(Server.java:2217) at org.apache.hadoop.ipc.Server 1.run(Server.java:2217)atorg.apache.hadoop.ipc.ServerHandler 1. r u n ( S e r v e r . j a v a : 2213 ) a t j a v a . s e c u r i t y . A c c e s s C o n t r o l l e r . d o P r i v i l e g e d ( N a t i v e M e t h o d ) a t j a v a x . s e c u r i t y . a u t h . S u b j e c t . d o A s ( S u b j e c t . j a v a : 422 ) a t o r g . a p a c h e . h a d o o p . s e c u r i t y . U s e r G r o u p I n f o r m a t i o n . d o A s ( U s e r G r o u p I n f o r m a t i o n . j a v a : 1758 ) a t o r g . a p a c h e . h a d o o p . i p c . S e r v e r 1.run(Server.java:2213) at java.security.AccessController.doPrivileged(Native Method) at javax.security.auth.Subject.doAs(Subject.java:422) at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1758) at org.apache.hadoop.ipc.Server 1.run(Server.java:2213)atjava.security.AccessController.doPrivileged(NativeMethod)atjavax.security.auth.Subject.doAs(Subject.java:422)atorg.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1758)atorg.apache.hadoop.ipc.ServerHandler.run(Server.java:2213)

at org.apache.hadoop.ipc.Client.call(Client.java:1476)
at org.apache.hadoop.ipc.Client.call(Client.java:1413)
at org.apache.hadoop.ipc.ProtobufRpcEngine$Invoker.invoke(ProtobufRpcEngine.java:229)
at com.sun.proxy.$Proxy35.mkdirs(Unknown Source)
at org.apache.hadoop.hdfs.protocolPB.ClientNamenodeProtocolTranslatorPB.mkdirs(ClientNamenodeProtocolTranslatorPB.java:563)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
at java.lang.reflect.Method.invoke(Method.java:498)
at org.apache.hadoop.io.retry.RetryInvocationHandler.invokeMethod(RetryInvocationHandler.java:191)
at org.apache.hadoop.io.retry.RetryInvocationHandler.invoke(RetryInvocationHandler.java:102)
at com.sun.proxy.$Proxy36.mkdirs(Unknown Source)
at org.apache.hadoop.hdfs.DFSClient.primitiveMkdir(DFSClient.java:3014)
at org.apache.hadoop.hdfs.DFSClient.mkdirs(DFSClient.java:2984)
at org.apache.hadoop.hdfs.DistributedFileSystem$21.doCall(DistributedFileSystem.java:1047)
at org.apache.hadoop.hdfs.DistributedFileSystem$21.doCall(DistributedFileSystem.java:1043)
at org.apache.hadoop.fs.FileSystemLinkResolver.resolve(FileSystemLinkResolver.java:81)
at org.apache.hadoop.hdfs.DistributedFileSystem.mkdirsInternal(DistributedFileSystem.java:1061)
at org.apache.hadoop.hdfs.DistributedFileSystem.mkdirs(DistributedFileSystem.java:1036)
at org.apache.hadoop.hive.ql.session.SessionState.createPath(SessionState.java:755)
at org.apache.hadoop.hive.ql.session.SessionState.createSessionDirs(SessionState.java:665)
at org.apache.hadoop.hive.ql.session.SessionState.start(SessionState.java:586)
... 9 more

查看日志:
2019-08-23T00:44:15,345 INFO [main] conf.HiveConf: Found configuration file file:/opt/software/hive/conf/hive-site.xml
2019-08-23T00:44:18,562 INFO [main] SessionState:
Logging initialized using configuration in jar:file:/opt/software/hive/lib/hive-common-2.2.0.jar!/hive-log4j2.properties Async: true
2019-08-23T00:44:20,981 INFO [main] metastore.HiveMetaStore: 0: Opening raw store with implementation class:org.apache.hadoop.hive.metastore.ObjectStore
2019-08-23T00:44:21,071 INFO [main] metastore.ObjectStore: ObjectStore, initialize called
2019-08-23T00:44:23,859 INFO [main] metastore.ObjectStore: Setting MetaStore object pin classes with hive.metastore.cache.pinobjtypes=“Table,StorageDescriptor,SerDeInfo,Partition,Database,Type,FieldSchema,Order”
2019-08-23T00:44:28,576 INFO [main] metastore.MetaStoreDirectSql: Using direct SQL, underlying DB is MYSQL
2019-08-23T00:44:28,580 INFO [main] metastore.ObjectStore: Initialized ObjectStore
2019-08-23T00:44:28,818 INFO [main] metastore.HiveMetaStore: Added admin role in metastore
2019-08-23T00:44:28,829 INFO [main] metastore.HiveMetaStore: Added public role in metastore
2019-08-23T00:44:28,877 INFO [main] metastore.HiveMetaStore: No user is added in admin role, since config is empty
2019-08-23T00:44:29,093 INFO [main] metastore.HiveMetaStore: 0: get_all_functions
2019-08-23T00:44:29,098 INFO [main] HiveMetaStore.audit: ugi=root ip=unknown-ip-addr cmd=get_all_functions

怎么都解决不了这个异常,哪位大神给点意见。谢谢!

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/weixin_44104007/article/details/100044349

智能推荐

我曾是名技术男也拿过股份_我曾是名技术男,也拿过股份-程序员宅基地

文章浏览阅读1.3k次。我曾是名技术男,也拿过股份 ......https://blog.csdn.net/ityouknow/article/details/86746750写在前面的话:今天的文章,讲的是鬼脚七曾经做技术男的故事,告诉如何从一个码农一步步转变为一位自媒体人的。 文/鬼脚七(微信公号:taobaoguijiaoqi)我大学本科读的电机专业,在天津大学。1999年,本科快毕业时..._我曾是名技术男,也拿过股份

类的构造函数、析构函数、拷贝构造函数与赋值函数-程序员宅基地

文章浏览阅读1.1k次。类的构造函数、析构函数、拷贝构造函数与赋值函数 构造函数、析构函数与赋值函数是每个类最基本的函数。它们太普通以致让人容易麻痹大意,其实这些貌似简单的函数就象没有顶盖的下水道那样危险。每个类只有一个析构函数和一个赋值函数,但可以有多个构造函数(包含一个拷贝构造函数,其它的称为普通构造函数)。对于任意一个类A,如果不想编写上述函数,C++编译器将自动为A产生四个缺省的函数

HTTPS 证书校验-程序员宅基地

文章浏览阅读534次。最近为了满足苹果的 https 要求, 经过努力终于写出了方法验证 SSL 证书是否满足 ATS 要求nscurl --ats-diagnostics --verbosehttps://你的域名PASS 符合要求输出满足 ATS 的证书openssl s_client -connect 你的域名:443</dev/null 2>/dev/null | openssl x509 -outform DER > https.cer1. 针对 AFNetWorking ..

详解android:scaleType属性(转)_android type转-程序员宅基地

文章浏览阅读579次。android:scaleType是控制图片如何resized/moved来匹对ImageView的size。ImageView.ScaleType / android:scaleType值的意义区别:CENTER /center 按图片的原来size居中显示,当图片长/宽超过View的长/宽,则截取图片的居中部分显示CENTER_CROP / centerCrop 按_android type转

有什么适合大一计算机专业学生免费的刷题网站?-程序员宅基地

文章浏览阅读1.3k次,点赞6次,收藏55次。我打算按照菜鸡-初级-进阶-大神的顺序给大家推荐刷题网站,通通可以白嫖,大家可以根据自己的需求选取合适的学♂习网站噢,绝对不亏! 菜菜子刷题网站 对于大一计算机专业的学生来说,怕的不是没有刷题网站,而是刷不通(废话,人家连专业课都没学,你让人家码啥?)。所以要从零开始刷题的话,我先推荐这几个小白也能刷的网站或题集: 核心目的:找到coding的感觉,规范代码写法。 ①Programming by...

电阻、电容和电感的选型及作用_电容不同类型的 电阻 电感 电容 详解-程序员宅基地

文章浏览阅读1.4k次。介绍电阻,电容,电感等常用器件的作用,分类即选型时考虑的参数_电容不同类型的 电阻 电感 电容 详解

随便推点

目前鸿蒙系统手机有哪些,鸿蒙系统现在是什么版本?那些手机能用?-程序员宅基地

文章浏览阅读2.2k次。9月10日消息,今天,华为开发者大会2020在东莞松山湖开幕。华为消费者业务CEO余承东做了主题演讲。余承东表示,今年12月份将面向开发者提供鸿蒙2.0的beta版本,这意味着明年华为智能手机将全面升级支持鸿蒙2.0。鸿蒙2.0带来了分布式软总线、分布式数据管理、分布式安全等分布式能力的全面升级,同时发布了自适应的UX框架。余承东表示今年9月份将面向开发者提供大屏、手表、车机的鸿蒙OS2.0的be..._鸿蒙系统有几个版本

linux下NVIDIA Jetson TX2 aarch64架构下安装tensorflow以及出现“Illegal instruction(cpre dumped)”非法指令(核心已转移)的解决方法_非法指令 (核心已转储)-程序员宅基地

文章浏览阅读1.7k次。1、查看架构,我的这个是aarch2、github上有别人编译好的TensorFlow,https://github.com/lhelontra/tensorflow-on-arm/releases下载,我下载的是tensorflow2.3的whl3、安装网络正常的话,就安装完成了_非法指令 (核心已转储)

linux 安装zh.utf 8,debian下安装locale并设置zh_CN.UTF-8-程序员宅基地

文章浏览阅读7.1k次。装了mldonkey,但是下载的文件名存在乱码,看来需要装中文语言支持了。在Debian中安装locales的方法如下:通过apt-get install locales命令安装locales包安装完成locales包后,系统会自动进行locale配置,你只要选择所需的locale,可以多选。最后指定一个系统默认的locale。这样系统就会帮你自动生成相应的locale和配置好系统的locale。..._apt-get install locales

Subversion Edge服务器配置_subversionedge 端口修改-程序员宅基地

文章浏览阅读7.5k次。整体配置方式参考:http://tsleoou.diandian.com/post/2011-07-21/3079158需要注意的是配置中的几个问题:1、/etc/sudoer 文件的修改 我是sz下来,修改,sz到upload目录,然后cp到 /etc目录下,覆盖,否则没有权限修改2、CSVN Console time-out waiting for http://_subversionedge 端口修改

【vulhub】Weblogic任意文件上传漏洞(CVE-2018-2894)_vulhub cve-2018-2894-程序员宅基地

文章浏览阅读2.2k次。前言Web Service Test Page 在 ‘生产模式’ 下默认不开启,所以该漏洞有一定限制。两个页面分别为/ws_utc/begin.do、/ws_utc/config.do。受影响的版本weblogic 10.3.6.0、weblogic 12.1.3.0、weblogic 12.2.1.2、weblogic 12.2.1.3。利用条件:1、需要知道部署应用的web目录2、ws_utc/config.do在开发模式下无需认证,在生产模式下需要认证。一、启动靶机docker-com_vulhub cve-2018-2894

Ubuntu下apt-get安装与pip安装的区别_ubuntu apt-get pip 区别-程序员宅基地

文章浏览阅读681次。1. pip与apt-get的区别在哪儿呢?pip用来安装来自PyPI的Python所有的依赖包,并且可以选择安装任何在PyPI上已上传的先前版本的依赖包; apt-get可以用来安装软件、更新源、也可以用来更新自Ubuntu的典型依赖包,典型安装即意味着它只是安装(最新发布的,或最近一个的)单一版本,并且我们不能决定我们要安装的依赖包的版本或选择它之前的版本。2. 什么时候该_ubuntu apt-get pip 区别