fs.defaultFS变更使spark-sql查询hive失败是怎么回事
这篇文章将为大家详细讲解有关fs.defaultFS变更使spark-sql查询hive失败是怎么回事,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。
目前创新互联公司已为近1000家的企业提供了网站建设、域名、网页空间、绵阳服务器托管、企业网站设计、饶河网站维护等服务,公司将坚持客户导向、应用为本的策略,正道将秉承"和谐、参与、激情"的文化,与客户和合作伙伴齐心协力一起成长,共同发展。


直接修改表的信息 利⽤hive⾃带的⼯具
metatool -updateLocation
metatool -updateLocation hdfs://bi hdfs://master:9000/
metatool -listFSRoot

关于“fs.defaultFS变更使spark-sql查询hive失败是怎么回事”这篇文章就分享到这里了,希望以上内容可以对大家有一定的帮助,使各位可以学到更多知识,如果觉得文章不错,请把它分享出去让更多的人看到。
本文名称:fs.defaultFS变更使spark-sql查询hive失败是怎么回事
URL地址:http://scpingwu.com/article/ghgscd.html