本文介绍了HDFS上的root scratch dir:/ tmp / hive应该是可写的。当前权限为:rw-rw-rw-(在Windows上)的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!

问题描述

我在Windows 7上运行Spark。当我使用Hive时,我看到以下错误:

  root scratch dir: HDFS上的/ tmp / hive应该是可写的。当前权限为:rw-rw-rw- 

权限设置如下

  C:\ tmp> ls -la 
total 20
drwxr-xr-x 1 ADMIN Administ 0 Dec 10 13:06。
drwxr-xr-x 1 ADMIN Administ 28672 Dec 10 09:53 ..
drwxr-xr-x 2 ADMIN Administ 0 12月10日12:22 hive

我已经为Windows中的所有用户设置了完全控制 - > properties-> security-> Advanced。

但我仍然看到同样的错误。请帮忙吗?
我检查了一堆链接,有人说这是Spark 1.5上的一个错误。这是真的吗?



感谢
Aarthi

解决方案

首先,确保你的操作系统使用了正确的Winutils。然后下一步是权限。

在windows上,您需要在cmd上运行以下命令:

  D :\winutils\bin\winutils.exe chmod 777 D:\ tmp \hive 

希望你已经下载了winutils并设置了HADOOP_HOME。


I am running Spark on Windows 7. When I use Hive, I see the following error

The root scratch dir: /tmp/hive on HDFS should be writable. Current permissions are: rw-rw-rw- 

The permissions are set as the following

C:\tmp>ls -la
total 20
drwxr-xr-x    1 ADMIN Administ        0 Dec 10 13:06 .
drwxr-xr-x    1 ADMIN Administ    28672 Dec 10 09:53 ..
drwxr-xr-x    2 ADMIN Administ        0 Dec 10 12:22 hive

I have set "full control" to all users from Windows->properties->security->Advanced.

But I still see the same error. Any help please?I have checked a bunch of links, some say this is a bug on Spark 1.5. Is this true?

ThanksAarthi

解决方案

First of all, make sure you are using correct Winutils for your OS. Then next step is permissions.
On windows,you need to run following command on cmd:

D:\winutils\bin\winutils.exe chmod 777 D:\tmp\hive

Hope you have downloaded winutils already n set the HADOOP_HOME.

这篇关于HDFS上的root scratch dir:/ tmp / hive应该是可写的。当前权限为:rw-rw-rw-(在Windows上)的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持!

10-23 01:06