Я установил Hadoop 2.7.3 в Windows и смог запустить кластер. Теперь я хотел бы получить улей и прошел следующие шаги: 1. Скачал db-derby-10.12.1.1-bin.zip, распаковал его и запустил startNetworkServer -h 0.0.0.0.
2. Скачал apache-hive-1.1.1-bin.tar.gz с зеркального сайта и распаковал его. Создан hive-site.xml, чтобы иметь следующие свойства:

javax.jdo.option.ConnectionURL
javax.jdo.option.ConnectionDriverName
hive.server2.enable.impersonation
hive.server2.authentication
datanucleus.autoCreateTables
hive.metastore.schema.verification

Я также настроил HIVE_HOME и обновил путь. Также установите HIVE_LIB и HIVE_BIN_PATH.

Когда я запускаю hive из bin, я получаю, что 'hive' не распознается как внутренняя или внешняя команда, работающая программа или командный файл.

Контейнер / куст отображается в виде файла типа файла. Пожалуйста, предложите. Не уверен, что улей верный.

Спасибо.

2
Aavik 22 Мар 2017 в 20:03

2 ответа

Лучший ответ

Версия 1.1.1 Apache Hive не содержит версию, которая может быть выполнена в Windows (только двоичные файлы Linux):

enter image description here

Однако в версии 2.1.1 есть возможности Windows:

enter image description here

Поэтому, даже если у вас правильно указан путь, cmd не сможет найти исполняемый файл, который он может запустить, поскольку в 1.1.1 его не существует.

2
wheeler 22 Мар 2017 в 18:00

Если кто-то все еще переживает эту проблему; Вот что я сделал, чтобы решить установку улья на Windows.

Мои конфигурации соответствуют приведенным ниже (последняя на дату): я использую Windows 10

  • Hadoop 2.9.1
  • дерби 10.14
  • куст 2.3.4 (моя версия куста не содержит bin / hive.cmd; необходимый файл для запуска куста на windows)

@wheeler выше упомянул, что Hive для Linux. Вот хак, чтобы заставить это работать для окон. Моя версия установки Hive не поставляется с исполняемыми файлами Windows. Отсюда и взлом!

ШАГ 1

Есть 3 файла, которые вам нужно специально загрузить с * https://svn.apache.org/repos/

  1. https://svn.apache.org/repos/asf/hive /trunk/bin/hive.cmd сохраните его в вашем% HIVE_HOME% / bin / как hive.cmd
  2. https://svn.apache.org/repos/asf /hive/trunk/bin/ext/cli.cmd сохраните его в вашем% HIVE_HOME% / bin / ext / как cli.cmd
  3. https://svn.apache.org/repos /asf/hive/trunk/bin/ext/util/execHiveCmd.cmd сохраните его в вашем% HIVE_HOME% / bin / ext / util / как execHiveCmd.cmd *

Где% HIVE_HOME% - это место, где установлен Hive.

ШАГ 2

Создайте каталог tmp под вашим HIVE_HOME (на локальном компьютере, а не на HDFS), дайте 777 разрешений на этот каталог tmp

ШАГ 3

Откройте файл conf / hive-default.xml.template и сохраните его как conf / hive-site.xml. Затем в этом файле hive-site.xml вставьте ниже свойства вверху под

<property>
    <name>system:java.io.tmpdir</name>
    <value>{PUT YOUR HIVE HOME DIR PATH HERE}/tmp</value> 
    <!-- MY PATH WAS C:/BigData/hive/tmp -->
</property>
<property>
    <name>system:user.name</name>
    <value>${user.name}</value>
</property>

(проверьте отступы)

ШАГ 4 - Запустите сервисы Hadoop

старт- глубину

запуск пряжи

  • Запустить дерби

StartNetworkServer -h 0.0.0.0

Убедитесь, что у вас запущены все вышеперечисленные службы - перейдите в cmd для HIVE_HOME / bin и выполните команду hive

улей

8
stack_d_code 24 Апр 2019 в 07:41