centos 安装HUE3.5-3.6
安装CDH 的 hue 版本是3.5 -3.6 ,其实3.0 也是可以通过此方法安装的 安装前首先要确保你构建好hadoop 的编译环境 如果没有请搜本博客的 hadoop 编译 话不多说开始吧 1.参考官方我们得知需要安装如下东东 yum rsync gcc openldap-devel python-ldap mysql-de
安装CDH 的 hue 版本是3.5 -3.6 ,其实3.0 也是可以通过此方法安装的
安装前首先要确保你构建好hadoop 的编译环境 如果没有请搜本博客的 hadoop 编译
话不多说开始吧
1.参考官方我们得知需要安装如下东东
yum rsync gcc openldap-devel python-ldap mysql-devel python-devel python-setuptools python-simplejson sqlite-devel libxml2-devel libxslt-devel cyrus-sasl-devel
本人默认你这些都装OK了
2. 下载安装
cd /opt wget http://archive-primary.cloudera.com/cdh5/cdh/5/hue-3.5.0-cdh5.0.3.tar.gz tar xvfz hue-3.5.0-cdh5.0.3.tar.gz cd hue-3.5.0-cdh5.0.3 sudo make install PREFIX=指定hue安装路径 HADOOP_HOME=指定你的hadoop所在路径
不建议现在最新版3.6当然如果你是测试的话可以玩玩
3. 配置HUE
首先创建 软链接到hadoop安装目录下的lib 目录
ln -s
/usr/local/cloud-center/hue/desktop/libs/hadoop/java-lib/hue-plugins-2.5.0-cdh4.4.0.jar ./
上述粗体jar 替换成实际编译后的包名
修改 hue目录下的confi/hue.ini 修改相应配置(略)
修改apps/filebrowser/src/filebrowser/view.py (可以跳过)
函数 def _massage_stats(request, stats):
%B %d, %Y %I:%M %p 改为 %Y-%m-%d %H:%M:%S
4.如果使用mysql数据库的话 请修改hue目录下的confi/hue.ini 中的BD 选项默认使用sqlite 并创建MYSQL数据库
create database hue; grant all on hue.* to 'hue'@'localhost' identified by 'abc1234!@#$'; flush privileges;
5.同步数据库。HUE 使用django框架开发因此我们要构建数据库表结构。我们采用的是MYSQL 数据库
因此在配置好数据库连接信息后我们执行如下命令
build/env/bin/hue migrate build/env/bin/hue syncdb
6.修改 desktop/libs/hadoop/src/hadoop/fs/webhdfs.py
中的 DEFAULT_HDFS_SUPERUSER = ‘hdfs’ 为你的hadoop用户
7.最后启动
build/env/bin/supervisor
完毕访问地址:http://你的IP:你端口
PS: 编译完毕后所有的配置均在 hue 的安装的根目录下
原文地址:centos 安装HUE3.5-3.6, 感谢原作者分享。

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen



Verbesserung der HDFS -Leistung bei CentOS: Ein umfassender Optimierungshandbuch zur Optimierung von HDFs (Hadoop Distributed Dateisystem) auf CentOS erfordert eine umfassende Berücksichtigung der Hardware-, Systemkonfigurations- und Netzwerkeinstellungen. Dieser Artikel enthält eine Reihe von Optimierungsstrategien, mit denen Sie die HDFS -Leistung verbessern können. 1. Hardware -Upgrade und Auswahlressourcenerweiterung: Erhöhen Sie die CPU-, Speicher- und Speicherkapazität des Servers so weit wie möglich. Hochleistungs-Hardware: Übernimmt Hochleistungs-Netzwerkkarten und -Schalter, um den Netzwerkdurchsatz zu verbessern. 2. Systemkonfiguration Fine-Tuning-Kernel-Parameteranpassung: Modify /etc/sysctl.conf Datei, um die Kernelparameter wie TCP-Verbindungsnummer, Dateihandelsnummer und Speicherverwaltung zu optimieren. Passen Sie beispielsweise den TCP -Verbindungsstatus und die Puffergröße an

CentOS wird 2024 geschlossen, da seine stromaufwärts gelegene Verteilung RHEL 8 geschlossen wurde. Diese Abschaltung wirkt sich auf das CentOS 8 -System aus und verhindert, dass es weiterhin Aktualisierungen erhalten. Benutzer sollten eine Migration planen, und empfohlene Optionen umfassen CentOS Stream, Almalinux und Rocky Linux, um das System sicher und stabil zu halten.

Vollständige Anleitung zur Überprüfung der HDFS -Konfiguration in CentOS -Systemen In diesem Artikel wird die Konfiguration und den laufenden Status von HDFS auf CentOS -Systemen effektiv überprüft. Die folgenden Schritte helfen Ihnen dabei, das Setup und den Betrieb von HDFs vollständig zu verstehen. Überprüfen Sie die Hadoop -Umgebungsvariable: Stellen Sie zunächst sicher, dass die Hadoop -Umgebungsvariable korrekt eingestellt ist. Führen Sie im Terminal den folgenden Befehl aus, um zu überprüfen, ob Hadoop ordnungsgemäß installiert und konfiguriert ist: Hadoopsion-Check HDFS-Konfigurationsdatei: Die Kernkonfigurationsdatei von HDFS befindet sich im/etc/hadoop/conf/verzeichnis, wobei core-site.xml und hdfs-site.xml von entscheidender Bedeutung sind. verwenden

Der Befehl centOS stilldown wird heruntergefahren und die Syntax wird von [Optionen] ausgeführt [Informationen]. Zu den Optionen gehören: -h das System sofort stoppen; -P schalten Sie die Leistung nach dem Herunterfahren aus; -r neu starten; -t Wartezeit. Zeiten können als unmittelbar (jetzt), Minuten (Minuten) oder als bestimmte Zeit (HH: MM) angegeben werden. Hinzugefügten Informationen können in Systemmeldungen angezeigt werden.

Die wichtigsten Unterschiede zwischen CentOS und Ubuntu sind: Ursprung (CentOS stammt von Red Hat, für Unternehmen; Ubuntu stammt aus Debian, für Einzelpersonen), Packungsmanagement (CentOS verwendet yum, konzentriert sich auf Stabilität; Ubuntu verwendet apt, für hohe Aktualisierungsfrequenz), Support Cycle (Centos) (CENTOS bieten 10 Jahre. Tutorials und Dokumente), Verwendungen (CentOS ist auf Server voreingenommen, Ubuntu ist für Server und Desktops geeignet). Weitere Unterschiede sind die Einfachheit der Installation (CentOS ist dünn)

Das Installations-, Konfigurations- und Optimierungshandbuch für das HDFS -Dateisystem unter CentOS -System In diesem Artikel wird die Installation, Konfiguration und Optimierung von Hadoop Distributed Dateisystem (HDFS) auf CentOS -System geleitet. HDFS -Installation und Konfiguration Java -Umgebung Installation: Stellen Sie zunächst sicher, dass die entsprechende Java -Umgebung installiert ist. Bearbeiten/etc/Profildatei, Folgendes hinzufügen und /usr/lib/java-1.8.0/jdk1.8.0_144 mit Ihrem tatsächlichen Java-Installationspfad: exportjava_home =/usr/lib/java-1.8.0/jdk1.8.0_144144141441444 = $ java-1.8.0/Jdk1.8.0_144444 = $ Java-1. Java-1 $ Java-1.8.8.0_14444, ersetzen

Beim Konfigurieren von Hadoop-Distributed Dateisystem (HDFS) auf CentOS müssen die folgenden Schlüsselkonfigurationsdateien geändert werden: Core-Site.xml: Fs.DefaultFs: Gibt die Standarddateisystemadresse von HDFs an, wie z. B. HDFS: // localhost: 9000. Hadoop.tmp.dir: Gibt das Speicherverzeichnis für Hadoop -temporäre Dateien an. Hadoop.proxyuser.root.hosts und Hadoop.proxyuser.ro

Backup- und Wiederherstellungsrichtlinie von GitLab im Rahmen von CentOS -System Um die Datensicherheit und Wiederherstellung der Daten zu gewährleisten, bietet GitLab on CentOS eine Vielzahl von Sicherungsmethoden. In diesem Artikel werden mehrere gängige Sicherungsmethoden, Konfigurationsparameter und Wiederherstellungsprozesse im Detail eingeführt, um eine vollständige GitLab -Sicherungs- und Wiederherstellungsstrategie aufzubauen. 1. Manuell Backup Verwenden Sie den GitLab-RakegitLab: Backup: Befehl erstellen, um die manuelle Sicherung auszuführen. Dieser Befehl unterstützt wichtige Informationen wie GitLab Repository, Datenbank, Benutzer, Benutzergruppen, Schlüssel und Berechtigungen. Die Standardsicherungsdatei wird im Verzeichnis/var/opt/gitlab/backups gespeichert. Sie können /etc /gitlab ändern
