Skip to content

Antonio-Borges-Rufino/Hadoop_Ecosystem

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

75 Commits
 
 
 
 
 
 

Repository files navigation

Projeto

  1. Esse repositório é uma extensão do repositório cluster_base
  2. A intenção é configurar um ecossistema baseado em hadoop para projetos de big data
  3. Cada passo vai ser feito de forma linear para facilitar a reprodção

Suporte atual do cluster

Passo 1 -> Criação do servidor

  1. O servidor base desse projeto vai ser um centOS-8 stream, que pode ser baixado aqui
  2. O ambiente de virtualização utilizado foi o virtual-box
  3. As configurações do servidor foram:
    -> Nome: Hadoop_Ecosystem
    -> Tipo: Linux
    -> Versão: Red Hat (64 bits)
    -> Quantidade de memória: 3072 mb
    -> Tipo de disco: VDI dinamicamente alocado
    -> Tamanho do disco: 100 gb
    -> Quantidade de núcleos de processador: 3 -> Memoria de vídeo: 128 mb -> Audio: desabilitado -> Rede: placa em modo bridge
  4. A instalação teve os seguintes parâmetros:
    -> Lingua utilizada: Português (Brasil)
    -> Kdump: Desativado
    -> Destino instalação: VirtualBox Hard_Disk com configurações de armazenamento personalizada + criar automaticamente
    -> Seleção de programas: Instalação minima + Padrão + Ferramenta de desenvolvimento + Ferramentas de desenvolvimento RPM
    -> Usuario root: Desabilitado
    -> Criar usuario: Hadoop com permissão de administrador
  5. Com a instalação feita procure o ip da máquina para poder fazer um gerenciamento com ssh
ip addr show
  1. Use o gerenciador da sua escolha para fazer o acesso com SSh

Passo 2 -> Instalando e configurando o python

  1. Para instalar o python 3 + pip faça:
sudo yum install python3
  1. Para instalar o virtualenv:
sudo pip3 install virtualenv
  1. Crie uma pasta para os projetos
virtualenv -p python3 projetos
  1. Para acessar o ambiente virtual
source projetos/bin/activate
  1. Instalar a biblioteca pandas
pip3 install pandas
  1. Instalar o jupyter
pip install jupyter
ipython kernel install --name projetos --user
  1. Para executar o jupyter e acessar ele pela máquina mãe
jupyter notebook 
  1. Instalar a biblioteca para acessar o redis
pip install redis
  1. Instalar a biblioteca pyspark
pip install pyspark
  1. Instalar o conector kafka-python
pip install kafka-python
  1. Instalar o Flask api
pip install flask-restful

Passo 3 -> Instalar e configurar o Java

  1. O java é base de funcionamento do ecossistema hadoop, por isso, vou instalar a versão mais estável dele que é a 8
  2. Para atualizar o gerenciador de pacote
sudo yum update
  1. Para instalar o java 8
sudo yum install java-1.8.0-openjdk
  1. Para ver onde estão os executaveis java
update-alternatives --config java
  1. OBS: Guarde apenas até a versão java, nesse caso, está em /usr/lib/jvm/java-1.8.0-openjdk-1.8.0.322.b06-11.el8.x86_64/jre

Passo 4 -> Instalar o Hadoop

  1. Baixar o hadoop
sudo wget https://dlcdn.apache.org/hadoop/common/hadoop-3.3.4/hadoop-3.3.4.tar.gz
  1. Crie uma pasta onde os arquivos vão ficar
mkdir hadoop_ecosystem
  1. Descompacte o arquivo
tar xvzf hadoop-3.3.4.tar.gz -C hadoop_ecosystem/
  1. Mude o nome da pasta
 mv hadoop-3.3.4/ hadoop/
  1. Configure o arquivo hadoop_ecosysten/hadoop/etc/hadoop/hadoop-env.sh
vim hadoop_ecosystem/hadoop/etc/hadoop/hadoop-env.sh
  1. Com o arquivo hadoop_ecosysten/hadoop/etc/hadoop/hadoop-env.sh aberto no vim, escreva e salve: -> export JAVA_HOME =/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.322.b06-11.el8.x86_64/jre
  2. Teste o hadoop
hadoop_ecosystem/hadoop/bin/hadoop
  1. Edite hadoop_ecosystem/hadoop/etc/hadoop/core-site.xml com vim e adicione:
<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
    </property>
</configuration>

9 Edite hadoop_ecosystem/hadoop/etc/hadoop/hdfs-site.xml com vim e adicione:

<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
</configuration>
  1. O servidor não permite ssh em localhost sem senha, portanto faça:
ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
chmod 0600 ~/.ssh/authorized_keys
  1. Formatar o sistema de arquivos:
hadoop_ecosystem/hadoop/bin/hdfs namenode -format
  1. Iniciar namenode:
hadoop_ecosystem/hadoop/sbin/start-dfs.sh
  1. Crie pasta e usuario no hdfs:
hadoop_ecosystem/hadoop/bin/hdfs dfs -mkdir /user
hadoop_ecosystem/hadoop/bin/hdfs dfs -mkdir /user/HADOOP
  1. Adicione em .baschrc
export PATH="$PATH:$HOME/bin:/bin:/usr/bin:/sbin:/usr/sbin:/usr/local/bin" 
export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.322.b06-11.el8.x86_64/jre/
export HADOOP_HOME=/home/hadoop/hadoop_ecosystem/hadoop/
export PATH=$PATH:$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib/native"
source .baschrc
  1. Edite hadoop_ecosystem/hadoop/etc/hadoop/mapred-site.xml com vim e adicione:
<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
    <property>
        <name>mapreduce.application.classpath</name>
        <value>$HADOOP_MAPRED_HOME/share/hadoop/mapreduce/*:$HADOOP_MAPRED_HOME/share/hadoop/mapreduce/lib/*</value>
    </property>
</configuration>
  1. Edite hadoop_ecosystem/hadoop/etc/hadoop/yarn-site.xml com vim e adicione:
<configuration>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
    <property>
        <name>yarn.nodemanager.env-whitelist</name>
        <value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_HOME,PATH,LANG,TZ,HADOOP_MAPRED_HOME</value>
    </property>
</configuration>
  1. Para startar o hadoop e o yarn, respectivamente:
start-dfs.sh
start-yarn.sh
  1. Para parar basta colocar stop no lugar do start

Passo 5 -> Instalar o zookeeper

  1. Baixe o zookeeper
wget https://dlcdn.apache.org/zookeeper/zookeeper-3.7.1/apache-zookeeper-3.7.1-bin.tar.gz
  1. Extraia para dentro da pasta hadoop_ecosystem
tar xvzf apache-zookeeper-3.7.1-bin.tar.gz -C hadoop_ecosystem/
  1. Mude o nome apenas para zookeeper
mv hadoop_ecosystem/apache-zookeeper-3.7.1-bin/ hadoop_ecosystem/zookeeper
  1. Crie um diretorio vazio para acesso de memória do zookeeper
mkdir /home/hadoop/hadoop_ecosystem/zookeeper/dir_bd
  1. crie um arquivo com vim em /home/hadoop/hadoop_ecosystem/zookeeper/conf/ com nome de zoo.cfg
vim /home/hadoop/hadoop_ecosystem/zookeeper/conf/zoo.cfg
  1. Edite /home/hadoop/hadoop_ecosystem/zookeeper/conf/zoo.cfg com vim e adicione:
tickTime=2000
dataDir=/home/hadoop/hadoop_ecosystem/zookeeper/dir_bd/
clientPort=2181
  1. Edite .baschrc para adicionar a variavel de ambiente do zookeeper
export ZOOKEPER_HOME=/home/hadoop/hadoop_ecosystem/zookeeper/
export PATH=$PATH:$ZOOKEPER_HOME
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$ZOOKEPER_HOME/bin
  1. Para iniciar o zookeeper:
zkServer.sh start

10 Para pausar basta trocar o start pelo stop

Passo 6 -> Instalando o kafka

  1. Baixar o kafka
wget https://dlcdn.apache.org/kafka/3.3.1/kafka_2.13-3.3.1.tgz
  1. Extraia para dentro da pasta hadoop_ecosystem
tar xvzf kafka_2.13-3.3.1.tgz -C hadoop_ecosystem/
  1. Mude o nome apenas para kafka
mv hadoop_ecosystem/kafka_2.13-3.3.1/ hadoop_ecosystem/kafka
  1. Edite .baschrc para adicionar a variavel de ambiente do kafka
export KAFKA_HOME=/home/hadoop/hadoop_ecosystem/kafka/
export PATH=$PATH:$KAFKA_HOME
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$ZOOKEPER_HOME/bin:$KAFKA_HOME/bin:KAFKA_HOME/config
  1. Atualize o .baschrc
source .baschrc
  1. Inicialize o zookeeper-server
zkServer.sh start
  1. Em outro terminal start o kafka
kafka-server-start.sh /home/hadoop/hadoop_ecosystem/kafka/config/server.properties
  1. Para parar os processos, abre-se um novo terminal e digita os mesmos comandos mas em vez de start, coloque stop e sem os caminhos de config
zkServer.sh stop
kafka-server-stop.sh
  1. Por ser um comando grande, vou criar um alias para a inicialização do servidor kafka, editando .baschrc
alias kafka_start="kafka-server-start.sh /home/hadoop/hadoop_ecosystem/kafka/config/server.properties"
source .baschrc

Passo 7 -> Instalar spark

  1. Baixar o scala e instalar
curl -fL https://github.com/coursier/launchers/raw/master/cs-x86_64-pc-linux.gz | gzip -d > cs && chmod +x cs && ./cs setup
  1. Baixar o spark
wget https://dlcdn.apache.org/spark/spark-3.3.1/spark-3.3.1-bin-hadoop3.tgz
  1. Extrair para dentro da pasta hadoop_ecosystem
tar xvzf spark-3.3.1-bin-hadoop3.tgz -C hadoop_ecosystem/
  1. Mudar o nome para apenas spark
mv hadoop_ecosystem/spark-3.3.1-bin-hadoop3/ hadoop_ecosystem/spark
  1. Edite as variaveis de ambiente e adicione em .baschrc:
export SPARK_HOME=/home/hadoop/hadoop_ecosystem/spark/
export PATH=$PATH=$SPARK_HOME
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$ZOOKEPER_HOME/bin:$KAFKA_HOME/bin:$SPARK_HOME/bin:$SPARK_HOME/sbin
source .baschrc
  1. Entre na pasta do spark e crie o diretorio conectores, ele é quem vai receber os conectores que vão ser implementados futuramente, como o jar de acesso ao mysql dentre outros.
mkdir hadoop_ecosystem/spark/Conectores
  1. Vou por nessa pasta o conector do mysql que pode ser baixado aqui

Passo 8 -> Instalar o redis

  1. Baixar o redis
wget https://download.redis.io/redis-stable.tar.gz
  1. Extrair o redis para a pasta hadoop_ecosystem
tar xvzf redis-stable.tar.gz -C hadoop_ecosystem/
  1. Mudar de nome apenas para redis
mv hadoop_ecosystem/redis-stable/ hadoop_ecosystem/redis
  1. Entrar na pasta do redis
cd hadoop_ecosystem/redis
  1. Compilar o redis
make
  1. Instalar o redis (ainda na mesma pasta)
make install
  1. Para executar o servidor (não é preciso configurar como variavel de ambiente)
redis-server
  1. Para entrar na linha de comando
redis-cli
  1. Para sair do redis-server apert cntrl+c, e para sair do redis-cli use exit

Passo 9 -> Instalar o mysql

  1. Da um update no gerenciador de pacotes dnf
dnf update -y   
  1. Baixar o mariadb, o servidor http e o php
dnf install httpd mariadb-server php php-cli php-json php-mbstring php-pdo php-pecl-zip php-mysqlnd -y
  1. Startar o mariadb
systemctl start mariadb
  1. Permitir a execução do mariadb
systemctl enable mariadb
  1. Acessar o mysql com permissão root
sudo mysql -u root
  1. Setar uma senha para o usuario root do mysql
SET PASSWORD FOR 'root'@'localhost' = PASSWORD('123456789');
  1. Iniciar uma instalação segura e colocar a senha setada no passo 6.
sudo mysql_secure_installation
  1. Colocar tudo y na instalação segura
  2. Entre na pasta de instalação do apache
cd /var/www/html/
  1. Baixe o phpmyadmin
sudo wget https://files.phpmyadmin.net/phpMyAdmin/5.2.0/phpMyAdmin-5.2.0-all-languages.zip
  1. Extraia
sudo unzip phpMyAdmin-5.2.0-all-languages.zip
  1. Renomeie
sudo mv phpMyAdmin-5.2.0-all-languages phpmyadmin
  1. Edite para o usuario apache
sudo chown -R apache:apache /var/www/html/phpmyadmin
  1. Renomeie e edite o arquivo de conf
sudo mv phpmyadmin/config.sample.inc.php phpmyadmin/config.inc.php
  1. Abra com vim
sudo vim phpmyadmin/config.inc.php
  1. Adicione
cfg['blowfish_secret'] = '123456789';
  1. Insira no mysql as tabelas do phpmyadmin
mysql < /var/www/html/phpmyadmin/sql/create_tables.sql -u root -p
  1. Configure o apache para o phpmyadmin
sudo vim /etc/httpd/conf.d/phpmyadmin.conf
  1. Adicione
Alias /phpmyadmin /var/www/html/phpmyadmin

<Directory /var/www/html/phpmyadmin/>
   AddDefaultCharset UTF-8

   <IfModule mod_authz_core.c>
     # Apache 2.4
     <RequireAny>
      Require all granted
     </RequireAny>
   </IfModule>
   <IfModule !mod_authz_core.c>
     # Apache 2.2
     Order Deny,Allow
     Deny from All
     Allow from 127.0.0.1
     Allow from ::1
   </IfModule>
</Directory>

<Directory /var/www/html/phpmyadmin/setup/>
   <IfModule mod_authz_core.c>
     # Apache 2.4
     <RequireAny>
       Require all granted
     </RequireAny>

   </IfModule>

   <IfModule !mod_authz_core.c>
     # Apache 2.2
     Order Deny,Allow
     Deny from All
     Allow from 127.0.0.1
     Allow from ::1
   </IfModule>

</Directory>
  1. Start o apache
systemctl start httpd
  1. habilite o apache
systemctl enable httpd
  1. Para entrar no phpmyadmin, entre com a porta do apache no ssh
ssh -L 4040:localhost:80 hadoop@<IP>
  1. Acesse na máquina
localhosto:4040/phpmyadmin

Passo 10 -> Instalar o Hive

  1. Baixar a versão estavel do Hive
wget https://dlcdn.apache.org/hive/hive-3.1.3/apache-hive-3.1.3-bin.tar.gz
  1. Extrair o hive
tar -xzvf apache-hive-3.1.3-bin.tar.gz -C hadoop_ecosystem/
  1. Renomear apenas para hive
mv hadoop_ecosystem/apache-hive-3.1.3-bin/ hadoop_ecosystem/hive/
  1. Insira o jar de conexão do mysql na pasta /home/hadoop/hadoop_ecosystem/hive/lib/
  2. Edite o arquivo .baschrc e adicione
export HIVE_HOME=/home/hadoop/hadoop_ecosystem/hive/
export PATH=$PATH:$HIVE_HOME
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$ZOOKEPER_HOME/bin:$KAFKA_HOME/bin:$SPARK_HOME/bin:$SPARK_HOME/sbin:$HIVE_HOME/bin
  1. Atualize o arquivo
source .baschrc
  1. Start o hadoop caso ele esteja desligado
start-dfs.sh
  1. Start o yarn caso ele esteja desligado
start-yarn.sh
  1. O hive precisa de algumas pastas dentro do HDFS para funcionar, vamos criar primeiro a pasta /tmp
hdfs dfs -mkdir /tmp
  1. Configure as permissões da pasta /tmp
hdfs dfs -chmod g+w /tmp
  1. Crie a pasta do usuario warehouse hive
hdfs dfs -mkdir /user/hive
hdfs dfs -mkdir /user/hive/warehouse
  1. Configure as permissões da pasta
hdfs dfs -chmod g+w /user/hive/warehouse
  1. Crie o arquivo /home/hadoop/hadoop_ecosystem/hive/conf/hive-site.xml
vim /home/hadoop/hadoop_ecosystem/hive/conf/hive-site.xml
  1. Adicione a hive-site.xml
<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
  <property>
    <name>hive.server2.enable.doAs</name>
    <value>false</value>
    <description>
      Setting this property to true will have HiveServer2 execute
      Hive operations as the user making the calls to it.
    </description>
  </property>
   <property>
      <name>javax.jdo.option.ConnectionURL</name>
      <value>jdbc:mysql://localhost:3306/metastore?createDatabaseIfNotExist=true</value>
   </property>
   <property>
      <name>javax.jdo.option.ConnectionDriverName</name>
      <value>com.mysql.jdbc.Driver</value>
   </property>
   <property>
      <name>javax.jdo.option.ConnectionUserName</name>
      <value>root</value>
   </property>
   <property>
      <name>javax.jdo.option.ConnectionPassword</name>
      <value>123456789</value>
   </property>
   <property>
      <name>hive.metastore.warehouse.dir</name>
      <value>/user/hive/warehouse</value>
   </property>
   <property>
      <name>hive.cli.print.header</name>
      <value>true</value>
   </property>
</configuration>
  1. Inicie o Hive utilizando um bd base, no meu caso utilizei o mysql
schematool -dbType mysql -initSchema --verbose
  1. Ative a metastore
hive --service metastore 
  1. Ligue o HiveServer2
hiveserver2
  1. Se conecte com o beeline
beeline -u jdbc:hive2://localhost:10000

19 Integrando o hive ao spark

cp hadoop_ecosystem/hive/conf/hive-site.xml hadoop_ecosystem/spark/conf/

Passo 11 -> Instalar o druid

  1. Baixar a versão mais estável do druid
wget https://dlcdn.apache.org/druid/24.0.0/apache-druid-24.0.0-bin.tar.gz
  1. Descompactar o druid na pasta hadoop_ecosystem
tar -xzf apache-druid-24.0.0-bin.tar.gz -C hadoop_ecosystem/
  1. Mudar o nome apenas para druid
mv /home/hadoop/hadoop_ecosystem/apache-druid-24.0.0/ /home/hadoop/hadoop_ecosystem/druid
  1. Inserir no arquivo .bashrc
export DRUID_HOME=/home/hadoop/hadoop_ecosystem/druid/
export PATH=$PATH:$DRUID_HOME
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$ZOOKEPER_HOME/bin:$KAFKA_HOME/bin:$SPARK_HOME/bin:$SPARK_HOME/sbin:$HIVE_HOME/bin:$DRUID_HOME/bin
  1. Atualizar o arquivo
source .bashrc
  1. Para que o druid funcione com o zookeper já instalado, vá em /home/hadoop/hadoop_ecosystem/druid/conf/supervise/single-server/micro-quickstart.conf e comente
#!p10 zk bin/run-zk conf
  1. Agora e só ligar o servidor Druid e colocar a porta 8888 na conexão com ssh, algo como, -L 8002:localhost:8888
start-micro-quickstart

OBS 1 -> CASO EXISTA ALGUM ERRO REFERENTE AO PERL, BASTA VOCE BAIXAR

sudo dnf install perl

OBS 2 -> CASO O ERRO EM RELAÇÃO AO ZOOKEPER EM FUNCIONAMENTO CONTINUE, USE.

export DRUID_SKIP_PORT_CHECK=1

Passo 12 -> Instalando o NiFi

  1. Baixe a versão estável do NiFi
wget https://downloads.apache.org/nifi/1.18.0/nifi-1.18.0-bin.zip
  1. Extrair o nifi
unzip nifi-1.18.0-bin.zip
  1. Mover para a pasta
mv nifi-1.18.0 /home/hadoop/hadoop_ecosystem/nifi
  1. Adicionar a .baschrc
export NIFI_HOME=/home/hadoop/hadoop_ecosystem/nifi/
export PATH=$PATH:$NIFI_HOME
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$ZOOKEPER_HOME/bin:$KAFKA_HOME/bin:$SPARK_HOME/bin:$SPARK_HOME/sbin:$HIVE_HOME/bin:$DRUID_HOME/bin:$NIFI_HOME/bin
source .bashrc
  1. Executar o NiFi
nifi.sh run
  1. Pare o nife
nifi.sh stop
  1. Crie credenciais
nifi.sh set-single-user-credentials hadoop 123456789101112
  1. A porta de acesso para o nifi é 8443
  2. Caso esteja usando o MobaXterm, precisa se conectar utilizando a mesma porta, para a validação do cabeçalho. Use algo como
ssh -L 8443:localhost:8443 hadoop@<ip_MV>

ORDEM DE START

  1. Para ligar o hadoop
start-dfs.sh
start-yarn.sh
  1. Para ligar o zookeper
zkServer.sh start
  1. Para ligar o kafka
kafka_start > /dev/null & 
  1. Para ligar o redis
redis-server > /dev/null & 
  1. Para acessar o jupyter
source /home/hadoop/projetos/bin/activate 
jupyter notebook --port 9789
  1. Para se conectar ao Hive
hive --service metastore 
hiveserver2
beeline -u jdbc:hive2://localhost:10000
  1. Caso queira startar o druid (Por compatibilidade, o druid e o jupyter não podem startar ao mesmo tempo, caso seja necessário, mude a porta de funcionamento do jupyter como em 5.)
start-micro-quickstart
start_druid 
  1. Caso queira startar o NiFi
nifi.sh run
  1. Caso queira startar o jupyter a partir do alias: start_jupyter="source /home/hadoop/projetos/bin/activate && jupyter notebook --port 9789"
start_jupyter

About

Tipo: Arquitetura de Big Data. Tecnologias: Hadoop Ecossistema, Data Lake.

Topics

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published