大数据学习_交互式查询工具 Impala

   日期:2024-11-07     作者:caijiyuan       评论:0    移动:http://mip.riyuangf.com/mobile/news/1665.html
核心提示:主要内容 第 1 部分 Impala概述(Impala是什什么,优势,劣势,与Hive对⽐比) 第 2 部分 Impala

大数据学习_交互式查询工具 Impala

主要内容 第 1 部分 Impala概述(Impala是什什么,优势,劣势,与Hive对⽐比) 第 2 部分 Impala的安装(制作本地Yum源⽅方式安装) 第 3 部分 Impala的架构原理理(有哪些组件,组件的作⽤用,查询流程,查询计划) 第 4 部分 Impala的使⽤用(使⽤用与Hive类似,编写sql⽅方式; Impala的DDL,查询语法,导⼊入数据) 第 5 部分 Impala的Java 开发(Java+C++,使⽤用JDBC⽅方式查询Impala) 第 6 部分 Impala的优化(负载均衡,减少节点压力, Impala中的Join的优化)

Impala是Cloudera提供的⼀一款开源的针对HDFS和Hbase中的PB级别数据进行交互式实时查询(Impala速度快), Impala是参照⾕谷歌的新三篇论⽂文当中的Dremel实现⽽而来,其中旧三篇论⽂分别是(BigTable, GFS, MapReduce)分别对应我们即将学的Hbase和已经学过的HDFS以及MapReduce。 Impala最⼤大卖点和最⼤大特点就是快速, Impala中⽂文翻译是⾼高⻆角羚⽺羊。

回顾前⾯面⼤大数据课程路路线其实就是⼀一个⼤大数据从业者⾯面对的⼤大数据相关技术发展的过程

  • 技术发展以及更更新换代的原因就是⽼老老的技术架构遇到新的问题,有些问题可以通过不断优化代码优化设计得以解决,有一些问题就不不再是简简单单修改代码就能解决,需要从框架本身架构设计上改变,以⾄至于需要推到重建。
  • 在⼤大数据领域主要解决的问题是数据的存储和分析,但是其实⼀一个完整的⼤大数据分析任务如果细分会有⾮非常多具体的场景,⾮非常多的环节;并没有⼀一个类似Java Web的Spring框架实现⼤大⼀一统的局⾯面。

⽐比如我们按照阶段划分⼀一个⼤大数据开发任务,会有:数据采集(⽇日志⽂文件,关系型数据库中),数据清洗(数据格式整理理,脏数据过滤等),数据预处理理(为了了后续分析所做的⼯工作),数据分析:离线处理理(T+1分析+1天分析,今天分析昨天的数据),实时处理理(数据到来即分析),数据可视化,机器器学习,深度学习等。

⾯面对如此众多的阶段再加上⼤大数据天⽣生的⼤大数据量量问题没有任何⼀一个框架可以完美cover以上每个阶段。所以⼤大数据领域有⾮非常多框架,每个框架都有最适合⾃自⼰己的具体场景。⽐比如: HDFS负责⼤大数据量量存储, MapReduce(Hive)负责⼤数据量的分析计算。

Impala的诞⽣生 之前学习的Hive以及MR适合离线批处理理,但是对交互式查询的场景⽆无能为⼒力力(要求快速响应),所以为了了解决查询速度的问题, Cloudera公司依据Google的Dremel开发了了Impala,Impala抛弃了了MapReduce使⽤了类似于传统的MPP数据库技术,⼤大提⾼高了了查询的速度。

MPP是什么 MPP (Massively Parallel Processing),就是⼤大规模并行处理理,在MPP集群中,每个节点资源都是独立享有也就是有独⽴立的磁盘和内存,每个节点通过⽹网络互相连接,彼此协同计算,作为整体提供数据服务。

简单来说, MPP是将任务并行的分散到多个服务器器和节点上,在每个节点上计算完成后,将各⾃自部分的结果汇总在⼀一起得到最终的结果。

对于MPP架构的软件来说聚合操作⽐比如计算某张表的总条数,则先进行局部聚合(每个节点并行计算),然后把局部汇总结果进行全局聚合(与Hadoop相似)。

Impala与Hive对比

  1. Impala的技术优势

    • Impala没有采取MapReduce作为计算引擎, MR是⾮常好的分布式并行计算框架,但MR引擎更多的是⾯向批处理模式,⽽不是面向交互式的SQL执行。与 Hive相比: Impala把整个查询任务转为⼀棵执行计划树,⽽不是一连串的MR任务,在分发执行计划后, Impala使⽤拉取的⽅获取上个阶段的执行结果,把结果数据、按执行树流式传递汇集,减少的了把中间结果写⼊磁盘的步骤,再从磁盘读取数据的开销。 Impala使⽤服务的方式避免每次执⾏查询都需要启动的开销,即相⽐Hive没了了MR启动时间。
    • 使⽤用LLVM(C++编写的编译器)产⽣生运行代码,针对特定查询⽣成特定代码。
    • 优秀的IO调度, Impala⽀持直接数据块读取和本地代码计算。
    • 选择适合的数据存储格式可以得到最好的性能(Impala⽀持多种存储格式)。
    • 尽可能使用内存,中间结果不写磁盘,及时通过⽹网络以stream的⽅式传递。
    • mr慢的原因:1.shuffle阶段,从磁盘上的IO传输(IO开销);2.shuffle阶段默认对key分区的排序(排序开销)
    • impala快在哪里:1.避免数据落磁盘;2.处理进程无需再次启动任务;3.默认不会对数据进行排序
  2. Impala与Hive对⽐分析

    查询过程

    • Hive:在Hive中,每个查询都有一个“冷启动”的常见问题。(map,reduce每次都要启动关闭,申请资源,释放资源
    • Impala: Impala避免了任何可能的启动开销,这是一种本地查询语言。 因为要始终处理查询,则Impala守护程序进程总是在集群启动之后就准备就绪。守护进程在集群启动之后可以接收查询任务并执行查询任务。

    中间结果

    • Hive: Hive通过MR引擎实现所有中间结果,中间结果需要落盘,这对降低数据处理速度有不不利利影响。
    • Impala:在执行程序之间使用流的方式传输中间结果,避免数据落盘。尽可能使用内存避免磁盘开销

    交互查询

    • Hive:对于交互式计算, Hive不是理理想的选择。
    • Impala:对于交互式计算, Impala常适合。 (数据量级PB级)

    计算引擎

    • Hive:是基于批处理的Hadoop MapReduce
    • Impala:更像是MPP数据库

    容错

    • Hive: Hive是容错的(通过MR&Yarn实现
    • Impala: Impala没有容错,由于良好的查询性能, Impala遇到错误会重新执行一次查询

    查询速度

    • Impala: Impala比Hive快3-90倍。

Impala优势总结

  1. Impala最⼤优点就是查询速度快,在⼀定数据量下
  2. 速度快的原因:避免了了MR引擎的弊端,采用了了MPP数据库技术
  1. Impala属于MPP架构,只能做到百节点级,⼀般并发查询个数达到20左右时,整个系统的吞吐已经达到满负荷状态,在扩容节点也提升不了吞吐量,处理数据量在PB级别最佳。
  2. 资源不能通过YARN统一资源管理调度,所以Hadoop集群无法实现Impala、Spark、 Hive等组件的动态资源共享。

Hive: 复杂的批处理理查询任务,数据转换任务,对实时性要求不⾼高同时数据量又很大的场景。 Impala:实时数据分析,与Hive配合使用,对Hive的结果数据集进行实时分析。 impala不能完全取代hive, impala可以直接处理hive表中的数据。

  • Impala的安装需要提前装好Hadoop,Hive这两个框架,Impala直接使用hiveu按数据管理数据。
  • hive需要在所有的Impala安装的节点上⾯都要有,因为Impala需要引⽤Hive的依赖包
  • hadoop的框架需要⽀持C程序访问接⼝,查看下图,如果有该路径有.so结尾⽂件,就证明⽀持C接⼝。

准备Impala的所有依赖包 Cloudera公司对于Impala的安装只提供了rpm包没有提供tar包;所以我们选择使⽤Cloudera的rpm包进⾏Impala的安装,但是另外⼀个问题,Impala的rpm包依赖⾮常多的其他的rpm包,我们可以⼀个个的将依赖找出来,但是这种⽅式实在是浪费时间。

Linux系统中对于rpm包的依赖管理提供了⼀个⾮常好的管理⼯具叫做Yum,类似于Java⼯程中的包管理⼯具Maven,Maven可以⾃动搜寻指定Jar所需的其它依赖并⾃动下载来。Yum同理可以⾮常⽅便的让我们进⾏rpm包的安装⽆需关系当前rpm所需的依赖。但是与Maven下载其它依赖需要到中央仓库⼀样Yum下载依赖所需的源也是在放置在国外服务器并且其中没有安装Impala所需要的rpm包,所以默认的这种Yum源可能下载依赖失败。所以我们可以⾃⼰指定Yum去哪⾥下载所需依赖。

rpm⽅式安装:需要⾃⼰管理rpm包的依赖关系;⾮常麻烦;解决依赖关系使⽤yum;默认Yum源是没有Impala的rpm安装包,所以我们⾃⼰准备好所有的Impala安装所需的rpm包,制作Yum本地源,配置Yum命令去到我们准备的Yun源中下载Impala的rpm包进⾏安装。

Yum命令默认源 在这里插入图片描述 本地Yum源⽅式 在这里插入图片描述 具体制作步骤 Yum源是Centos当中下载软件rpm包的地址,因此通过制作本地Yum源并指定Yum命令使⽤本地Yum源,为了使Yum命令(本机,跨⽹络节点)可以通过⽹络访问到本地源,我们使⽤Httpd这种静态资源服务器来开放我们下载所有的rpm包。

  1. centos7-1安装Httpd服务器
 
  1. 新建⼀个测试⻚⾯ httpd默认存放⻚⾯路径 /var/www/html/ 新建⼀个⻚⾯test.html
 
 
  1. 下载Impala安装所需rpm包 Impala所需安装包需要到Cloudera提供地址下载:http://archive.cloudera.com/cdh5/repo-as-tarball/5.7.6/cdh5.7.6-centos7.tar.gz 注意:该tar.gz包是包含了Cloudera所提供的⼏乎所有rpm包,但是为了⽅便我们不再去梳理其中依赖关系,全部下载来,整个⽂件⽐较⼤,有3.8G。选择⼀个磁盘空间够的节点,后续还要把压缩包解压所以磁盘空间要剩余10G以上。
  2. 使⽤Httpd盛放依赖包 创建软链接到/var/www/html下
 

验证:http://centos7-1/cdh57/ 如果提示403 forbidden,修改config文件

 
  1. 修改Yum源配置⽂件,配置新rpm的下载地址
 

name:对于当前源的描述 baseurl:访问当前源的地址信息 gpgcheck: 1 0,gpg校验 enabled:1/0,是否使⽤当前源

  1. 分发local.repo⽂件到其它节点
 

2.2.1 集群规划

在这里插入图片描述 Impala⻆⾊

  • impala-server:这个进程是Impala真正⼯作的进程,官⽅建议把impala-server安装在datanode节点,更靠近数据(短路读取),进程名impalad
  • impala-statestored:健康监控⻆⾊,主要监控impala-server,impala-server出现异常时告知给其它impala-server;进程名叫做statestored
  • impala-catalogd :管理和维护元数据(Hive),impala更新操作;把impala-server更新的元数据通知给其它impala-server,进程名catalogd
  • 官⽅建议statestore与catalog安装在同⼀节点上。

2.2.2 具体安装

centos7-3

 

centos7-1与centos7-2

 

配置Impala

  1. 修改hive-site.xml
 
  1. 分发Hive安装包到集群节点
  2. centos7-3/centos7-1启动metastore服务
 
  1. 修改HDFS集群hdfs-site.xml 配置HDFS集群的短路读取 什么是短路读取? 在HDFS中通过DataNode来读取数据。但是,当客户端向DataNode请求读取⽂件时,DataNode就会从磁盘读取该⽂件并通过TCP socket将数据发送到客户端。所谓“短路”是指Client客户端直接读取⽂件。很明显,这种情况只在客户端与数据放在同⼀地点(译者注:同⼀主机)时才有可能发⽣。短路读对于许多应⽤程序会带来重⼤的性能提升。 短路读取:就是Client与DataNode属于同⼀节点,⽆需再经过⽹络传输数据,直接本地读取。要配置短路本地读,需要验证本机Hadoop是否有libhadoop.so; 短路读取配置步骤
 

:分发到集群其它节点。重启Hadoop集群。

  1. Impala具体配置 引⽤HDFS,Hive配置 使⽤Yum⽅式安装impala默认的Impala配置⽂件⽬录为 /etc/impala/conf,Impala的使⽤要依赖Hadoop,Hive框架,所以需要把Hdfs,Hive的配置⽂件告知Impala。 执⾏以下命令把Hdfs,Hive的配置⽂件软链接到/etc/impala/conf下 注:所有节点都要执⾏此命令
 

Impala⾃身配置 所有节点更改Impala默认配置⽂件以及添加mysql的驱动包

 

所有节点创建mysql的驱动包的软链接

 

修改bigtop的java_home路径(打包测试的工具,依赖于java) 注意:Apache Bigtop 是⼀个针对基础设施⼯程师和数据科学家的开源项⽬,旨在全⾯打包、测试和配置领先的开源⼤数据组件/项⽬。Impala项⽬中使⽤到了此软件。

 

启动Impala

 

消除Impala影响 由于使⽤Yum命令安装Impala,我们选择使⽤yum⾃动进⾏Impala依赖的安装和处理,所以本次安装默认会把Impala依赖的所有框架都会安装,⽐如Hadoop,Hive,Mysql等,为了保证我们⾃⼰安装的Hadoop等使⽤正常我们需要删除掉Impala默认安装的其它框架

 

使用Yum方式安装Impala后, impala-shell可以全局使用;进入impala-shell命令行impala-shell进⼊入到impala的交互窗口

  1. 准备数据⽂件 user.csv
 
  1. 创建HDFS 存放数据的路径
 
  1. 创建表
 
  1. 查询数据 在这里插入图片描述
  2. 创建t2表
 
  1. 插⼊数据到t2
 

更新元数据 使⽤Beeline连接Hive查看Hive中的数据,发现通过Impala创建的表,导⼊的数据都可以被Hive感知到。 ⼩结

  1. 上⾯案例中Impala的数据⽂件我们准备的是以逗号分隔的⽂本⽂件,实际上,Impala可以⽀ 持RCFile,SequenceFile,Parquet等多种⽂件格式。
  2. Impala与Hive元数据的关系Hive对于元数据的更新操作不能被Impala感知到 Impala对元数据的更新操作可以被Hive感知到。 Impala同步Hive元数据命令: 在impala中⼿动执⾏invalidate metadata,此命令慎用。(后续详细讲解) Impala是通过Hive的metastore服务来访问和操作Hive的元数据,但是Hive对表进⾏创建删除修改等操作,Impala是⽆法⾃动识别到Hive中元数据的变更情况的,如果想让Impala识别到Hive元数据的变化,所以需要进⼊impala-shell之后⾸先要做的操作就是执⾏invalidate metadata,该命令会将所有的Impala的元数据失效并重新从元数据库同步元数据信息。后⾯详细讲解元数据更新命令。
  3. Impala操作HDFS使⽤的是Impala⽤户,所以为了避免权限问题,我们可以选择关闭权限校 验在hdfs-site.xml中添加如下配置
 

Impala是⼀个分布式,⼤规模并⾏处理(MPP)数据库引擎,它包括多个进程。Impala与Hive类似不是数据库⽽是数据分析⼯具impalad

  • ⻆⾊名称为Impala Daemon,是在每个节点上运⾏的进程,是Impala的核⼼组件,进程名是impalad;
  • 作⽤,负责读写数据⽂件,接收来⾃Impala-shell,JDBC,ODBC等的查询请求,与集群其它Impalad分布式并⾏完成查询任务,并将查询结果返回给中⼼协调者。
  • 为了保证Impalad进程了解其它Impalad的健康状况,Impalad进程会⼀直与statestore保持通信。
  • Impalad服务由三个模块组成:Query Planner、Query Coordinator和Query Executor,前两个模块组成前端,负责接收SQL查询请求,解析SQL并转换成执⾏计划,交由后端执⾏。

statestored

  • statestore监控集群中Impalad的健康状况,并将集群健康信息同步给Impalad,
  • statestore进程名为statestored

catalogd

  • Impala执⾏的SQL语句引发元数据发⽣变化时,catalog服务负责把这些元数据的变化同步给其它Impalad进程(⽇志验证,监控statestore进程⽇志)
  • catalog服务对应进程名称是catalogd
  • 由于⼀个集群需要⼀个catalogd以及⼀个statestored进程,⽽且catalogd进程所有请求都是经过statestored进程发送,所以官⽅建议让statestored进程与catalogd进程安排同个节点。

在这里插入图片描述

  1. Client提交任务 Client发送⼀个SQL查询请求到任意⼀个Impalad节点(client在哪个节点就发送给那个impalad),会返回⼀个queryId⽤于之后的客户端操作。
  2. ⽣成单机和分布式执⾏计划 SQL提交到Impalad节点之后,Analyser依次执⾏SQL的词法分析、语法分析、语义分析等操作; 从MySQL元数据库中获取元数据,从HDFS的名称节点中获取数据地址,以得到存储这个查询相关数据的所有数据节点。
    • 单机执⾏计划: 根据上⼀步对SQL语句的分析,由Planner先⽣成单机的执⾏计划,该执⾏计划是有PlanNode组成的⼀棵树,这个过程中也会执⾏⼀些SQL优化,例如Join顺序改变、谓词下推等。
    • 分布式并⾏物理计划:将单机执⾏计划转换成分布式并⾏物理执⾏计划,物理执⾏计划由⼀个个的Fragment组成,Fragment之间有数据依赖关系,处理过程中需要在原有的执⾏计划之上加⼊⼀些ExchangeNode和DataStreamSink信息等。
      • Fragment : sql⽣成的分布式执⾏计划的⼀个⼦任务
      • DataStreamSink:传输当前的Fragment输出数据到不同的节点
  3. 任务调度和分发 Coordinator将Fragment(⼦任务)根据数据分区信息发配到不同的Impalad节点上执⾏。Impalad节点接收到执⾏Fragment请求交由Executor执⾏。
  4. Fragment之间的数据依赖 每⼀个Fragment的执⾏输出通过DataStreamSink发送到下⼀个Fragment,Fragment运⾏过程中不断向coordinator节点汇报当前运⾏状态。
  5. 结果汇总 查询的SQL通常情况下需要有⼀个单独的Fragment⽤于结果的汇总,它只在Coordinator节点运⾏,将多个节点的最终执⾏结果汇总,转换成ResultSet信息。
  6. 获取结果 客户端调⽤获取ResultSet的接⼝,读取查询结果。

查询计划示例 以⼀个SQL例⼦来展示查询计划

 

QueryPlanner⽣成单机的执⾏计划 在这里插入图片描述 分析上⾯的单机执⾏计划,第⼀步先去扫描t1表中需要的数据,如果数据⽂件存储是列式存储我们可以便利的扫描到所需的列id,n1;接着需要与t2表进⾏Join操作,扫描t2表与t1表类似获取到所需数据列id,n2;t1与t2表进⾏关联,关联之后再与t3表进⾏关联,这⾥Impala会使⽤谓词下推扫描t3表只取join所需数据;对group by进⾏相应的aggregation操作,最终是排序取出指定数量的数据返回。 分布式并⾏执⾏计划 所谓的分布式并⾏化执⾏计划就是在单机执⾏计划基础之上结合数据分布式存储的特点,按照任务的计算要求把单机执⾏计划拆分为多段⼦任务,每个⼦任务都是可以并⾏执⾏的。上⾯的单机执⾏计划转为分布式并⾏执⾏计划如下图所示在这里插入图片描述 在这里插入图片描述 分布式执⾏计划中涉及到多表的Join,Impala会根据表的⼤⼩来决定Join的⽅式,主要有两种分别是HashJoin与Broadcast Join。 上⾯分布式执⾏计划中可以看出T1,T2表⼤⼀些,⽽T3表⼩⼀些,所以对于T1与T2的Join Impala选择使⽤Hash Join,对于T3表选择使⽤Broadcast ⽅式,直接把T3表⼴播到需要Join的节点上。

分布式并⾏计划流程

  1. T1和T2使⽤Hash join,此时需要按照id的值分别将T1和T2分散到不同的Impalad进程,但是相同的id会散列到相同的Impalad进程,这样每⼀个Join之后是全部数据的⼀部分
  2. T1与T2Join之后的结果数据再与T3表进⾏Join,此时T3表采⽤Broadcast⽅式把⾃⼰全部数据(id列)⼴播到需要的Impala节点上
  3. T1,T2,T3Join之后再根据Group by执⾏本地的预聚合,每⼀个节点的预聚合结果只是最终结果的⼀部分(不同的节点可能存在相同的group by的值,需要再进⾏⼀次全局的聚合。
  4. 全局的聚合同样需要并⾏,则根据聚合列进⾏Hash分散到不同的节点执⾏Merge运算(其实仍然是⼀次聚合运算,⼀般情况下为了较少数据的⽹络传输, Impala会选择之前本地聚合节点做全局聚合⼯作。
  5. 通过全局聚合之后,相同的key只存在于⼀个节点,然后对于每⼀个节点进⾏排序和TopN计算,最终将每⼀个全局聚合节点的结果返回给Coordinator进⾏合并、排序、limit计算,返回结果给⽤户。

Impala的核⼼开发语⾔是sql语句,Impala有shell命令⾏窗⼝,以及JDBC等⽅式来接收sql语句执⾏,对于复杂类型分析可以使⽤C++或者Java来编写UDF函数。 Impala的sql语法是⾼度集成了Apache Hive的sql语法,Impala⽀持Hive⽀持的数据类型以及部分Hive的内置函数。 需要注意的⼏点

  1. Impala与Hive类似它们的重点都是在与查询,所以像Update,delete等具有更新性质的操作最好不要使⽤这种⼯具,对于删除数据的操作可以通过Drop Table,Alter Table Drop Partition来实现,更新可以尝试使⽤Insert overwrite⽅式
  2. 通常使⽤Impala的⽅式是数据⽂件存储在Hdfs⽂件系统,借助于Impala的表定义来查询和管理Hdfs上的数据⽂件
  3. Impala的使⽤⼤多数与Hive相同,⽐如Impala同样⽀持内外部表,以及分区等,可以借鉴参考Hive的使⽤。

4.1.1 impala-shell外部命令

所谓的外部命令指的是不需要进⼊到impala-shell交互命令⾏当中即可执⾏的命令参数。impala-shell后⾯执⾏的时候可以带很多参数。你可以在启动 impala-shell 时设置,⽤于修改命令执⾏环境。 impala-shell –h可以帮助我们查看帮助⼿册。也可以参考课程附件资料。 impala-shell –r刷新impala元数据,与建⽴连接后执⾏ REFRESH 语句效果相同(元数据发⽣变化的时候) impala-shell –f ⽂件路径 执⾏指的的sql查询⽂件。 impala-shell –i指定连接运⾏ impalad 守护进程的主机。默认端⼝是 21000。你可以连接到集群中运⾏impalad 的任意主机。 impala-shell –o保存执⾏结果到⽂件当中去。 展示Impala默认⽀持的内置函数需要进⼊Impala默认系统数据库中执⾏。

 

4.1.2 impala-shell内部命令

所谓内部命令是指,进⼊impala-shell命令⾏之后可以执⾏的语法。

  • connect hostname 连接到指定的机器impalad上去执⾏。
  • refresh dbname.tablename增量刷新,刷新某⼀张表的元数据,主要⽤于刷新hive当中数据表⾥⾯的数据改变的情况,性能好。
  • invalidate metadata全量刷新,性能消耗较⼤,主要⽤于hive当中新建数据库或者数据库表的时候来进⾏刷新。
  • quit/exit命令 从Impala shell中退出
  • explain 命令 ⽤于查看sql语句的执⾏计划。 explain的值可以设置成0,1,2,3等⼏个值,其中3级别是最⾼的,可以打印出最全的信息
  • profile命令执⾏sql语句之后执⾏,可以打印出更加详细的执⾏步骤,主要⽤于查询结果的查看,集群的调优等。 expalin:可以不真正执⾏任务,只是展示任务的执⾏计划; profile:需要任务执⾏完成后调⽤,可以从更底层以及更详细的层⾯来观察我们运⾏impala的任务,进⾏调优。

4.2.1 数据库特定语句

  1. 创建数据库 CREATE DATAbase语句⽤于在Impala中创建新数据库。 CREATE DATAbase IF NOT EXISTS database_name; 这⾥,IF NOT EXISTS是⼀个可选的⼦句。如果我们使⽤此⼦句,则只有在没有具有相同名称的现有数据库时,才会创建具有给定名称的数据库。 默认就会在hive的数仓路径下创建新的数据库名⽂件夹
 
  1. 删除数据库 Impala的DROP DATAbase语句⽤于从Impala中删除数据库。 在删除数据库之前,建议从中删除所有表。 如果使⽤级联删除,Impala会在删除指定数据库中的表之前删除它。
 

4.2.2 表特定语句

  1. create table语句 CREATE TABLE语句⽤于在Impala中的所需数据库中创建新表。 需要指定表名字并定义其列和每列的数据类型。 impala⽀持的数据类型和hive类似。
 

默认建表的数据存储路径跟hive⼀致。也可以在建表的时候通过location指定具体路径。

  1. insert 语句 Impala的INSERT语句有两个⼦句: into和overwrite。into⽤于插⼊新记录数据,overwrite⽤于覆盖已有的记录。在hive中如果没有配置本地模式,insert将会被yarn集群启动,而impala中则不会启动yarn集群。
 

这⾥,column1,column2,… columnN是要插⼊数据的表中的列的名称。还可以添加值⽽不指定列名,但是,需要确保值的顺序与表中的列的顺序相同。 overwrite覆盖⼦句覆盖表当中全部记录。 覆盖的记录将从表中永久删除。

  1. select语句 Impala SELECT语句⽤于从数据库查询数据, 此查询以表的形式返回数据。
  2. describe 语句 Impala中的describe语句⽤于提供表的描述。 此语句的结果包含有关表的信息,例如列名称及其数据类型。
  3. alter table Impala中的Alter table语句⽤于对给定表执⾏更改。使⽤此语句,我们可以添加,删除或修改现有表中的列,也可以重命名它们。
  4. delete、truncate table Impala drop table语句⽤于删除Impala中的现有表。此语句还会删除内部表的底层HDFS⽂件。 注意:使⽤此命令时必须⼩⼼,因为删除表后,表中可⽤的所有信息也将永远丢失。
 

Impala的Truncate Table语句⽤于从现有表中删除所有记录。保留表结构。 您也可以使⽤DROP TABLE命令删除⼀个完整的表,但它会从数据库中删除完整的表结构,如希望存储⼀些数据,您将需要重新创建此表。

 

对于Text存储格式中的复杂类型不⽀持,复杂类型要使⽤parquet格式。

  1. view视图 视图仅仅是存储在数据库中具有关联名称的Impala查询语⾔的语句。 它是以预定义的SQL查询形式的表的组合。 视图可以包含表的所有⾏或选定的⾏。
 

创建视图view、查询视图view

 

修改视图

 

删除视图

 
  1. order by⼦句
 

可以使⽤关键字ASC或DESC分别按升序或降序排列表中的数据。 如果我们使⽤NULLS FIRST,表中的所有空值都排列在顶⾏; 如果我们使⽤NULLS LAST,包含空值的⾏将最后排列。

  1. group by⼦句 Impala GROUP BY⼦句与SELECT语句协作使⽤,以将相同的数据排列到组中。
  2. having⼦句 容易与where过滤进⾏混淆, 如何区分: where:过滤的数据是原始数据,表中本来就存在的数据; having:过滤的是查询结果数据; 按年龄对表进⾏分组,并选择每个组的最⼤⼯资,并显示⼤于20000的⼯资
 
  1. limit、offset Impala中的limit⼦句⽤于将结果集的⾏数限制为所需的数,即查询的结果集不包含超过指定限制的记录。 ⼀般来说,select查询的resultset中的⾏从0开始。使⽤offset⼦句,我们可以决定从哪⾥考虑输出。
 

使⽤offset关键字要求结果数据必须是排序之后的

  1. insert into values 这种⽅式⾮常类似于RDBMS的数据插⼊⽅式。
 
  1. insert into select 插⼊⼀张表的数据来⾃于后⾯的select查询语句返回的结果。
  2. create table as select 建表的字段个数、类型、数据来⾃于后续的select查询语句。 load data⽅式,这种⽅式不建议在Impala中使⽤,先使⽤load data⽅式把数据加载到Hive表中,然后使⽤以上⽅式插⼊Impala表中。

在实际⼯作当中,因为impala的查询⽐较快,所以可能有会使⽤到impala来做数据库查询的情况,我们可以通过java代码来进⾏操作impala的查询

  1. 导⼊jar包
 
  1. java代码开发
 

Impala主要有三个组件,分别是statestore,catalog和impalad,对于Impalad节点,每⼀个节点都可以接收客户端的查询请求,并且对于连接到该Impalad的查询还要作为Coordinator节点(需要消耗⼀定的内存和CPU)存在,为了保证每⼀个节点的资源开销的平衡需要对于集群中的Impalad节点做⼀下负载均衡。

  • Cloudera官⽅推荐的代理⽅案:HAProxy
  • DNS做负载均衡 DNS做负载均衡⽅案是最简单的,但是性能⼀般,所以这⾥我们按照官⽅的建议使⽤HAProxy实现负载均衡 ⽣产中应该选择⼀个⾮Impalad节点作为HAProxy的安装节点

6.1.1 HAProxy⽅案

安装haproxy

 

配置⽂件

 
 

启动

 

使⽤ Impala-shell访问⽅式

 

Impala集群在操作过程中尽量多给内存,如果内存不能满⾜使⽤要求,Impala的执⾏很可能会报错

cloudera官⽹上的Impala⽂档,原名为《Impala Performance Guidelines and Best Practices》。主要介绍了为了提升impala性能应该考虑的⼀些事情,结合实际考虑

基本优化策略

  • ⽂件格式 对于⼤数据量来说,Parquet⽂件格式是最佳的
  • 避免⼩⽂件 insert … values 会产⽣⼤量⼩⽂件,避免使⽤
  • 合理分区粒度 利⽤分区可以在查询的时候忽略掉⽆⽤数据,提⾼查询效率,通常建议分区数量在3万以下(太多的分区也会造成元数据管理的性能下降)
  • 分区列数据类型最好是整数类型 分区列可以使⽤string类型,因为分区列的值最后都是作为HDFS⽬录使⽤,如果分区列使⽤整数类型可以降低内存消耗
  • 获取表的统计指标:在追求性能或者⼤数据量查询的时候,要先获取所需要的表的统计指标(如:执⾏ compute stats)
  • 减少传输客户端数据量 聚合(如 count、sum、max 等) 过滤(如 WHERe ) limit限制返回条数
 
特别提示:本信息由相关用户自行提供,真实性未证实,仅供参考。请谨慎采用,风险自负。

举报收藏 0打赏 0评论 0
 
更多>同类最新资讯
0相关评论

相关文章
最新文章
推荐文章
推荐图文
最新资讯
点击排行
{
网站首页  |  关于我们  |  联系方式  |  使用协议  |  隐私政策  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  鄂ICP备2020018471号