博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
Hive 中如何解决多字符分割场景?
阅读量:4073 次
发布时间:2019-05-25

本文共 1145 字,大约阅读时间需要 3 分钟。

前言

本文隶属于专栏《1000个问题搞定大数据技术体系》,该专栏为笔者原创,引用请注明来源,不足和错误之处请在评论区帮忙指出,谢谢!

本专栏目录结构和参考文献请见

正文

通过 MultiDelimitSerDe 解决多字符分割场景

  • 1、创建表
create  table t1 (id String, name string)row format SerDe 'org.apache.hadoop.hive.contrib.SerDe2.MultiDelimitSerDe'WITH SERDEPROPERTIES ("field.delim"="##");
  • 2、准备数据 t1.txt
1##xiaoming2##xiaowang3##xiaozhang
  • 3、加载数据
load data local inpath '/home/hadoop/t1.txt' into table t1;
  • 4、查询数据
0: jdbc:hive2://node1:10000> select * from t1;+--------+------------+--+| t1.id  |  t1.name   |+--------+------------+--+| 1      | xiaoming   || 2      | xiaowang   || 3      | xiaozhang  |+--------+------------+--+

通过 RegexSerDe 解决多字符分割场景

  • 1、创建表
create  table t2(id int, name string)row format SerDe 'org.apache.hadoop.hive.SerDe2.RegexSerDe' WITH SERDEPROPERTIES ("input.regex" = "^(.*)\\#\\#(.*)$");
  • 2、准备数据 t1.txt
1##xiaoming2##xiaowang3##xiaozhang
  • 3、加载数据
load data local inpath '/home/hadoop/t1.txt' into table t2;
  • 4、查询数据
0: jdbc:hive2://node1:10000> select * from t2;+--------+------------+--+| t2.id  |  t2.name   |+--------+------------+--+| 1      | xiaoming   || 2      | xiaowang   || 3      | xiaozhang  |+--------+------------+--+

转载地址:http://ezgji.baihongyu.com/

你可能感兴趣的文章
FTP 常见问题
查看>>
zookeeper单机集群安装
查看>>
do_generic_file_read()函数
查看>>
Python学习笔记之数据类型
查看>>
Python学习笔记之特点
查看>>
Python学习笔记之安装
查看>>
shell 快捷键
查看>>
VIM滚屏操作
查看>>
EMC 2014存储布局及十大新技术要点
查看>>
linux内核内存管理(zone_dma zone_normal zone_highmem)
查看>>
将file文件内容转成字符串
查看>>
循环队列---数据结构和算法
查看>>
优先级队列-数据结构和算法
查看>>
链接点--数据结构和算法
查看>>
servlet中请求转发(forword)与重定向(sendredirect)的区别
查看>>
Spring4的IoC和DI的区别
查看>>
springcloud 的eureka服务注册demo
查看>>
eureka-client.properties文件配置
查看>>
MODULE_DEVICE_TABLE的理解
查看>>
platform_device与platform_driver
查看>>