Flink和Spark读写avro文件

前面文章基于Java实现Avro文件读写功能我们说到如何使用java读写avro文件,本文基于上述文章进行扩展,展示flink和spark如何读取avro文件。

Flink读写avro文件

flink支持avro文件格式,内置如下依赖:

<dependency>
  <groupId>org.apache.flink</groupId>
  <artifactId>flink-avro</artifactId>
  <version>${flink.version}</version>
</dependency>

使用flink sql将数据以avro文件写入本地。首先创建t1表

CREATE TABLE t1(
    uuid VARCHAR(20),
    name VARCHAR(20),
    age INT,
    ts TIMESTAMP(3),
    `partition` VARCHAR(20)
)
PARTITION BY (`partition`)
WITH (
    'connector' = 'filesystem',
    'path' = 'file:///e:/code/data/t1',
    'format' = 'avro'
)

将数据写入t1表中

INSERT INTO t1 VALUES
  ('id1','Danny',23,TIMESTAMP '1970-01-01 00:00:01','par1'),
  ('id2','Stephen',33,TIMESTAMP '1970-01-01 00:00:02','par1'),
  ('id3','Julian',53,TIMESTAMP '1970-01-01 00:00:03','par2'),
  ('id4','Fabian',31,TIMESTAMP '1970-01-01 00:00:04','par2'),
  ('id5','Sophia',18,TIMESTAMP '1970-01-01 00:00:05','par3'),
  ('id6','Emma',20,TIMESTAMP '1970-01-01 00:00:06','par3'),
  ('id7','Bob',44,TIMESTAMP '1970-01-01 00:00:07','par4'),
  ('id8','Han',56,TIMESTAMP '1970-01-01 00:00:08','par4');

查看本地文件:

1

数据读取:

select * from t1;

得到:

2

Spark读写avro文件

在文章基于Java实现Avro文件读写功能中我们使用java写了一个users.avro文件,现在使用spark读取该文件并重新将其写入新文件中:

        SparkConf sparkConf = new SparkConf()
                .setMaster("local")
                .setAppName("Java Spark SQL basic example");
        SparkContext sparkContext = new SparkContext(sparkConf);

        SparkSession spark = SparkSession
                .builder()
                .sparkContext(sparkContext)
                .getOrCreate();

        Dataset<Row> usersDF = spark.read().format("avro").load("users.avro");
        usersDF.select("name", "favorite_color").write().format("avro").save("file:///e:/code/data/users");

得到:

3

完整代码示例:https://git.lrting.top/xiaozhch5/avro-examples

0 0 投票数
文章评分

本文为从大数据到人工智能博主「xiaozhch5」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。

原文链接:https://lrting.top/backend/3894/

(0)
上一篇 2022-02-19 01:04
下一篇 2022-02-20 13:54

相关推荐

订阅评论
提醒
guest

0 评论
内联反馈
查看所有评论
0
希望看到您的想法,请您发表评论x