上海古都建筑设计集团,上海办公室装修设计公司,上海装修公司高质量的内容分享社区,上海装修公司我们不是内容生产者,我们只是上海办公室装修设计公司内容的搬运工平台

python毕设选题 - flink大数据淘宝用户行为数据实时分析与可视化

guduadmin15小时前

文章目录

  • 0 前言
  • 1、环境准备
    • 1.1 flink 下载相关 jar 包
    • 1.2 生成 kafka 数据
    • 1.3 开发前的三个小 tip
    • 2、flink-sql 客户端编写运行 sql
      • 2.1 创建 kafka 数据源表
      • 2.2 指标统计:每小时成交量
        • 2.2.1 创建 es 结果表, 存放每小时的成交量
        • 2.2.2 执行 sql ,统计每小时的成交量
        • 2.3 指标统计:每10分钟累计独立用户数
          • 2.3.1 创建 es 结果表,存放每10分钟累计独立用户数
          • 2.3.2 创建视图
          • 2.3.3 执行 sql ,统计每10分钟的累计独立用户数
          • 2.4 指标统计:商品类目销量排行
            • 2.4.1 创建商品类目维表
            • 2.4.1 创建 es 结果表,存放商品类目排行表
            • 2.4.2 创建视图
            • 2.4.3 执行 sql , 统计商品类目销量排行
            • 3、最终效果与体验心得
              • 3.1 最终效果
              • 3.2 体验心得
                • 3.2.1 执行
                • 3.2.2 存储
                • 4 最后

                  0 前言

                  🔥 这两年开始毕业设计和毕业答辩的要求和难度不断提升,传统的毕设题目缺少创新和亮点,往往达不到毕业答辩的要求,这两年不断有学弟学妹告诉学长自己做的项目系统达不到老师的要求。

                  为了大家能够顺利以及最少的精力通过毕设,学长分享优质毕业设计项目,今天要分享的是

                  🚩 flink大数据淘宝用户行为数据实时分析与可视化

                  🥇学长这里给一个题目综合评分(每项满分5分)

                  • 难度系数:3分
                  • 工作量:3分
                  • 创新点:4分

                    1、环境准备

                    1.1 flink 下载相关 jar 包

                    flink-sql 连接外部系统时,需要依赖特定的 jar 包,所以需要事先把这些 jar 包准备好。说明与下载入口

                    本项目使用到了以下的 jar 包 ,下载后直接放在了 flink/lib 里面。

                    需要注意的是 flink-sql 执行时,是转化为 flink-job 提交到集群执行的,所以 flink 集群的每一台机器都要添加以下的 jar 包。

                    外部版本jar
                    kafka4.1flink-sql-connector-kafka_2.11-1.10.2.jar
                    flink-json-1.10.2-sql-jar.jar
                    elasticsearch7.6flink-sql-connector-elasticsearch7_2.11-1.10.2.jar
                    mysql5.7flink-jdbc_2.11-1.10.2.jar
                    mysql-connector-java-8.0.11.jar

                    1.2 生成 kafka 数据

                    用户行为数据来源: 阿里云天池公开数据集

                    网盘:https://pan.baidu.com/s/1wDVQpRV7giIlLJJgRZAInQ 提取码:gja5

                    商品类目纬度数据来源: category.sql

                    数据生成器:datagen.py

                    有了数据文件之后,使用 python 读取文件数据,然后并发写入到 kafka。

                    修改生成器中的 kafka 地址配置,然后运行 以下命令,开始不断往 kafka 写数据

                    # 5000 并发
                    nohup python3 datagen.py 5000 &                  
                    

                    1.3 开发前的三个小 tip

                    • 生成器往 kafka 写数据,会自动创建主题,无需事先创建

                    • flink 往 elasticsearch 写数据,会自动创建索引,无需事先创建

                    • Kibana 使用索引模式从 Elasticsearch 索引中检索数据,以实现诸如可视化等功能。

                      使用的逻辑为:创建索引模式 》Discover (发现) 查看索引数据 》visualize(可视化)创建可视化图表》dashboards(仪表板)创建大屏,即汇总多个可视化的图表

                      2、flink-sql 客户端编写运行 sql

                      # 进入 flink-sql 客户端, 需要指定刚刚下载的 jar 包目录
                      ./bin/sql-client.sh embedded -l lib
                      

                      2.1 创建 kafka 数据源表

                      -- 创建 kafka 表, 读取 kafka 数据
                      CREATE TABLE user_behavior (
                          user_id BIGINT,
                          item_id BIGINT,
                          category_id BIGINT,
                          behavior STRING,
                          ts TIMESTAMP(3),
                          proctime as PROCTIME(),
                          WATERMARK FOR ts as ts - INTERVAL '5' SECOND  
                      ) WITH (
                          'connector.type' = 'kafka', 
                          'connector.version' = 'universal',  
                          'connector.topic' = 'user_behavior',  
                          'connector.startup-mode' = 'earliest-offset', 
                          'connector.properties.zookeeper.connect' = '172.16.122.24:2181', 
                          'connector.properties.bootstrap.servers' = '172.16.122.17:9092', 
                          'format.type' = 'json'  
                      );
                      SELECT * FROM user_behavior;
                      

                      2.2 指标统计:每小时成交量

                      2.2.1 创建 es 结果表, 存放每小时的成交量

                      CREATE TABLE buy_cnt_per_hour (
                          hour_of_day BIGINT,
                          buy_cnt BIGINT
                      ) WITH (
                          'connector.type' = 'elasticsearch', 
                          'connector.version' = '7',  
                          'connector.hosts' = 'http://172.16.122.13:9200',  
                          'connector.index' = 'buy_cnt_per_hour',
                          'connector.document-type' = 'user_behavior',
                          'connector.bulk-flush.max-actions' = '1',
                          'update-mode' = 'append',
                          'format.type' = 'json'
                      );
                      

                      2.2.2 执行 sql ,统计每小时的成交量

                      INSERT INTO buy_cnt_per_hour
                      SELECT HOUR(TUMBLE_START(ts, INTERVAL '1' HOUR)), COUNT(*)
                      FROM user_behavior
                      WHERE behavior = 'buy'
                      GROUP BY TUMBLE(ts, INTERVAL '1' HOUR);
                      

                      2.3 指标统计:每10分钟累计独立用户数

                      2.3.1 创建 es 结果表,存放每10分钟累计独立用户数

                      CREATE TABLE cumulative_uv (
                          time_str STRING,
                          uv BIGINT
                      ) WITH (
                          'connector.type' = 'elasticsearch', 
                          'connector.version' = '7',  
                          'connector.hosts' = 'http://172.16.122.13:9200',  
                          'connector.index' = 'cumulative_uv',
                          'connector.document-type' = 'user_behavior',    
                          'update-mode' = 'upsert',
                          'format.type' = 'json'
                      );
                      

                      2.3.2 创建视图

                      CREATE VIEW uv_per_10min AS
                      SELECT
                        MAX(SUBSTR(DATE_FORMAT(ts, 'HH:mm'),1,4) || '0') OVER w AS time_str,
                        COUNT(DISTINCT user_id) OVER w AS uv
                      FROM user_behavior
                      WINDOW w AS (ORDER BY proctime ROWS BETWEEN UNBOUNDED PRECEDING AND CURRENT ROW);
                      

                      2.3.3 执行 sql ,统计每10分钟的累计独立用户数

                      INSERT INTO cumulative_uv
                      SELECT time_str, MAX(uv)
                      FROM uv_per_10min
                      GROUP BY time_str;
                      

                      2.4 指标统计:商品类目销量排行

                      2.4.1 创建商品类目维表

                      先在 mysql 创建一张商品类目的维表,然后配置 flink 读取 mysql。

                      CREATE TABLE category_dim (
                          sub_category_id BIGINT,
                          parent_category_name STRING
                      ) WITH (
                          'connector.type' = 'jdbc',
                          'connector.url' = 'jdbc:mysql://172.16.122.25:3306/flink',
                          'connector.table' = 'category',
                          'connector.driver' = 'com.mysql.jdbc.Driver',
                          'connector.username' = 'root',
                          'connector.password' = 'root',
                          'connector.lookup.cache.max-rows' = '5000',
                          'connector.lookup.cache.ttl' = '10min'
                      );
                      

                      2.4.1 创建 es 结果表,存放商品类目排行表

                      CREATE TABLE top_category  (
                          category_name  STRING,
                          buy_cnt  BIGINT
                      ) WITH (
                          'connector.type' = 'elasticsearch', 
                          'connector.version' = '7',  
                          'connector.hosts' = 'http://172.16.122.13:9200',  
                          'connector.index' = 'top_category',
                          'connector.document-type' = 'user_behavior',
                          'update-mode' = 'upsert',
                          'format.type' = 'json'
                      );
                      

                      2.4.2 创建视图

                      CREATE VIEW rich_user_behavior AS
                      SELECT U.user_id, U.item_id, U.behavior, C.parent_category_name as category_name
                      FROM user_behavior AS U LEFT JOIN category_dim FOR SYSTEM_TIME AS OF U.proctime AS C
                      ON U.category_id = C.sub_category_id;
                      

                      2.4.3 执行 sql , 统计商品类目销量排行

                      INSERT INTO top_category
                      SELECT category_name, COUNT(*) buy_cnt
                      FROM rich_user_behavior
                      WHERE behavior = 'buy'
                      GROUP BY category_name;
                      

                      3、最终效果与体验心得

                      3.1 最终效果

                      整个开发过程,只用到了 flink-sql ,无需写 java 或者其它代码,就完成了这样一个实时报表。

                      python毕设选题 - flink大数据淘宝用户行为数据实时分析与可视化,image-20201201175438743,第1张

                      3.2 体验心得

                      3.2.1 执行

                      • flink-sql 的 ddl 语句不会触发 flink-job , 同时创建的表、视图仅在会话级别有效。

                      • 对于连接表的 insert、select 等操作,则会触发相应的流 job, 并自动提交到 flink 集群,无限地运行下去,直到主动取消或者 job 报错。

                      • flink-sql 客户端关闭后,对于已经提交到 flink 集群的 job 不会有任何影响。

                        本次开发,执行了 3 个 insert , 因此打开 flink 集群面板,可以看到有 3 个无限的流 job 。即使 kafka 数据全部写入完毕,关闭 flink-sql 客户端,这个 3 个 job 都不会停止。

                        python毕设选题 - flink大数据淘宝用户行为数据实时分析与可视化,image-20201201175523916,第2张

                        3.2.2 存储

                        • flnik 本身不存储业务数据,只作为流批一体的引擎存在,所以主要的用法为读取外部系统的数据,处理后,再写到外部系统。

                        • flink 本身的元数据,包括表、函数等,默认情况下只是存放在内存里面,所以仅会话级别有效。但是,似乎可以存储到 Hive Metastore 中,关于这一点就留到以后再实践。

                          4 最后

网友评论

搜索
最新文章
热门文章
热门标签