使用 Delta Live Tables 创建数据管道
增量实时表是一个声明性框架,用于生成可靠、可维护且可测试的数据处理管道。 管道是使用 Delta Live Tables 配置和运行数据处理工作流的主要单元。 它通过 Python 或 SQL 中声明的有向无环图 (DAG) 将数据源链接到目标数据集。
完成本实验室大约需要 40 分钟。
预配 Azure Databricks 工作区
提示:如果你已有 Azure Databricks 工作区,则可以跳过此过程并使用现有工作区。
本练习包括一个用于预配新 Azure Databricks 工作区的脚本。 该脚本会尝试在一个区域中创建高级层 Azure Databricks 工作区资源,在该区域中,Azure 订阅具有本练习所需计算核心的充足配额;该脚本假设你的用户帐户在订阅中具有足够的权限来创建 Azure Databricks 工作区资源。 如果脚本由于配额或权限不足失败,可以尝试 在 Azure 门户中以交互方式创建 Azure Databricks 工作区。
-
在 Web 浏览器中,登录到 Azure 门户,网址为
https://portal.azure.com
。 -
使用页面顶部搜索栏右侧的 [>_] 按钮在 Azure 门户中创建新的 Cloud Shell,在出现提示时选择“PowerShell”环境并创建存储。 Cloud Shell 在 Azure 门户底部的窗格中提供命令行界面,如下所示:
注意:如果以前创建了使用 Bash 环境的 Cloud Shell,请使用 Cloud Shell 窗格左上角的下拉菜单将其更改为 PowerShell****。
-
请注意,可以通过拖动窗格顶部的分隔条或使用窗格右上角的 —、◻ 或 X 图标来调整 Cloud Shell 的大小,以最小化、最大化和关闭窗格 。 有关如何使用 Azure Cloud Shell 的详细信息,请参阅 Azure Cloud Shell 文档。
-
在 PowerShell 窗格中,输入以下命令以克隆此存储库:
rm -r mslearn-databricks -f git clone https://github.com/MicrosoftLearning/mslearn-databricks
-
克隆存储库后,请输入以下命令以运行 setup.ps1 脚本,以在可用区域中预配 Azure Databricks 工作区:
./mslearn-databricks/setup.ps1
-
如果出现提示,请选择要使用的订阅(仅当有权访问多个 Azure 订阅时才会发生这种情况)。
-
等待脚本完成 - 这通常需要大约 5 分钟,但在某些情况下可能需要更长的时间。 在等待时,请查看 Azure Databricks 文档中的 Delta Lake 简介一文。
创建群集
Azure Databricks 是一个分布式处理平台,可使用 Apache Spark 群集在多个节点上并行处理数据。 每个群集由一个用于协调工作的驱动程序节点和多个用于执行处理任务的工作器节点组成。 在本练习中,将创建一个单节点群集,以最大程度地减少实验室环境中使用的计算资源(在实验室环境中,资源可能会受到限制)。 在生产环境中,通常会创建具有多个工作器节点的群集。
提示:如果 Azure Databricks 工作区中已有一个具有 13.3 LTS ML 或更高运行时版本的群集,则可以使用它来完成此练习并跳过此过程。
-
在 Azure 门户中,浏览到已由脚本创建的 msl-xxxxxxx* 资源组(或包含现有 Azure Databricks 工作区的资源组)
-
选择 Azure Databricks 服务资源(如果已使用安装脚本创建,则名为 databricks-xxxxxxx*)。
-
在工作区的“概述”** 页中,使用“启动工作区”** 按钮在新的浏览器标签页中打开 Azure Databricks 工作区;请在出现提示时登录。
提示:使用 Databricks 工作区门户时,可能会显示各种提示和通知。 消除这些内容,并按照提供的说明完成本练习中的任务。
-
在左侧边栏中,选择“(+) 新建”任务,然后选择“群集”。
- 在“新建群集”页中,使用以下设置创建新群集:
- 群集名称:用户名的群集(默认群集名称)
- 策略:非受限
- 群集模式:单节点
- 访问模式:单用户(选择你的用户帐户)
- Databricks 运行时版本:13.3 LTS(Spark 3.4.1、Scala 2.12)或更高版本
- 使用 Photon 加速:已选择
- 节点类型:Standard_D4ds_v5
- 在处于不活动状态 20 分钟后终止****
-
等待群集创建完成。 这可能需要一到两分钟时间。
注意:如果群集无法启动,则订阅在预配 Azure Databricks 工作区的区域中的配额可能不足。 请参阅 CPU 内核限制阻止创建群集,了解详细信息。 如果发生这种情况,可以尝试删除工作区,并在其他区域创建新工作区。 可以将区域指定为设置脚本的参数,如下所示:
./mslearn-databricks/setup.ps1 eastus
创建笔记本并引入数据
-
在边栏中,使用“(+) 新建”** 链接创建笔记本**。
-
将默认笔记本名称 (Untitled Notebook [date]) 更改为
Create a pipeline with Delta Live tables
,然后在“连接”下拉列表中选择群集(如果尚未选择)。 如果群集未运行,可能需要一分钟左右才能启动。 -
在笔记本的第一个单元格中输入以下代码,该代码使用 shell 命令将数据文件从 GitHub 下载到群集使用的文件系统中。
%sh rm -r /dbfs/delta_lab mkdir /dbfs/delta_lab wget -O /dbfs/delta_lab/covid_data.csv https://github.com/MicrosoftLearning/mslearn-databricks/raw/main/data/covid_data.csv
-
使用单元格左侧的“▸ 运行单元格”菜单选项来运行该代码**。 然后等待代码运行的 Spark 作业完成。
使用 SQL 创建 Delta Live Tables 管道
创建新的笔记本,并开始使用 SQL 脚本定义增量实时表。
-
在笔记本名称旁边,选择 Python 并将默认语言更改为 SQL。
-
将以下代码放在第一个单元格中,无需运行它。 创建管道后,将执行所有单元格。 此代码定义一个 Delta Live Table,该表将由以前下载的原始数据填充:
CREATE OR REFRESH LIVE TABLE raw_covid_data COMMENT "COVID sample dataset. This data was ingested from the COVID-19 Data Repository by the Center for Systems Science and Engineering (CSSE) at Johns Hopkins University." AS SELECT Last_Update, Country_Region, Confirmed, Deaths, Recovered FROM read_files('dbfs:/delta_lab/covid_data.csv', format => 'csv', header => true)
-
添加新单元格,并使用以下代码在分析之前查询、筛选和格式化上一个表中的数据。
CREATE OR REFRESH LIVE TABLE processed_covid_data( CONSTRAINT valid_country_region EXPECT (Country_Region IS NOT NULL) ON VIOLATION FAIL UPDATE ) COMMENT "Formatted and filtered data for analysis." AS SELECT TO_DATE(Last_Update, 'MM/dd/yyyy') as Report_Date, Country_Region, Confirmed, Deaths, Recovered FROM live.raw_covid_data;
-
在新代码单元中,输入以下代码,以便在管道成功执行后创建扩充数据视图,用于进一步分析。
CREATE OR REFRESH LIVE TABLE aggregated_covid_data COMMENT "Aggregated daily data for the US with total counts." AS SELECT Report_Date, sum(Confirmed) as Total_Confirmed, sum(Deaths) as Total_Deaths, sum(Recovered) as Total_Recovered FROM live.processed_covid_data GROUP BY Report_Date;
-
在左侧栏中选择“Delta Live Tables”**,然后选择“创建管道”**。
- 在“创建管道”** 页中,使用以下设置创建新管道:
- 管道名称:设置管道的名称
- 产品版本:高级
- 管道模式:触发式
- 源代码:选择 SQL 笔记本
- 存储选项:Hive 元存储
- 存储位置:dbfs:/pipelines/delta_lab
-
选择“创建”**,然后选择“开始”**。
-
成功执行管道后,返回到第一个笔记本,并使用以下代码验证是否已在指定的存储位置创建所有 3 个新表:
display(dbutils.fs.ls("dbfs:/pipelines/delta_lab/tables"))
以可视化效果的形式查看结果
创建表后,可以将这些表加载到数据帧并可视化数据。
-
在第一个笔记本中,添加新的代码单元并运行以下代码,将
aggregated_covid_data
加载到数据帧中:df = spark.read.format("delta").load('/pipelines/delta_lab/tables/aggregated_covid_data') display(df)
- 在结果表上方,选择 +,然后选择“可视化效果”以查看可视化效果编辑器,然后应用以下选项****:
- 可视化类型:折线图
- X 列:Report_Date
- Y 列:添加新列并选择“Total_Confirmed”。 应用 **Sum 聚合。
- 保存可视化效果,然后查看笔记本中生成的图表。
清理
在 Azure Databricks 门户的“计算”页上,选择群集,然后选择“■ 终止”以将其关闭。
如果已完成对 Azure Databricks 的探索,则可以删除已创建的资源,以避免产生不必要的 Azure 成本并释放订阅中的容量。