Azure Databricks是一个可扩展的数据分析平台,基于Apache Spark。Azure Databricks 工作区(Workspace)是一个交互式的环境,工作区把对象(notebook、library、dashboards、experiments)组织成文件夹,用于数据集成和数据分析。
1,工作区是一个交互式的环境
2,集群是运行notebook和job的资源
在使用工作区中,要进行数据集成和数据分析,必须创建集群(Cluster),Cluser代表运行notebook和job的计算资源,并用于存储相应的配置信息。
Cluster有两种类型:通用(All-purpose)和job,all-purpose集群是交互式的,用于通用的数据集成和数据分析任务,而job类型的集群用于定时运行job。
job是一个非交互式的机制,用于立即或按照计划来运行notebook或library。job类型的集群在job开始时创建,在job完成时结束。
根据cluster的类型,把Azure Databricks的工作负载(workload)分为两个类型:data engineering (job) 和 data analytics (all-purpose)。
3,Notebook是一个基于Web的记事本
Notebook包含可执行的命令和可视化的界面,类似于Jupyter Notebook。
通过Azure UI来创建工作区,从Azure Services中找到Azure Databricks。
创建工作区,选择订阅用于管理资源和成本,需要设置订阅(Subscription)和资源组(Resource group),选择定价策略(Pricing Tier)。
选择“Review + Create”,点击Create 按钮来创建工作区。等到工作区部署完成之后,打开Azure Databricks Service,点击“Launch Workspace”登录到工作区门户。
Spark Cluster可以看作是Databricks的计算资源,因此必须创建集群。
1,登录到工作区门户
登录(Launch)到新建的工作区门户中,从“Common Tasks”列表中点击“New Cluster”。
2,配置集群
Cluster Mode:集群的模式共有三种,High concurrency(高并发)、Standard(标准)和Single Node(单节点)。标准模式是推荐模式,通常用于单用户的集群。
Pool:Pool是一组空闲的随时可用的实例,可减少集群启动和自动缩放的时间。当连接到Pool的集群需要一个实例时,它首先尝试分配Pool的中一个实例,如果该Pool没有空闲的实例,那么该Pool将通过从实例提供者分配有ige新的实例来扩展,以满足集群的需求。集群释放实例后,它将返回到Pool中,并可以提供给其他集群使用。只有连接到Pool的集群才能使用该Pool的空闲实例。实例在Pool中处于空闲状态时是免费的。
Databricks Runtime:运行时版本配置,选择用于创建集群的image,运行时是在集群上运行的一组核心组件。
Enable autoscaling:勾选自动缩放,根据工作负载的不同,集群在最大节点数量和最小节点数量之间自动缩放。
Terminate after xx minutes of inactivity:当集群不活动时,延迟一定时间后,结束集群。
配置完成之后,点击顶部的“Create Clustere” 按钮创建集群。
从Common Tasks中选择“New Notebook”,输入Notebook的Name,选择编程语言Python、选择集群,点击“Create”按钮创建Notebook。
在Notebook中输入命令,打印"hello world",点击"Shift+Enter",执行命令
参考文档:
Azure Databricks 第一篇:创建工作区、集群和Notebook
原文:https://www.cnblogs.com/ljhdo/p/14096116.html