Skip to content

Commit af6fd9d

Browse files
AI Translate 04-task to Simplified-Chinese (#2771)
* [INIT] Start translation to Simplified-Chinese * 🌐 Translate 01-ddl-create_task.md to Simplified-Chinese --------- Co-authored-by: github-actions[bot] <github-actions[bot]@users.noreply.github.com>
1 parent d36a0ef commit af6fd9d

File tree

2 files changed

+42
-42
lines changed

2 files changed

+42
-42
lines changed

.translation-init

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -1 +1 @@
1-
Translation initialization: 2025-09-18T03:36:24.323851
1+
Translation initialization: 2025-09-24T01:35:39.530531

docs/cn/sql-reference/10-sql-commands/00-ddl/04-task/01-ddl-create_task.md

Lines changed: 41 additions & 41 deletions
Original file line numberDiff line numberDiff line change
@@ -7,7 +7,7 @@ import FunctionDescription from '@site/src/components/FunctionDescription';
77

88
<FunctionDescription description="Introduced or updated: v1.2.738"/>
99

10-
CREATE TASK 语句用于定义一个新任务(Task),该任务可按计划或基于有向无环图(DAG)的任务图执行指定的 SQL 语句。
10+
CREATE TASK 语句用于定义一个新任务,该任务可按计划或基于 DAG(有向无环图)的任务图执行指定的 SQL 语句。
1111

1212
**注意:** 此功能仅在 Databend Cloud 中开箱即用。
1313

@@ -17,7 +17,7 @@ CREATE TASK 语句用于定义一个新任务(Task),该任务可按计划
1717
CREATE [ OR REPLACE ] TASK [ IF NOT EXISTS ] <name>
1818
WAREHOUSE = <string>
1919
SCHEDULE = { <num> MINUTE | <num> SECOND | USING CRON <expr> <time_zone> }
20-
[ AFTER <string> [ , <string> , ... ]]
20+
[ AFTER <string>
2121
[ WHEN <boolean_expr> ]
2222
[ SUSPEND_TASK_AFTER_NUM_FAILURES = <num> ]
2323
[ ERROR_INTEGRATION = <string> ]
@@ -29,39 +29,39 @@ AS
2929

3030
| 参数 | 描述 |
3131
| ------------------------------------------------ | ---------------------------------------------------------------------------------------------------------------------------------------------------------------------------- |
32-
| IF NOT EXISTS | 可选。若指定,仅当同名任务不存在时才创建任务|
33-
| name | 任务名称必填。 |
34-
| WAREHOUSE | 必填。指定任务使用的虚拟计算集群(Virtual Warehouse)。 |
35-
| SCHEDULE | 必填。定义任务运行计划,可按分钟指定,或使用 CRON 表达式与时区|
36-
| SUSPEND_TASK_AFTER_NUM_FAILURES | 可选。连续失败多少次后自动挂起任务|
37-
| AFTER | 列出必须完成后才启动此任务的任务|
32+
| IF NOT EXISTS | 可选。若指定,则仅当同名任务不存在时才创建任务|
33+
| name | 任务名称必填。 |
34+
| WAREHOUSE | 必填。指定任务使用的虚拟计算集群(Warehouse)。 |
35+
| SCHEDULE | 必填。定义任务运行计划。可用分钟数或 CRON 表达式加时区表示|
36+
| SUSPEND_TASK_AFTER_NUM_FAILURES | 可选。连续失败多少次后任务将自动挂起|
37+
| AFTER | 列出在此任务开始前必须完成的任务|
3838
| WHEN boolean_expr | 任务运行前必须为真的条件。 |
39-
| [ERROR_INTEGRATION](../16-notification/index.md) | 可选。用于任务错误通知的通知集成(Notification Integration)名称,并应用特定的[任务错误负载](./10-task-error-integration-payload.md)|
39+
| [ERROR_INTEGRATION](../16-notification/index.md) | 可选。用于任务错误通知的集成名称,附带特定的[任务错误负载](./10-task-error-integration-payload.md)|
4040
| COMMENT | 可选。作为任务注释或描述的字符串字面量。 |
41-
| session_parameter | 可选。指定任务运行时的会话参数。注意会话参数必须放在 CREATE TASK 语句中所有其他任务参数之后。 |
42-
| sql | 任务将执行的 SQL 语句,可为单条语句或脚本必填。 |
41+
| session_parameter | 可选。指定任务运行时的会话参数。注意会话参数必须放在 CREATE TASK 语句中所有其他任务参数之后。 |
42+
| sql | 任务将执行的 SQL 语句,可为单条语句或脚本必填。 |
4343

4444
### 使用须知
4545

46-
- 必须为独立任务或任务 DAG 中的根任务定义计划;否则,任务仅在手动执行 `EXECUTE TASK` 时运行
47-
- 不能为 DAG 中的子任务指定计划
48-
- 创建任务后,必须执行 `ALTER TASK … RESUME`,任务才会按定义中的参数运行
46+
- 独立任务或任务 DAG 中的根任务必须定义计划;否则,任务仅在使用 EXECUTE TASK 手动执行时运行
47+
- DAG 中的子任务不能指定计划
48+
- 创建任务后,必须执行 ALTER TASK … RESUME,任务才会按定义参数运行
4949
- WHEN 条件仅支持 `<boolean_expression>` 的子集。
50-
任务 WHEN 子句支持以下内容:
50+
任务的 WHEN 子句支持以下内容:
5151

52-
- SQL 表达式中支持 [STREAM_STATUS](../../../20-sql-functions/17-table-functions/stream-status.md) 函数求值。该函数指示指定 Stream 是否包含变更跟踪数据。可在当前运行开始前评估指定 Stream 是否包含变更数据;若结果为 FALSE,则任务不运行。
52+
- [STREAM_STATUS](../../../20-sql-functions/17-table-functions/stream-status.md) 可在 SQL 表达式中求值。该函数指示指定流是否包含变更跟踪数据。可在当前运行开始前评估指定流是否包含变更数据。若结果为 FALSE,则任务不运行。
5353
- 布尔运算符,如 AND、OR、NOT 等。
54-
- 数值、字符串与布尔类型之间的类型转换
54+
- 数值、字符串与布尔类型之间的强制转换
5555
- 比较运算符,如等于、不等于、大于、小于等。
5656

5757
:::note
58-
警告:在任务中使用 STREAM_STATUS 时,引用 Stream 必须包含数据库名(例如 `STREAM_STATUS('mydb.stream_name')`)。
58+
警告:在任务中使用 STREAM_STATUS 时,引用流必须包含数据库名(例如 `STREAM_STATUS('mydb.stream_name')`)。
5959
:::
6060

61-
- 多个任务从同一 Table Stream 消费变更数据时,会获取不同的增量。当某任务通过 DML 语句消费 Stream 中的变更数据后,Stream 会推进 Offset,变更数据将不再对后续任务可用。当前建议仅让一个任务消费同一 Stream 的变更数据;可为同一表创建多个 Stream,由不同任务分别消费。
62-
- 任务每次执行不会重试;执行均为串行。脚本中的 SQL 逐一执行,无并行,确保任务执行顺序与依赖关系
63-
- 基于间隔的任务严格遵循固定间隔点。若当前任务执行时间超过间隔单位,则下一任务立即执行;否则,下一任务等待至下一间隔单位触发。例如,若任务定义 1 秒间隔,而某次执行耗时 1.5 秒,则下一任务立即执行;若耗时 0.5 秒,则下一任务等待至下一 1 秒间隔开始
64-
- 创建任务时可指定会话参数,也可后续通过 `ALTER TASK` 修改,例如:
61+
- 多个任务从同一表流消费变更数据时,会获取不同的增量。当某任务使用 DML 语句消费流中的变更数据后,流会推进偏移量,变更数据不再对后续任务可见。当前建议仅让一个任务消费同一流。可为同一表创建多个流,由不同任务分别消费。
62+
- 任务每次执行不会重试;执行串行进行。脚本中的 SQL 按顺序逐条执行,无并行。这确保了任务执行的顺序与依赖关系
63+
- 基于间隔的任务会严格按固定间隔点触发。若当前任务执行耗时超过间隔单位,则下一次任务立即执行;否则,等待下一间隔单位。例如,任务间隔为 1 秒,若某次执行耗时 1.5 秒,则下一次立即执行;若耗时 0.5 秒,则等待至下一个 1 秒刻度
64+
- 会话参数既可在创建任务时指定,也可后续使用 ALTER TASK 语句修改。例如:
6565
```sql
6666
ALTER TASK simple_task SET
6767
enable_query_result_cache = 1,
@@ -73,11 +73,11 @@ AS
7373
- `SCHEDULE` 参数中的 cron 表达式必须**恰好包含 6 个字段**
7474
- 各字段含义如下:
7575
1. ****(0–59)
76-
2. **分钟**(0–59)
77-
3. **小时**(0–23)
76+
2. ****(0–59)
77+
3. ****(0–23)
7878
4. ****(1–31)
7979
5. ****(1–12 或 JAN–DEC)
80-
6. **星期**(0–6,0 表示星期日,或 SUN–SAT)
80+
6. **星期**(0–6,0 表示周日,或 SUN–SAT)
8181

8282
#### Cron 表达式示例:
8383

@@ -86,23 +86,23 @@ AS
8686

8787
- **每分钟:**
8888
- `USING CRON '0 * * * * *' 'UTC'`
89-
- 在每分钟开始时运行任务
89+
- 在每分钟的第 0 秒运行
9090

91-
- **每小时第 15 分钟:**
91+
- **每小时的第 15 分钟:**
9292
- `USING CRON '0 15 * * * *' 'UTC'`
93-
- 在每小时的第 15 分钟运行任务
93+
- 在每小时的 15 分 0 秒运行
9494

9595
- **每周一中午 12:00:00:**
9696
- `USING CRON '0 0 12 * * 1' 'UTC'`
97-
- 在每周一中午运行任务
97+
- 在每周一中午运行
9898

99-
- **每月第一天午夜**
99+
- **每月首日午夜**
100100
- `USING CRON '0 0 0 1 * *' 'UTC'`
101-
- 在每月第一天的午夜运行任务
101+
- 在每月 1 日 00:00:00 运行
102102

103-
- **每个工作日上午 8:30:00:**
103+
- **每个工作日 8:30:00 AM**
104104
- `USING CRON '0 30 8 * * 1-5' 'UTC'`
105-
- 在周一至周五上午 8:30 运行任务
105+
- 在周一至周五的 8:30 AM 运行
106106

107107
## 使用示例
108108

@@ -117,7 +117,7 @@ AS
117117
INSERT INTO summary_table SELECT * FROM source_table;
118118
```
119119

120-
本例创建名为 `my_daily_task` 的任务(Task)。它使用 **compute_wh** 计算集群(Warehouse)运行 SQL,将数据从 source_table 插入 summary_table,并按 **CRON 表达式** **太平洋时间每天上午 9 点**执行。
120+
本例创建名为 `my_daily_task` 的任务,使用 **compute_wh** 计算集群,将 source_table 的数据插入 summary_table,并按 **CRON 表达式****太平洋时间每天上午 9 点**执行。
121121

122122
### 自动挂起
123123

@@ -130,7 +130,7 @@ AS
130130
INSERT INTO compaction_test.test VALUES((1));
131131
```
132132

133-
本例创建名为 `mytask` 的任务(Task)(若不存在)。该任务分配至 **system** 计算集群(Warehouse),计划**2 分钟**运行一次,**连续失败 3 ****自动挂起**,并对 compaction_test.test 表执行 INSERT。
133+
本例创建名为 `mytask` 的任务(如不存在),分配给 **system** 计算集群,每 **2 分钟**运行一次,**连续失败 3 次后自动挂起**,对 compaction_test.test 表执行 INSERT。
134134

135135
### 秒级调度
136136

@@ -144,19 +144,19 @@ AS
144144
GROUP BY sales_date;
145145
```
146146

147-
本例创建名为 `daily_sales_summary` 的任务(Task),具备**秒级调度**计划**30 秒**运行一次。它使用 **analytics** 计算集群(Warehouse),聚合 sales_data 表数据计算每日销售汇总
147+
本例创建名为 `daily_sales_summary` 的任务,采用**秒级调度****30 秒**运行一次,使用 **analytics** 计算集群,对 sales_data 表汇总每日销售额
148148

149149
### 任务依赖
150150

151151
```sql
152152
CREATE TASK IF NOT EXISTS process_orders
153153
WAREHOUSE = 'etl'
154-
AFTER task1, task2
154+
AFTER task1
155155
AS
156156
INSERT INTO data_warehouse.orders SELECT * FROM staging.orders;
157157
```
158158

159-
本例创建名为 `process_orders` 的任务(Task),定义为在 **task1** **task2** **成功完成后**运行,用于在任务 **DAG** 中建立**依赖关系**它使用 **etl** 计算集群(Warehouse),将数据从 Staging Area 传输至 Data Warehouse
159+
本例创建名为 `process_orders` 的任务,在 **task1** 成功完成后运行,用于在任务 **DAG** 中建立**依赖关系**任务使用 **etl** 计算集群,将数据从 staging 区传输到数据仓库
160160

161161
> 提示:使用 AFTER 参数时无需设置 SCHEDULE 参数。
162162
@@ -172,7 +172,7 @@ AS
172172
WHERE archived_date < DATEADD(HOUR, -24, CURRENT_TIMESTAMP());
173173
```
174174

175-
本例创建名为 `hourly_data_cleanup` 的任务(Task)。它使用 **maintenance** 计算集群(Warehouse),计划**每小时**运行,删除 archived_data 表中 24 小时前的数据,并仅在 **STREAM_STATUS** 函数确认 `db1.change_stream` 包含变更数据时运行
175+
本例创建名为 `hourly_data_cleanup` 的任务,使用 **maintenance** 计算集群**每小时**运行,删除 archived_data 表中超过 24 小时的数据。仅当 **STREAM_STATUS** 函数检测到 `db1.change_stream` 包含变更数据时才运行
176176

177177
### 错误集成
178178

@@ -190,7 +190,7 @@ AS
190190
END;
191191
```
192192

193-
本例创建名为 `mytask` 的任务(Task)。它使用 **mywh** 计算集群(Warehouse),计划**30 秒**运行一次,执行包含 INSERT 与 DELETE 语句的 **BEGIN 块**并在两条语句执行后提交事务。任务失败时将触发名为 **myerror****错误集成(Error Integration)**
193+
本例创建名为 `mytask` 的任务,使用 **mywh** 计算集群,每 **30 秒**运行一次,执行包含 INSERT 与 DELETE **BEGIN 块**完成后提交事务。任务失败时将触发名为 **myerror****错误集成**
194194

195195
### 会话参数
196196

@@ -208,4 +208,4 @@ AS
208208
GROUP BY product_category;
209209
```
210210

211-
本例创建名为 `cache_enabled_task` 的任务(Task),并启用查询结果缓存的**会话参数(Session Parameter)**。任务计划**5 分钟**运行,使用 **analytics** 计算集群(Warehouse)。会话参数(Session Parameter) **`enable_query_result_cache = 1`****`query_result_cache_min_execute_secs = 5`** 置于**所有其他任务参数之后**,为执行时间 ≥5 秒的查询启用结果缓存。若底层数据未变,可提升相同任务后续执行的性能
211+
本例创建名为 `cache_enabled_task` 的任务,带启用查询结果缓存的**会话参数**,每 **5 分钟**运行一次,使用 **analytics** 计算集群。会话参数 **`enable_query_result_cache = 1`****`query_result_cache_min_execute_secs = 5`** 置于所有其他参数之后,为执行时间 ≥5 秒的查询启用缓存,若底层数据未变,**提升**后续执行的**性能**

0 commit comments

Comments
 (0)