From 2d0cfeb1d3aca481004d146176fcc3a08ed31d86 Mon Sep 17 00:00:00 2001 From: skylines <34996528+gaotingkai@users.noreply.github.com> Date: Fri, 12 May 2023 19:00:09 +0800 Subject: [PATCH] [doc] add mongodb cdc chinese doc (#2042) --- docs/content/connectors/index.md | 1 + docs/content/connectors/mongodb-cdc(ZH).md | 560 +++++++++++++++++++++ 2 files changed, 561 insertions(+) create mode 100644 docs/content/connectors/mongodb-cdc(ZH).md diff --git a/docs/content/connectors/index.md b/docs/content/connectors/index.md index 5b4d0b345..bf2d604f5 100644 --- a/docs/content/connectors/index.md +++ b/docs/content/connectors/index.md @@ -4,6 +4,7 @@ :maxdepth: 2 mongodb-cdc +mongodb-cdc(ZH) mysql-cdc mysql-cdc(ZH) oceanbase-cdc diff --git a/docs/content/connectors/mongodb-cdc(ZH).md b/docs/content/connectors/mongodb-cdc(ZH).md new file mode 100644 index 000000000..e3282d10c --- /dev/null +++ b/docs/content/connectors/mongodb-cdc(ZH).md @@ -0,0 +1,560 @@ +# MongoDB CDC 连接器 + +MongoDB CDC 连接器允许从 MongoDB 读取快照数据和增量数据。 本文档描述了如何设置 MongoDB CDC 连接器以针对 MongoDB 运行 SQL 查询。 + +依赖 +------------ + +为了设置 MongoDB CDC 连接器, 下表提供了使用构建自动化工具(如 Maven 或 SBT )和带有 SQLJar 捆绑包的 SQLClient 的两个项目的依赖关系信息。 + +### Maven dependency +``` + + com.ververica + flink-connector-mongodb-cdc + + 2.4-SNAPSHOT + +``` + +### SQL Client JAR + +```下载链接仅适用于稳定版本。``` + +下载 [flink-sql-connector-mongodb-cdc-2.4-SNAPSHOT.jar](https://repo1.maven.org/maven2/com/ververica/flink-sql-connector-mongodb-cdc/2.4-SNAPSHOT/flink-sql-connector-mongodb-cdc-2.4-SNAPSHOT.jar) 把它放在 `/lib/`. + +**注意:** flink-sql-connector-mongodb-cdc-XXX-SNAPSHOT 版本是与开发分支相对应的代码。 用户需要下载源代码并编译相应的jar。 用户应使用已发布的版本,例如 [flink-sql-connector-mongodb-cdc-2.3.0.jar](https://mvnrepository.com/artifact/com.ververica/flink-sql-connector-mongodb-cdc), 发布的版本将在 Maven 中央仓库中提供。 + +设置 MongoDB +---------------- + +### 可用性 +- MongoDB 版本 + + MongoDB 版本 >= 3.6
+ 我们使用 [更改流](https://docs.mongodb.com/manual/changeStreams/) 功能(3.6 版中新增),以捕获更改数据。 + +- 集群部署 + + [副本集](https://docs.mongodb.com/manual/replication/) 或者 [分片集群](https://docs.mongodb.com/manual/sharding/) 是必需的。 + +- 存储引擎 + + [WiredTiger](https://docs.mongodb.com/manual/core/wiredtiger/#std-label-storage-wiredtiger) 存储引擎是必需的。 + +- [副本集协议版本](https://docs.mongodb.com/manual/reference/replica-configuration/#mongodb-rsconf-rsconf.protocolVersion) + + 副本集协议版本 1 [(pv1)](https://docs.mongodb.com/manual/reference/replica-configuration/#mongodb-rsconf-rsconf.protocolVersion) 是必需的。
+ 从 4.0 版本开始,MongoDB 只支持pv1。 pv1 是使用 MongoDB 3.2 或更高版本创建的所有新副本集的默认值。 + +- 权限 + + `changeStream` and `read` 是 MongoDB Kafka Connector 必需权限。 + + 你可以使用以下示例进行简单的授权。
+ 有关更详细的授权, 请参照 [MongoDB 数据库用户角色](https://docs.mongodb.com/manual/reference/built-in-roles/#database-user-roles). + + ```javascript + use admin; + db.createRole( + { + role: "flinkrole", + privileges: [{ + // 所有数据库中所有非系统集合的 grant 权限 + resource: { db: "", collection: "" }, + actions: [ + "splitVector", + "listDatabases", + "listCollections", + "collStats", + "find", + "changeStream" ] + }], + roles: [ + // 阅读 config.collections 和 config.chunks + // 用于分片集群快照拆分。 + { role: 'read', db: 'config' } + ] + } + ); + + db.createUser( + { + user: 'flinkuser', + pwd: 'flinkpw', + roles: [ + { role: 'flinkrole', db: 'admin' } + ] + } + ); + ``` + + +如何创建 MongoDB CDC 表 +---------------- + +MongoDB CDC 表可以定义如下: + +```sql +-- 在 Flink SQL 中注册 MongoDB 表 `products` +CREATE TABLE products ( + _id STRING, // 必须声明 + name STRING, + weight DECIMAL(10,3), + tags ARRAY, -- array + price ROW, -- 嵌入式文档 + suppliers ARRAY>, -- 嵌入式文档 + PRIMARY KEY(_id) NOT ENFORCED +) WITH ( + 'connector' = 'mongodb-cdc', + 'hosts' = 'localhost:27017,localhost:27018,localhost:27019', + 'username' = 'flinkuser', + 'password' = 'flinkpw', + 'database' = 'inventory', + 'collection' = 'products' +); + +-- 从 `products` 集合中读取快照和更改事件 +SELECT * FROM products; +``` + +**请注意** + +MongoDB 的更改事件记录在消息之前没有更新。因此,我们只能将其转换为 Flink 的 UPSERT 更改日志流。 +upstart 流需要一个唯一的密钥,所以我们必须声明 `_id` 作为主键。 +我们不能将其他列声明为主键, 因为删除操作不包含除 `_id` 和 `sharding key` 之外的键和值。 + +连接器选项 +---------------- + +
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
OptionRequiredDefaultTypeDescription
connectorrequired(none)String指定要使用的连接器,此处应为 mongodb-cdc.
hostsrequired(none)StringMongoDB 服务器的主机名和端口对的逗号分隔列表。
+ eg. localhost:27017,localhost:27018 +
usernameoptional(none)String连接到 MongoDB 时要使用的数据库用户的名称。
+ 只有当 MongoDB 配置为使用身份验证时,才需要这样做。 +
passwordoptional(none)String连接到 MongoDB 时要使用的密码。
+ 只有当 MongoDB 配置为使用身份验证时,才需要这样做。 +
databaseoptional(none)String要监视更改的数据库的名称。 如果未设置,则将捕获所有数据库。
+ 该数据库还支持正则表达式来监视与正则表达式匹配的多个数据库。
collectionoptional(none)String数据库中要监视更改的集合的名称。 如果未设置,则将捕获所有集合。
+ 该集合还支持正则表达式来监视与完全限定的集合标识符匹配的多个集合。
connection.optionsoptional(none)String电流和分离 连接选项 of MongoDB. eg.
+ replicaSet=test&connectTimeoutMS=300000 +
copy.existingoptionaltrueBoolean是否从源集合复制现有数据。
copy.existing.queue.sizeoptional10240Integer复制数据时要使用的队列的最大大小。
batch.sizeoptional1024Integer光标批次大小。
poll.max.batch.sizeoptional1024Integer轮询新数据时,单个批处理中要包含的更改流文档的最大数量。
poll.await.time.msoptional1000Integer在更改流上检查新结果之前等待的时间。
heartbeat.interval.msoptional0Integer发送检测信号消息之间的时间长度(以毫秒为单位)。使用 0 禁用。
scan.incremental.snapshot.enabledoptionalfalseBoolean是否启用增量快照。增量快照功能仅支持 MongoDB 4.0 之后的版本。
scan.incremental.snapshot.chunk.size.mboptional64Integer增量快照的区块大小 mb。
+
+ +注意: `heartbeat.interval.ms` 强烈建议设置一个大于 0 的适当值 **如果集合更改缓慢**. +当我们从检查点或保存点恢复 Flink 作业时,心跳事件可以向前推送 `resumeToken`,以避免 `resumeToken` 过期。 + +可用元数据 +---------------- + +以下格式元数据可以在表定义中公开为只读(VIRTUAL)列。 + + + + + + + + + + + + + + + + + + + + + + + + + + +
KeyDataTypeDescription
database_nameSTRING NOT NULL包含该行的数据库的名称。
collection_nameSTRING NOT NULL包含该行的集合的名称。
op_tsTIMESTAMP_LTZ(3) NOT NULL它指示在数据库中进行更改的时间。
如果记录是从表的快照而不是改变流中读取的,该值将始终为0。
+ +扩展的 CREATE TABLE 示例演示了用于公开这些元数据字段的语法: +```sql +CREATE TABLE products ( + db_name STRING METADATA FROM 'database_name' VIRTUAL, + collection_name STRING METADATA FROM 'collection_name' VIRTUAL, + operation_ts TIMESTAMP_LTZ(3) METADATA FROM 'op_ts' VIRTUAL, + _id STRING, // 必须声明 + name STRING, + weight DECIMAL(10,3), + tags ARRAY, -- array + price ROW, -- 嵌入式文档 + suppliers ARRAY>, -- 嵌入式文档 + PRIMARY KEY(_id) NOT ENFORCED +) WITH ( + 'connector' = 'mongodb-cdc', + 'hosts' = 'localhost:27017,localhost:27018,localhost:27019', + 'username' = 'flinkuser', + 'password' = 'flinkpw', + 'database' = 'inventory', + 'collection' = 'products' +); +``` + +特性 +-------- + +### 精确一次处理 + +MongoDB CDC 连接器是一个 Flink Source 连接器,它将首先读取数据库快照,然后在处理**甚至失败时继续读取带有**的更改流事件。 + +### Snapshot When Startup Or Not + +配置选项 `copy.existing` 指定在 MongoDB CDC 消费者启动时是否执行快照。
默认是 `true`. + +### 快照数据筛选器 + +配置选项 `copy.existing.pipeline` 描述复制现有数据时的筛选器。
+这可以只过滤所需的数据,并改进复制管理器对索引的使用。 + +在下面的示例中,`$match` 聚合运算符确保只复制关闭字段设置为 false 的文档。 + +``` +'copy.existing.pipeline' = '[ { "$match": { "closed": "false" } } ]' +``` + +### 更改流 + +我们将 [MongoDB's official Kafka Connector](https://docs.mongodb.com/kafka-connector/current/kafka-source/) 从 MongoDB 中读取快照或更改事件,并通过 Debezium 的 `EmbeddedEngine` 进行驱动。 + +Debezium 的 `EmbeddedEngine` 提供了一种在应用程序进程中运行单个 Kafka Connect `SourceConnector` 的机制,并且它可以正确地驱动任何标准的 Kafka Connect `SourceConnector`,即使它不是由 Debezium 提供的。 + +我们选择 **MongoDB 的官方 Kafka连接器**,而不是 **Debezium 的MongoDB 连接器**,因为它们使用了不同的更改数据捕获机制。 + +- 对于 Debezium 的 MongoDB 连接器,它读取每个复制集主节点的 `oplog.rs` 集合。 +- 对于 MongoDB 的 Kafka 连接器,它订阅了 MongoDB 的 `更改流`。 + +MongoDB 的`oplog.rs` 集合没有在状态之前保持更改记录的更新, 因此,很难通过单个 `oplog.rs` 记录提取完整的文档状态,并将其转换为 Flink 接受的更改日志流(Insert Only,Upsert,All)。 +此外,MongoDB 5(2021 7月发布)改变了 oplog 格式,因此当前的 Debezium 连接器不能与其一起使用。 + +**Change Stream**是 MongoDB 3.6 为副本集和分片集群提供的一项新功能,它允许应用程序访问实时数据更改,而不会带来跟踪操作日志的复杂性和风险。
+应用程序可以使用更改流来订阅单个集合上的所有数据更改, 数据库或整个部署,并立即对其做出反应。 + +**查找更新操作的完整文档**是**变更流**提供的一项功能,它可以配置变更流以返回更新文档的最新多数提交版本。由于该功能,我们可以轻松收集最新的完整文档,并将更改日志转换为 Flink 的**Upsert Changelog Stream**。 + +顺便说一句,[DBZ-435](https://issues.redhat.com/browse/DBZ-435)提到的Debezium的MongoDB变更流探索,正在制定路线图。
+如果完成了,我们可以考虑集成两种源连接器供用户选择。 + +### DataStream Source + +MongoDB CDC 连接器也可以是一个数据流源。 你可以创建 SourceFunction,如下所示: + +```java +import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment; +import org.apache.flink.streaming.api.functions.source.SourceFunction; +import com.ververica.cdc.debezium.JsonDebeziumDeserializationSchema; +import com.ververica.cdc.connectors.mongodb.MongoDBSource; + +public class MongoDBSourceExample { + public static void main(String[] args) throws Exception { + SourceFunction sourceFunction = MongoDBSource.builder() + .hosts("localhost:27017") + .username("flink") + .password("flinkpw") + .databaseList("inventory") // 设置捕获的数据库,支持正则表达式 + .collectionList("inventory.products", "inventory.orders") //设置捕获的集合,支持正则表达式 + .deserializer(new JsonDebeziumDeserializationSchema()) + .build(); + + StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment(); + + env.addSource(sourceFunction) + .print().setParallelism(1); // 对 sink 使用并行度 1 以保持消息顺序 + + env.execute(); + } +} +``` + +MongoDB CDC 增量连接器(2.3.0 之后)可以使用,如下所示: +```java +import org.apache.flink.api.common.eventtime.WatermarkStrategy; +import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment; +import com.ververica.cdc.connectors.mongodb.source.MongoDBSource; +import com.ververica.cdc.debezium.JsonDebeziumDeserializationSchema; + +public class MongoDBIncrementalSourceExample { + public static void main(String[] args) throws Exception { + MongoDBSource mongoSource = + MongoDBSource.builder() + .hosts("localhost:27017") + .databaseList("inventory") // 设置捕获的数据库,支持正则表达式 + .collectionList("inventory.products", "inventory.orders") //设置捕获的集合,支持正则表达式 + .username("flink") + .password("flinkpw") + .deserializer(new JsonDebeziumDeserializationSchema()) + .build(); + + StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment(); + // 启用检查点 + env.enableCheckpointing(3000); + // 将 source 并行度设置为 2 + env.fromSource(mongoSource, WatermarkStrategy.noWatermarks(), "MongoDBIncrementalSource") + .setParallelism(2) + .print() + .setParallelism(1); + + env.execute("Print MongoDB Snapshot + Change Stream"); + } +} +``` + +**注意:** +- 如果使用数据库正则表达式,则需要 `readAnyDatabase` 角色。 +- 增量快照功能仅支持 MongoDB 4.0 之后的版本。 + +数据类型映射 +---------------- +[BSON](https://docs.mongodb.com/manual/reference/bson-types/) **二进制 JSON**的缩写是一种类似 JSON 格式的二进制编码序列,用于在 MongoDB 中存储文档和进行远程过程调用。 + +[Flink SQL Data Type](https://nightlies.apache.org/flink/flink-docs-release-1.16/docs/dev/table/types/) 类似于 SQL 标准的数据类型术语,该术语描述了表生态系统中值的逻辑类型。它可以用于声明操作的输入和/或输出类型。 + +为了使 Flink SQL 能够处理来自异构数据源的数据,异构数据源的数据类型需要统一转换为 Flink SQL 数据类型。 + +以下是 BSON 类型和 Flink SQL 类型的映射。 + + +
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
BSON typeFlink SQL type
TINYINT
SMALLINT
+ Int
+
INT
LongBIGINT
FLOAT
DoubleDOUBLE
Decimal128DECIMAL(p, s)
BooleanBOOLEAN
Date
Timestamp
DATE
Date
Timestamp
TIME
DateTIMESTAMP(3)
TIMESTAMP_LTZ(3)
TimestampTIMESTAMP(0)
TIMESTAMP_LTZ(0) +
+ String
+ ObjectId
+ UUID
+ Symbol
+ MD5
+ JavaScript
+ Regex
STRING
BinDataBYTES
ObjectROW
ArrayARRAY
DBPointerROW<$ref STRING, $id STRING>
+ GeoJSON + + Point : ROW<type STRING, coordinates ARRAY<DOUBLE>>
+ Line : ROW<type STRING, coordinates ARRAY<ARRAY< DOUBLE>>>
+ ... +
+
+ + +参考 +-------- + +- [MongoDB Kafka Connector](https://docs.mongodb.com/kafka-connector/current/kafka-source/) +- [Change Streams](https://docs.mongodb.com/manual/changeStreams/) +- [Replication](https://docs.mongodb.com/manual/replication/) +- [Sharding](https://docs.mongodb.com/manual/sharding/) +- [Database User Roles](https://docs.mongodb.com/manual/reference/built-in-roles/#database-user-roles) +- [WiredTiger](https://docs.mongodb.com/manual/core/wiredtiger/#std-label-storage-wiredtiger) +- [Replica set protocol](https://docs.mongodb.com/manual/reference/replica-configuration/#mongodb-rsconf-rsconf.protocolVersion) +- [Connection String Options](https://docs.mongodb.com/manual/reference/connection-string/#std-label-connections-connection-options) +- [BSON Types](https://docs.mongodb.com/manual/reference/bson-types/) +- [Flink DataTypes](https://nightlies.apache.org/flink/flink-docs-release-1.16/docs/dev/table/types/) + +FAQ +-------- +* [FAQ(English)](https://github.com/ververica/flink-cdc-connectors/wiki/FAQ) +* [FAQ(中文)](https://github.com/ververica/flink-cdc-connectors/wiki/FAQ(ZH)) \ No newline at end of file