Advertisement

Doris Flink Connector

  •  5星
  •     浏览量: 0
  •     大小:None
  •      文件类型:ZIP


简介:
Doris Flink Connector是专为Apache Doris设计的连接器插件,它允许用户通过Flink实时获取和处理数据,增强数据分析与挖掘能力。 官方网站并未提供编译好的 connector 下载,需要自行编译。我将上传自己编译好的版本供大家下载。 以下是相关配置: - flink 版本:1.13.5; - scala.version: 2.12 - flink.version: 1.13.5 - libthrift.version: 0.13.0 - arrow.version: 5.0.0 - maven-compiler-plugin.version: 3.8.1 - maven-javadoc-plugin.version: 3.3.0 - maven-source-plugin.version: 3.2.1

全部评论 (0)

还没有任何评论哟~
客服
客服
  • Doris Flink Connector
    优质
    Doris Flink Connector是专为Apache Doris设计的连接器插件,它允许用户通过Flink实时获取和处理数据,增强数据分析与挖掘能力。 官方网站并未提供编译好的 connector 下载,需要自行编译。我将上传自己编译好的版本供大家下载。 以下是相关配置: - flink 版本:1.13.5; - scala.version: 2.12 - flink.version: 1.13.5 - libthrift.version: 0.13.0 - arrow.version: 5.0.0 - maven-compiler-plugin.version: 3.8.1 - maven-javadoc-plugin.version: 3.3.0 - maven-source-plugin.version: 3.2.1
  • flink-connector-cdc-kb
    优质
    Flink-Connector-CDC-KB是一款专为Apache Flink设计的数据连接器,用于高效地从数据库变更日志中捕获数据变化,并实时传输至数据流处理应用。 Flink-connector-kb-cdc 是一个用于与知识库(KB)进行数据变更捕获(CDC)的连接器插件,它允许用户实时获取数据库中的更新、插入或删除操作,并将这些更改传递给 Apache Flink 流处理应用以支持复杂的业务逻辑和数据分析。
  • Flink Connector Kudu:基于Apache Bahir Kudu ConnectorFlink连接器...
    优质
    Flink Connector Kudu是基于Apache Bahir项目的Kudu Connector开发的一款专门用于连接Apache Flink与Google Kudu的流处理连接工具,简化了数据在实时应用中的高效存储和查询过程。 Kudu连接器是基于Apache Bahir Kudu连接器改造而来,并满足公司内部使用需求的版本。它支持范围分区特性、定义哈希分桶数等功能,并且兼容Flink 1.11.x动态数据源等特性。经过改进后,部分功能已回馈给社区。 在项目中使用该Kudu连接器时,请先克隆代码并根据公司私服环境调整pom文件坐标信息。创建目录的示例如下: ```java StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment(); catalog = new KuduCatalog(cdh01:7051,cdh02:7051,cdh03:7051); tableEnv = KuduTableTestUtils.createTableEnvWithBlinkPlannerStreamingMode(env); ```
  • Flink Connector ClickHouse 1.12.0 Jar
    优质
    Flink Connector ClickHouse 1.12.0 Jar是一款专为Apache Flink设计的连接器库,用于与ClickHouse数据库高效交互,支持数据读写操作,适用于大数据处理场景。 Flink 通过 connector 形式连接 ClickHouse 的配置如下: ```properties id Int, age Int, sex Int, create_date Date WITH ( connector = clickhouse, url = jdbc:clickhouse://10.1.3.176:8123/test, table-name = tb_user, username = , password = , format = json ) ```
  • flink-connector-redis_2.11-1.1-snapshot
    优质
    Flink-connector-redis_2.11-1.1-snapshot 是一个用于Apache Flink与Redis之间数据交换的连接器库,适用于Scala 2.11版本,提供实时数据处理功能。 Flink连接Redis作为sink时,在1.0版本中无法支持设置过期时间。为此开发了一个新的jar包来解决这个问题,这样可以避免自行重新编译代码,节省时间。
  • Flink 资源包 flink-1.15.0-bin-scala_2.12.tgz 和 flink-connector-elasti
    优质
    这段简介描述了Apache Flink 1.15.0版本中的资源包,其中包括支持Scala 2.12的flink-1.15.0-bin-scala_2.12.tgz,并且介绍Flink与Elasticsearch之间的连接器。 flink-sql-connector-mysql-cdc-2.2.1.jar flink-connector-elasticsearch7-1.15.0.jar flink-1.15.0-bin-scala_2.12.tgz
  • flink-connector-clickhouse_2.12-1.13.6版本
    优质
    Flink-connector-clickhouse_2.12-1.13.6 是专为Apache Flink设计的数据连接器,支持ClickHouse数据库,适用于大数据处理和分析任务。该版本优化了数据传输效率与稳定性,提供了更强大的SQL兼容性和易用性配置选项。 flink-connector-clickhouse_2.12-1.13.6 Flink版本:1.13.6 ClickHouse 版本:20.9.2.20 Scala 版本:2.12
  • flink-sql-connector-postgres-cdc-2.5-SNAPSHOT.jar
    优质
    flink-sql-connector-postgres-cdc-2.5-SNAPSHOT.jar是一款用于Apache Flink的库文件,支持PostgreSQL数据库CDC(变更数据捕获)功能,方便实时追踪和处理数据库变动。 flink-sql-connector-postgres-cdc2.5-SNAPSHOT