我有一个类似于以下的kafka es接收器属性文件

name=elasticsearch.sink.direct
connector.class=io.confluent.connect.elasticsearch.ElasticsearchSinkConnector
tasks.max=16
topics=data.my_setting

connection.url=http://dev-elastic-search01:9200
type.name=logs
topic.index.map=data.my_setting:direct_my_setting_index
batch.size=2048
max.buffered.records=32768
flush.timeout.ms=60000
max.retries=10
retry.backoff.ms=1000
schema.ignore=true
transforms=InsertKey,ExtractId
transforms.InsertKey.type=org.apache.kafka.connect.transforms.ValueToKey
transforms.InsertKey.fields=MY_SETTING_ID
transforms.ExtractId.type=org.apache.kafka.connect.transforms.ExtractField$Key
transforms.ExtractId.field=MY_SETTING_ID

这非常适合单个主题(data.my_setting)。我想对来自多个主题的数据使用相同的连接器。不同主题中的消息将具有不同的键,我需要转换它。我想知道是否有一种方法可以使用if语句,条件条件是主题名称或消息中的单个字段,以便我可以然后对密钥进行不同的转换。所有传入的消息都是带有模式和有效负载的json。

根据答案更新:

在我的jdbc连接器中,添加密钥,如下所示:
name=data.my_setting
connector.class=io.confluent.connect.jdbc.JdbcSourceConnector
poll.interval.ms=500
tasks.max=4
mode=timestamp
query=SELECT * FROM MY_TABLE with (nolock)
timestamp.column.name=LAST_MOD_DATE
topic.prefix=investment.ed.data.app_setting

transforms=ValueToKey
transforms.ValueToKey.type=org.apache.kafka.connect.transforms.ValueToKey
transforms.ValueToKey.fields=MY_SETTING_ID

但是,当Elasticsearch接收器读取从此连接器产生的消息时,我仍然收到错误
org.apache.kafka.connect.errors.ConnectException: Exiting WorkerSinkTask due to unrecoverable exception.
Caused by: org.apache.kafka.connect.errors.DataException: STRUCT is not supported as the document id

有效负载如下所示:
{
"schema": {
    "type": "struct",
    "fields": [{
            "type": "int32",
            "optional": false,
            "field": "MY_SETTING_ID"
        }, {
            "type": "string",
            "optional": true,
            "field": "MY_SETTING_NAME"
        }
    ],
    "optional": false
},
"payload": {
    "MY_SETTING_ID": 9,
    "MY_SETTING_NAME": "setting_name"
}
}

Connect独立属性文件如下所示:
bootstrap.servers=localhost:9092
key.converter=org.apache.kafka.connect.json.JsonConverter
value.converter=org.apache.kafka.connect.json.JsonConverter
converter.schemas.enable=false
internal.key.converter=org.apache.kafka.connect.json.JsonConverter
internal.value.converter=org.apache.kafka.connect.json.JsonConverter
internal.key.converter.schemas.enable=false
internal.value.converter.schemas.enable=false
offset.storage.file.filename=/apps/{env}/logs/infrastructure/offsets/connect.offsets
rest.port=8084
plugin.path=/usr/share/java

有没有一种方法可以实现我的目标,那就是将来自多个主题(在我的情况下是db表)的消息发送给单个ES接收器,这些消息将具有自己的唯一ID(也将是ES中的文档的ID) 。

我可以将avro用于此任务吗?有没有办法在架构注册表中定义密钥,还是会遇到相同的问题?

最佳答案

这是不可能的。如果关键字段不同,则需要多个连接器。

要考虑的一种选择是通过流处理器(例如,Kafka Streams,KSQL,Spark Streaming等)预处理您的Kafka主题,以标准化关键字段,以便您可以使用单个连接器。这取决于您要构建的内容是值得进行还是过度使用。

关于elasticsearch - Kafka Connect ElasticSearch Sink-使用if-else块提取和转换不同主题的字段,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/52630077/

10-17 03:04