配置项说明
基本配置项
| 参数 | 描述 |
|---|---|
| bootstrap.servers | 初始连接的集群地址,格式为Project.Endpoint:Port,请根据Project所在的Endpoint进行配置。更多信息,请参见服务入口 - 阿里云内网:端口号为10011,例如 project.cn-hangzhou-intranet.log.aliyuncs.com:10011 - 公网:端口号为10012,例如 project.cn-hangzhou.log.aliyuncs.com:10012 |
| sasl.mechanism | 必须使用 PLAIN |
| security.protocol | 为了保证数据传输的安全性,必须使用SASL_SSL |
| sasl.username | 配置为日志服务Project名称 |
| sasl.password | 配置为阿里云AK,格式为 {access-key-id}#{access-key-secret。请根据实际情况,将 {access-key-id 替换为您的AccessKey ID,将 {access-key-secret} 替换为您的AccessKey Secret。建议使用RAM用户的AK。更多信息,请参见授权 |
使用Kafka消费时,需要额外设置如下参数
| 参数 | 描述 |
|---|---|
| group.id | 消费组id, 是用于指定消费者组的标识符,用于将消费组内的消费者分组,通过配置消费组id,可以实现消费者组内的负载均衡,实现数据的处理和分发.例如 "kafka-test" |
| enable.auto.commit | 是否自动提交消费点位,建议设为true |
| auto.commit.interval.ms | 自动提交消费点位的间隔时间,建议30000ms |
| max.poll.interval.ms | 消费组在消费者发起加入组请求后,等待所有消费者加入的时间间隔,在这个时间间隔内加入组的消费者为消费组的成员,进行分区分配,各个消费者按分配的分区开发消费数据,如果在这个时间内还有消费者没有加入消费组,则会触发消费组再平衡操作,再平衡期间不会消费数据,会导致消费延迟,建议max.poll.interval.ms为130000ms,保证所有消费者都能加入消费组 . 使用confluent这个库时需要保证max.poll.interval.ms值大于session.timeout.ms,否则无法正常消费 |
| session.timeout.ms | 心跳最大超时时间,在该时间如果消费者没有发送心跳请求,则视为该消费者发生异常,触发消费组再平衡操作,session.timeout.ms为120000ms |
| heartbeat.interval.ms | 规定客户端和服务端之间心跳检测间隔时间,heartbeat.interval.ms 越小,客户端和服务端之间的心跳检测越频繁,但也会导致更多的网络流量.建议5000ms |
| auto.offset.reset | auto.offset.reset 消费起始点位 常用的二个值是latest 和earliest,其中earliest 从历史最早点位开始消费,latest从最新点位开始消费,默认是latest |
包依赖安装
shell
go get -u gopkg.in/confluentinc/confluent-kafka-go.v1/kafka写入示例
go
package main
import (
"fmt"
"log"
"os"
// "time"
"github.com/confluentinc/confluent-kafka-go/kafka"
)
func main() {
project := "etl-shanghai-b"
logstore := "testlog"
parseJson := false
// Get credentials from environment variables
accessKeyID := os.Getenv("SLS_ACCESS_KEY_ID")
accessKeySecret := os.Getenv("SLS_ACCESS_KEY_SECRET")
endpoint := "cn-shanghai.log.aliyuncs.com"
port := "10012" // 公网用10012,私网用10011
hosts := fmt.Sprintf("%s.%s:%s", project, endpoint, port)
topic := logstore
if parseJson {
topic = topic + ".json"
}
// Configure Kafka producer
config := &kafka.ConfigMap{
"bootstrap.servers": hosts,
"security.protocol": "sasl_ssl",
"sasl.mechanisms": "PLAIN",
"sasl.username": project,
"sasl.password": accessKeyID + "#" + accessKeySecret,
"enable.idempotence": false,
}
// Create producer instance
producer, err := kafka.NewProducer(config)
if err != nil {
log.Fatalf("Failed to create producer: %v", err)
}
defer producer.Close()
// 批量发送消息
messages := []string{
"{\"msg\": \"Hello World 1\"}",
"{\"msg\": \"Hello World 2\"}",
"{\"msg\": \"Hello World 3\"}",
}
for _, content := range messages {
err := producer.Produce(&kafka.Message{
TopicPartition: kafka.TopicPartition{Topic: &topic, Partition: kafka.PartitionAny},
Value: []byte(content),
//Timestamp: time.Now(), // 如有需要可以设置时间
}, nil)
if err != nil {
log.Printf("Failed to produce message: %v", err)
}
}
// 启用一个go routine 监听producer发送是否成功或者失败
go func() {
for e := range producer.Events() {
switch ev := e.(type) {
case *kafka.Message:
if ev.TopicPartition.Error != nil {
fmt.Printf("Delivery failed: %v\n", ev.TopicPartition.Error)
} else {
fmt.Printf("Delivered message to topic %s [%d] at offset %v\n",
*ev.TopicPartition.Topic, ev.TopicPartition.Partition, ev.TopicPartition.Offset)
}
}
}
}()
producer.Flush(5 * 1000)
}消费示例
go
package main
import (
"fmt"
"os"
"github.com/confluentinc/confluent-kafka-go/kafka"
)
func main() {
endpoint := "cn-shanghai.log.aliyuncs.com"
accessKeyID := os.Getenv("SLS_ACCESS_KEY_ID")
accessKeySecret := os.Getenv("SLS_ACCESS_KEY_SECRET")
project := "etl-shanghai-b"
logstore := "testlog"
port := "10012" // 公网用10012,私网用10011
consumerGroupName := "kafka-test"
var kafkaConf = &kafka.ConfigMap{
"bootstrap.servers": fmt.Sprintf("%s.%s:%s", project, endpoint, port),
"sasl.mechanism": "PLAIN",
"security.protocol": "sasl_ssl",
"sasl.username": project,
"sasl.password": fmt.Sprintf("%s#%s", accessKeyID, accessKeySecret),
"group.id": consumerGroupName,
"enable.auto.commit": "true",
"auto.commit.interval.ms": 30000,
"session.timeout.ms": 120000,
"auto.offset.reset": "latest",
"max.poll.interval.ms": 130000,
"heartbeat.interval.ms": 5000,
}
consumer, err := kafka.NewConsumer(kafkaConf)
if err != nil {
panic(err)
}
fmt.Print("init kafka consumer success\n")
consumer.SubscribeTopics([]string{logstore}, nil)
for {
msg, err := consumer.ReadMessage(-1)
if err == nil {
key := ""
if msg.Key != nil {
key = string(msg.Key)
}
fmt.Printf("Message on %s: key=%s, value=%s, timestamp=%v\n",
msg.TopicPartition, key, string(msg.Value), msg.Timestamp)
} else {
fmt.Printf("Consumer error: %v (%v)\n", err, msg)
}
}
consumer.Close()
}