Knative 實戰:基於 Kafka 實現消息推送


1

作者 | 元毅 阿里雲智能事業群高級開發工程師

導讀:當前在 Knative 中已經提供了對 Kafka 事件源的支持,那么如何基於 Kafka 實現消息推送呢?本文作者將以阿里雲 Kafka 產品為例,給大家解鎖這一新的姿勢。

背景

消息隊列 for Apache Kafka 是阿里雲提供的分布式、高吞吐、可擴展的消息隊列服務。消息隊列 for Apache Kafka 廣泛用於日志收集、監控數據聚合、流式數據處理、在線和離線分析等大數據領域,已成為大數據生態中不可或缺的部分。

結合 Knative  中提供了 KafkaSource 事件源的支持, 可以方便的對接 Kafka 消息服務。

另外也可以安裝社區 Kafka 2.0.0 及以上版本使用。

在阿里雲上創建 Kafka 實例

創建 Kafka 實例

登錄消息隊列 Kafka 控制台, 選擇【購買實例】。由於當前 Knative 中 Kafka 事件源支持 2.0.0 及以上版本,在阿里雲上創建 Kafka 實例需要選擇包年包月、專業版本進行購買,購買之后升級到 2.0.0 即可。

2

部署實例並綁定 VPC

購買完成之后,進行部署,部署時設置 Knative 集群所在的 VPC 即可:

3

創建 Topic 和 Consumer Group

接下來我們創建 Topic 和消費組。
進入【Topic 管理】,點擊 創建 Topic, 這里我們創建名稱為 demo 的 topic:

4

進入【Consumer Group 管理】,點擊 創建 Consumer Group, 這里我們創建名稱為 demo-consumer 的消費組:

5

部署 Kafka 數據源

部署 Kafka addon 組件

登錄容器服務控制台,進入【Knative 組件管理】,部署 Kafka addon 組件。

6

創建 KafkaSource 實例

首先創建用於接收事件的服務 event-display:

apiVersion: serving.knative.dev/v1
kind: Service
metadata:
  name: event-display
spec:
  template:
    spec:
      containers:
      - image: registry.cn-hangzhou.aliyuncs.com/knative-sample/eventing-sources-cmd-event_display:bf45b3eb1e7fc4cb63d6a5a6416cf696295484a7662e0cf9ccdf5c080542c21d

接下來創建 KafkaSource:

apiVersion: sources.eventing.knative.dev/v1alpha1
kind: KafkaSource
metadata:
  name: alikafka-source
spec:
  consumerGroup: demo-consumer
  # Broker URL. Replace this with the URLs for your kafka cluster,
  # which is in the format of my-cluster-kafka-bootstrap.my-kafka-namespace:9092.
  bootstrapServers: 192.168.0.6x:9092,192.168.0.7x:9092,192.168.0.8x:9092
  topics: demo
  sink:
    apiVersion: serving.knative.dev/v1alpha1
    kind: Service
    name: event-display

說明:

  • bootstrapServers: Kafka VPC 訪問地址
  • consumerGroup: 設置消費組
  • topics:設置 Topic

創建完成之后,我們可以查看對應的實例已經運行:

[root@iZ2zeae8wzyq0ypgjowzq2Z ~]# kubectl get pods
NAME                                    READY   STATUS    RESTARTS   AGE
alikafka-source-k22vz-db44cc7f8-879pj   1/1     Running   0          8h

驗證

在 Kafka 控制台,選擇 topic 發送消息,注意這里的消息格式必須是 json 格式:

7

我們可以看到已經接收到了發送過來的 Kafka 消息:

[root@iZ2zeae8wzyq0ypgjowzq2Z ~]# kubectl logs event-display-zl6m5-deployment-6bf9596b4f-8psx4 user-container

☁️  CloudEvent: valid ✅
Context Attributes,
  SpecVersion: 0.2
  Type: dev.knative.kafka.event
  Source: /apis/v1/namespaces/default/kafkasources/alikafka-source#demo
  ID: partition:7/offset:1
  Time: 2019-10-18T08:50:32.492Z
  ContentType: application/json
  Extensions: 
    key: demo
Transport Context,
  URI: /
  Host: event-display.default.svc.cluster.local
  Method: POST
Data,
  {
    "key": "test"
  }

小結

結合阿里雲 Kafka 產品,通過事件驅動觸發服務(函數)執行,是不是簡單又高效。這樣我們利用 Knative 得以把雲原生的能力充分釋放出來,帶給我們更多的想象空間。歡迎對 Knative 感興趣的一起交流。

實操視頻演示鏈接:https://v.qq.com/x/page/d3013wzs3tp.html

作者簡介:元毅,阿里雲容器平台高級開發工程師,負責阿里雲容器平台 Knative 相關工作。


歡迎加入 Knative 交流群

8

“ 阿里巴巴雲原生微信公眾號(ID:Alicloudnative)關注微服務、Serverless、容器、Service Mesh等技術領域、聚焦雲原生流行技術趨勢、雲原生大規模的落地實踐,做最懂雲原生開發者的技術公眾號。”


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM