logstash快速入門


轉自 http://blog.csdn.net/wp500/article/details/41040213

原文地址:http://logstash.net/docs/1.4.2/tutorials/getting-started-with-logstash

英語水平有限,如果有錯誤請各位指正

簡介

Logstash是一個接收,處理,轉發日志的工具。支持系統日志,webserver日志,錯誤日志,應用日志,總之包括所有可以拋出來的日志類型。怎么樣聽起來挺厲害的吧?
在一個典型的使用場景下(ELK):用Elasticsearch作為后台數據的存儲,kibana用來前端的報表展示。Logstash在其過程中擔任搬運工的角色,它為數據存儲,報表查詢和日志解析創建了一個功能強大的管道鏈。Logstash提供了多種多樣的 input,filters,codecs和output組件,讓使用者輕松實現強大的功能。好了讓我們開始吧

依賴條件:JAVA

Logstash運行僅僅依賴java運行環境(jre)。各位可以在命令行下運行java -version命令
顯示類似如下結果:
[plain]  view plain copy
  1. java -version  
  2. java version "1.7.0_45"  
  3. Java(TM) SE Runtime Environment (build 1.7.0_45-b18)  
  4. Java HotSpot(TM) 64-Bit Server VM (build 24.45-b08, mixed mode)  
為了確保成功運行Logstash建議大家使用較近期的jre版本。
可以獲取開源版本的jre在: http://openjdk.java.net
或者你可以在官網下載Oracle jdk版本: http://www.oracle.com/technetwork/java/index.html
一旦jre已經成功在你的系統中安裝完成,我們就可以繼續了
 

啟動和運行Logstash的兩條命令示例

第一步我們先下載Logstash
[plain]  view plain copy
  1. curl -O https://download.elasticsearch.org/logstash/logstash/logstash-1.4.2.tar.gz  
現在你應該有了一個叫logstash-1.4.2.tar.gz的文件了。 我們把它解壓一下
[plain]  view plain copy
  1. tar zxvf logstash-1.4.2.tar.gz  
  2. cd logstash-1.4.2  
現在我們來運行一下:
[plain]  view plain copy
  1. bin/logstash -e 'input { stdin { } } output { stdout {} }'  
我們現在可以在命令行下輸入一些字符,然后我們將看到logstash的輸出內容:
[plain]  view plain copy
  1. hello world  
  2. 2013-11-21T01:22:14.405+0000 0.0.0.0 hello world  
Ok,還挺有意思的吧... 以上例子我們在運行logstash中,定義了一個叫"stdin"的input還有一個"stdout"的output,無論我們輸入什么字符,Logstash都會按照某種格式來返回我們輸入的字符。這里注意我們在命令行中使用了 -e參數,該參數允許Logstash直接通過命令行接受設置。這點尤其快速的幫助我們反復的測試配置是否正確而不用寫配置文件。
 
讓我們再試個更有意思的例子。首先我們在命令行下使用CTRL-C命令退出之前運行的Logstash。現在我們重新運行Logstash使用下面的命令:
[plain]  view plain copy
  1. bin/logstash -e 'input { stdin { } } output { stdout { codec => rubydebug } }'  
我們再輸入一些字符,這次我們輸入"goodnight moon":
[plain]  view plain copy
  1. goodnight moon  
  2. {  
  3.   "message" => "goodnight moon",  
  4.   "@timestamp" => "2013-11-20T23:48:05.335Z",  
  5.   "@version" => "1",  
  6.   "host" => "my-laptop"  
  7. }  
以上示例通過重新設置了叫"stdout"的output(添加了"codec"參數),我們就可以改變Logstash的輸出表現。類似的我們可以通過在你的配置文件中添加或者修改inputs、outputs、filters,就可以使隨意的格式化日志數據成為可能,從而訂制更合理的存儲格式為查詢提供便利。
 

使用Elasticsearch存儲日志

現在,你也許會說:"它看起來還挺高大上的,不過手工輸入字符,並把字符從控制台回顯出來。實際情況並不實用"。說的好,那么接下來我們將建立Elasticsearch來存儲輸入到Logstash的日志數據。如果你還沒有安裝Elasticsearch,你可以 下載RPM/DEB包或者手動下載tar包,通過以下命令:
[plain]  view plain copy
  1. curl -O https://download.elasticsearch.org/elasticsearch/elasticsearch/elasticsearch-1.1.1.tar.gz  
  2. tar zxvf elasticsearch-1.1.1.tar.gz  
  3. cd elasticsearch-1.1.1/  
  4. ./bin/elasticsearch  
注意
本篇文章實例使用Logstash 1.4.2和Elasticsearch 1.1.1。不同的Logstash版本都有對應的建議Elasticsearch版本。請確認你使用的Logstash版本!
 
更多有關安裝和設置Elasticsearch的信息可以參考 Elasticsearch官網。因為我們主要介紹Logstash的入門使用,Elasticsearch默認的安裝和配置就已經滿足我們要求。
 
言歸正專,現在Elasticsearch已經運行並監聽9200端口了(大家都搞定了,對嗎?),通過簡單的設置Logstash就可以使用Elasticsearch作為它的后端。默認的配置對於Logstash和Elasticsearch已經足夠,我們忽略一些額外的選項來設置elasticsearch作為output:
[plain]  view plain copy
  1. bin/logstash -e 'input { stdin { } } output { elasticsearch { host => localhost } }'  
隨意的輸入一些字符,Logstash會像之前一樣處理日志(不過這次我們將不會看到任何的輸出,因為我們沒有設置stdout作為output選項)
[plain]  view plain copy
  1. you know, for logs  
我們可以使用curl命令發送請求來查看ES是否接收到了數據:
[plain]  view plain copy
  1. curl 'http://localhost:9200/_search?pretty'  
返回內容如下:
[plain]  view plain copy
  1. {  
  2.   "took" : 2,  
  3.   "timed_out" : false,  
  4.   "_shards" : {  
  5.     "total" : 5,  
  6.     "successful" : 5,  
  7.     "failed" : 0  
  8.   },  
  9.   "hits" : {  
  10.     "total" : 1,  
  11.     "max_score" : 1.0,  
  12.     "hits" : [ {  
  13.       "_index" : "logstash-2013.11.21",  
  14.       "_type" : "logs",  
  15.       "_id" : "2ijaoKqARqGvbMgP3BspJA",  
  16.       "_score" : 1.0, "_source" : {"message":"you know, for logs","@timestamp":"2013-11-21T18:45:09.862Z","@version":"1","host":"my-laptop"}  
  17.     } ]  
  18.   }  
  19. }  
恭喜,至此你已經成功利用Elasticsearch和Logstash來收集日志數據了。
 

Elasticsearch 插件(題外話)

這里介紹另外一個對於查詢你的Logstash數據(Elasticsearch中數據)非常有用的工具叫Elasticsearch-kopf插件。更多的信息請見 Elasticsearch插件。安裝elasticsearch-kopf,只要在你安裝Elasticsearch的目錄中執行以下命令即可:
[plain]  view plain copy
  1. bin/plugin -install lmenezes/elasticsearch-kopf  
接下來訪問 http://localhost:9200/_plugin/kopf 來瀏覽保存在Elasticsearch中的數據,設置及映射!
 

多重輸出

作為一個簡單的例子來設置多重輸出,讓我們同時設置stdout和elasticsearch作為output來重新運行一下Logstash,如下:
[plain]  view plain copy
  1. bin/logstash -e 'input { stdin { } } output { elasticsearch { host => localhost } stdout { } }'  
當我們輸入了一些詞組之后,這些輸入的內容回回顯到我們的終端,同時還會保存到Elasticsearch!(可以使用curl和kopf插件來驗證)。

默認配置 - 按照每日日期建立索引

你將發現Logstash可以足夠靈巧的在Elasticsearch上建立索引... 每天會按照默認格式是logstash-YYYY.MM.DD來建立索引。在午夜(GMT),Logstash自動按照時間戳更新索引。我們可以根據追溯多長時間的數據作為依據來制定保持多少數據,當然你也可以把比較老的數據遷移到其他的地方(重新索引)來方便查詢,此外如果僅僅是簡單的刪除一段時間數據我們可以使用 Elasticsearch Curator

接下來

接下來我們開始了解更多高級的配置項。在下面的章節,我們着重討論logstash一些核心的特性,以及如何和logstash引擎交互的。

事件的生命周期

Inputs,Outputs,Codecs,Filters構成了Logstash的核心配置項。Logstash通過建立一條事件處理的管道,從你的日志提取出數據保存到Elasticsearch中,為高效的查詢數據提供基礎。為了讓你快速的了解Logstash提供的多種選項,讓我們先討論一下最常用的一些配置。更多的信息,請參考 Logstash事件管道
 
Inputs
 
input 及輸入是指日志數據傳輸到Logstash中。其中常見的配置如下:
  • file:從文件系統中讀取一個文件,很像UNIX命令 "tail -0a"
  • syslog:監聽514端口,按照RFC3164標准解析日志數據
  • redis:從redis服務器讀取數據,支持channel(發布訂閱)和list模式。redis一般在Logstash消費集群中作為"broker"角色,保存events隊列共Logstash消費。
  • lumberjack:使用lumberjack協議來接收數據,目前已經改為 logstash-forwarder
Filters
 
Fillters 在Logstash處理鏈中擔任中間處理組件。他們經常被組合起來實現一些特定的行為來,處理匹配特定規則的事件流。常見的filters如下:
  • grok:解析無規則的文字並轉化為有結構的格式。Grok 是目前最好的方式來將無結構的數據轉換為有結構可查詢的數據。有120多種匹配規則,會有一種滿足你的需要。
  • mutate:mutate filter 允許改變輸入的文檔,你可以從命名,刪除,移動或者修改字段在處理事件的過程中。
  • drop:丟棄一部分events不進行處理,例如:debug events。
  • clone:拷貝 event,這個過程中也可以添加或移除字段。
  • geoip:添加地理信息(為前台kibana圖形化展示使用)
Outputs
 
outputs是logstash處理管道的最末端組件。一個event可以在處理過程中經過多重輸出,但是一旦所有的outputs都執行結束,這個event也就完成生命周期。一些常用的outputs包括:
  • elasticsearch:如果你計划將高效的保存數據,並且能夠方便和簡單的進行查詢...Elasticsearch是一個好的方式。是的,此處有做廣告的嫌疑,呵呵。
  • file:將event數據保存到文件中。
  • graphite:將event數據發送到圖形化組件中,一個很流行的開源存儲圖形化展示的組件。http://graphite.wikidot.com/
  • statsd:statsd是一個統計服務,比如技術和時間統計,通過udp通訊,聚合一個或者多個后台服務,如果你已經開始使用statsd,該選項對你應該很有用。
Codecs
 
codecs 是基於數據流的過濾器,它可以作為input,output的一部分配置。Codecs可以幫助你輕松的分割發送過來已經被序列化的數據。流行的codecs包括 json,msgpack,plain(text)。
  • json:使用json格式對數據進行編碼/解碼
  • multiline:將匯多個事件中數據匯總為一個單一的行。比如:java異常信息和堆棧信息
獲取完整的配置信息,請參考  Logstash文檔中 "plugin configuration"部分。

更多有趣Logstash內容

使用配置文件

使用-e參數在命令行中指定配置是很常用的方式,不過如果需要配置更多設置則需要很長的內容。這種情況,我們首先創建一個簡單的配置文件,並且指定logstash使用這個配置文件。如我們創建一個文件名是"logstash-simple.conf"的配置文件並且保存在和Logstash相同的目錄中。內容如下:
[plain]  view plain copy
  1. input { stdin { } }  
  2. output {  
  3.   elasticsearch { host => localhost }  
  4.   stdout { codec => rubydebug }  
  5. }  
接下來,執行命令:
[plain]  view plain copy
  1. bin/logstash -f logstash-simple.conf  
我們看到logstash按照你剛剛創建的配置文件來運行例子,這樣更加的方便。注意,我們使用-f參數來從文件獲取而代替之前使用-e參數從命令行中獲取配置。以上演示非常簡單的例子,當然解析來我們繼續寫一些復雜一些的例子。
 

過濾器

filters是一個行處理機制將提供的為格式化的數據整理成你需要的數據,讓我們看看下面的一個例子,叫grok filter的過濾器。
[plain]  view plain copy
  1. input { stdin { } }  
  2.   
  3. filter {  
  4.   grok {  
  5.     match => { "message" => "%{COMBINEDAPACHELOG}" }  
  6.   }  
  7.   date {  
  8.     match => [ "timestamp" , "dd/MMM/yyyy:HH:mm:ss Z" ]  
  9.   }  
  10. }  
  11.   
  12. output {  
  13.   elasticsearch { host => localhost }  
  14.   stdout { codec => rubydebug }  
  15. }  
執行Logstash按照如下參數:
[plain]  view plain copy
  1. bin/logstash -f logstash-filter.conf  
現在粘貼下面一行信息到你的終端(當然Logstash就會處理這個標准的輸入內容):
[plain]  view plain copy
  1. 127.0.0.1 - - [11/Dec/2013:00:01:45 -0800] "GET /xampp/status.php HTTP/1.1" 200 3891 "http://cadenza/xampp/navi.php" "Mozilla/5.0 (Macintosh; Intel Mac OS X 10.9; rv:25.0) Gecko/20100101 Firefox/25.0"  
你將看到類似如下內容的反饋信息:
[plain]  view plain copy
  1. {  
  2.         "message" => "127.0.0.1 - - [11/Dec/2013:00:01:45 -0800] \"GET /xampp/status.php HTTP/1.1\" 200 3891 \"http://cadenza/xampp/navi.php\" \"Mozilla/5.0 (Macintosh; Intel Mac OS X 10.9; rv:25.0) Gecko/20100101 Firefox/25.0\"",  
  3.      "@timestamp" => "2013-12-11T08:01:45.000Z",  
  4.        "@version" => "1",  
  5.            "host" => "cadenza",  
  6.        "clientip" => "127.0.0.1",  
  7.           "ident" => "-",  
  8.            "auth" => "-",  
  9.       "timestamp" => "11/Dec/2013:00:01:45 -0800",  
  10.            "verb" => "GET",  
  11.         "request" => "/xampp/status.php",  
  12.     "httpversion" => "1.1",  
  13.        "response" => "200",  
  14.           "bytes" => "3891",  
  15.        "referrer" => "\"http://cadenza/xampp/navi.php\"",  
  16.           "agent" => "\"Mozilla/5.0 (Macintosh; Intel Mac OS X 10.9; rv:25.0) Gecko/20100101 Firefox/25.0\""  
  17. }  
正像你看到的那樣,Logstash(使用了grok過濾器)能夠將一行的日志數據(Apache的"combined log"格式)分割設置為不同的數據字段。這一點對於日后解析和查詢我們自己的日志數據非常有用。比如:HTTP的返回狀態碼,IP地址相關等等,非常的容易。很少有匹配規則沒有被grok包含,所以如果你正嘗試的解析一些常見的日志格式,或許已經有人為了做了這樣的工作。如果查看詳細匹配規則,參考 logstash grok patterns
 
另外一個過濾器是date filter。這個過濾器來負責解析出來日志中的時間戳並將值賦給timestame字段(不管這個數據是什么時候收集到logstash的)。你也許注意到在這個例子中@timestamp字段是設置成December 11, 2013, 說明logstash在日志產生之后一段時間進行處理的。這個字段在處理日志中回添到數據中的,舉例來說... 這個值就是logstash處理event的時間戳。
 

實用的例子

Apache 日志(從文件獲取)

現在,讓我們使用一些非常實用的配置... apache2訪問日志!我們將從本地讀取日志文件,並且通過條件設置處理滿足我們需要的event。首先,我們創建一個文件名是logstash-apache.conf的配置文件,內容如下(你可以根據實際情況修改你的文件名和路徑):
[plain]  view plain copy
  1. input {  
  2.   file {  
  3.     path => "/tmp/access_log"  
  4.     start_position => beginning  
  5.   }  
  6. }  
  7.   
  8. filter {  
  9.   if [path] =~ "access" {  
  10.     mutate { replace => { "type" => "apache_access" } }  
  11.     grok {  
  12.       match => { "message" => "%{COMBINEDAPACHELOG}" }  
  13.     }  
  14.   }  
  15.   date {  
  16.     match => [ "timestamp" , "dd/MMM/yyyy:HH:mm:ss Z" ]  
  17.   }  
  18. }  
  19.   
  20. output {  
  21.   elasticsearch {  
  22.     host => localhost  
  23.   }  
  24.   stdout { codec => rubydebug }  
  25. }  
接下來,我們按照上面的配置創建一個文件(在例子中是"/tmp/access.log"),可以將下面日志信息作為文件內容(也可以用你自己的webserver產生的日志):
[plain]  view plain copy
  1. 71.141.244.242 - kurt [18/May/2011:01:48:10 -0700] "GET /admin HTTP/1.1" 301 566 "-" "Mozilla/5.0 (Windows; U; Windows NT 5.1; en-US; rv:1.9.2.3) Gecko/20100401 Firefox/3.6.3"  
  2. 134.39.72.245 - - [18/May/2011:12:40:18 -0700] "GET /favicon.ico HTTP/1.1" 200 1189 "-" "Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 5.1; Trident/4.0; .NET CLR 2.0.50727; .NET CLR 3.0.4506.2152; .NET CLR 3.5.30729; InfoPath.2; .NET4.0C; .NET4.0E)"  
  3. 98.83.179.51 - - [18/May/2011:19:35:08 -0700] "GET /css/main.css HTTP/1.1" 200 1837 "http://www.safesand.com/information.htm" "Mozilla/5.0 (Windows NT 6.0; WOW64; rv:2.0.1) Gecko/20100101 Firefox/4.0.1"  
現在使用-f參數來執行一下上面的例子:
[plain]  view plain copy
  1. bin/logstash -f logstash-apache.conf  
你可以看到apache的日志數據已經導入到ES中了。這里logstash會按照你的配置讀取,處理指定的文件,任何后添加到文件的內容也會被捕獲處理最后保存到ES中。此外,數據中type的字段值會被替換成"apache_access"(這個功能在配置中已經指定)。
 
這個配置只是讓Logstash監控了apache access_log,但是在實際中往往並不夠用可能還需要監控error_log,只要在上面的配置中改變一行既可以實現,如下:
[plain]  view plain copy
  1. input {  
  2.   file {  
  3.     path => "/tmp/*_log"  
  4. ...  

現在你可以看到logstash處理了error日志和access日志。然而,如果你檢查了你的數據(也許用elasticsearch-kopf),你將發現access_log日志被分成不同的字段,但是error_log確沒有這樣。這是因為我們使用了“grok”filter並僅僅配置匹配combinedapachelog日志格式,這樣滿足條件的日志就會自動的被分割成不同的字段。我們可以通過控制日志按照它自己的某種格式來解析日志,不是很好的嗎?對吧。
 
此外,你也許還會發現Logstash不會重復處理文件中已經處理過得events。因為Logstash已經記錄了文件處理的位置,這樣就只處理文件中新加入的行數。漂亮!
 

條件判斷

我們利用上一個例子來介紹一下條件判斷的概念。這個概念一般情況下應該被大多數的Logstash用戶熟悉掌握。你可以像其他普通的編程語言一樣來使用if,else if和else語句。讓我們把每個event依賴的日志文件類型都標記出來(access_log,error_log其他以log結尾的日志文件)。
[plain]  view plain copy
  1. input {  
  2.   file {  
  3.     path => "/tmp/*_log"  
  4.   }  
  5. }  
  6.   
  7. filter {  
  8.   if [path] =~ "access" {  
  9.     mutate { replace => { type => "apache_access" } }  
  10.     grok {  
  11.       match => { "message" => "%{COMBINEDAPACHELOG}" }  
  12.     }  
  13.     date {  
  14.       match => [ "timestamp" , "dd/MMM/yyyy:HH:mm:ss Z" ]  
  15.     }  
  16.   } else if [path] =~ "error" {  
  17.     mutate { replace => { type => "apache_error" } }  
  18.   } else {  
  19.     mutate { replace => { type => "random_logs" } }  
  20.   }  
  21. }  
  22.   
  23. output {  
  24.   elasticsearch { host => localhost }  
  25.   stdout { codec => rubydebug }  
  26. }  

我想你已經注意到了,我們使用"type"字段來標記每個event,但是我們實際上沒有解析"error"和”random"類型的日志... 而實際情況下可能會有很多很多類型的錯誤日志,如何解析就作為練習留給各位讀者吧,你可以依賴已經存在的日志。

Syslog

Ok,現在我們繼續了解一個很實用的例子:syslog。Syslog對於Logstash是一個很長用的配置,並且它有很好的表現(協議格式符合RFC3164)。Syslog實際上是UNIX的一個網絡日志標准,由客戶端發送日志數據到本地文件或者日志服務器。在這個例子中,你根本不用建立syslog實例;我們通過命令行就可以實現一個syslog服務,通過這個例子你將會看到發生什么。
 
首先,讓我們創建一個簡單的配置文件來實現logstash+syslog,文件名是 logstash-syslog.conf
 
[plain]  view plain copy
  1. input {  
  2.   tcp {  
  3.     port => 5000  
  4.     type => syslog  
  5.   }  
  6.   udp {  
  7.     port => 5000  
  8.     type => syslog  
  9.   }  
  10. }  
  11.   
  12. filter {  
  13.   if [type] == "syslog" {  
  14.     grok {  
  15.       match => { "message" => "%{SYSLOGTIMESTAMP:syslog_timestamp} %{SYSLOGHOST:syslog_hostname} %{DATA:syslog_program}(?:
     
    )?: %{GREEDYDATA:syslog_message}" }  
  16.       add_field => [ "received_at", "%{@timestamp}" ]  
  17.       add_field => [ "received_from", "%{host}" ]  
  18.     }  
  19.     syslog_pri { }  
  20.     date {  
  21.       match => [ "syslog_timestamp", "MMM  d HH:mm:ss", "MMM dd HH:mm:ss" ]  
  22.     }  
  23.   }  
  24. }  
  25.   
  26. output {  
  27.   elasticsearch { host => localhost }  
  28.   stdout { codec => rubydebug }  
  29. }  
執行logstash:
 
[plain]  view plain copy
  1. bin/logstash -f logstash-syslog.conf  
 
通常,需要一個客戶端鏈接到Logstash服務器上的5000端口然后發送日志數據。在這個簡單的演示中我們簡單的使用telnet鏈接到logstash服務器發送日志數據(與之前例子中我們在命令行標准輸入狀態下發送日志數據類似)。首先我們打開一個新的shell窗口,然后輸入下面的命令:
[plain]  view plain copy
  1. telnet localhost 5000  
你可以復制粘貼下面的樣例信息(當然也可以使用其他字符,不過這樣可能會被grok filter不能正確的解析):
[plain]  view plain copy
  1. Dec 23 12:11:43 louis postfix/smtpd[31499]: connect from unknown[95.75.93.154]  
  2. Dec 23 14:42:56 louis named[16000]: client 199.48.164.7#64817: query (cache) 'amsterdamboothuren.com/MX/IN' denied  
  3. Dec 23 14:30:01 louis CRON[619]: (www-data) CMD (php /usr/share/cacti/site/poller.php >/dev/null 2>/var/log/cacti/poller-error.log)  
  4. Dec 22 18:28:06 louis rsyslogd: [origin software="rsyslogd" swVersion="4.2.0" x-pid="2253" x-info="http://www.rsyslog.com"] rsyslogd was HUPed, type 'lightweight'.  

之后你可以在你之前運行Logstash的窗口中看到輸出結果,信息被處理和解析!
 
[plain]  view plain copy
  1. {  
  2.                  "message" => "Dec 23 14:30:01 louis CRON[619]: (www-data) CMD (php /usr/share/cacti/site/poller.php >/dev/null 2>/var/log/cacti/poller-error.log)",  
  3.               "@timestamp" => "2013-12-23T22:30:01.000Z",  
  4.                 "@version" => "1",  
  5.                     "type" => "syslog",  
  6.                     "host" => "0:0:0:0:0:0:0:1:52617",  
  7.         "syslog_timestamp" => "Dec 23 14:30:01",  
  8.          "syslog_hostname" => "louis",  
  9.           "syslog_program" => "CRON",  
  10.               "syslog_pid" => "619",  
  11.           "syslog_message" => "(www-data) CMD (php /usr/share/cacti/site/poller.php >/dev/null 2>/var/log/cacti/poller-error.log)",  
  12.              "received_at" => "2013-12-23 22:49:22 UTC",  
  13.            "received_from" => "0:0:0:0:0:0:0:1:52617",  
  14.     "syslog_severity_code" => 5,  
  15.     "syslog_facility_code" => 1,  
  16.          "syslog_facility" => "user-level",  
  17.          "syslog_severity" => "notice"  
  18. }  

恭喜各位,看到這里你已經成為一個合格的Logstash用戶了。你將可以輕松的配置,運行Logstash,還可以發送event給Logstash,但是這個過程隨着使用還會有很多值得深挖的地方。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM