您好,登錄后才能下訂單哦!
本篇內容主要講解“如何使用開源工具fluentd-pilot收集容器日志”,感興趣的朋友不妨來看看。本文介紹的方法操作簡單快捷,實用性強。下面就讓小編來帶大家學習“如何使用開源工具fluentd-pilot收集容器日志”吧!
fluentd-pilot是阿里開源的docker日志收集工具,Github項目地址 。你可以在每臺機器上部署一個fluentd-pilot實例,就可以收集機器上所有Docker應用日志。
fluentd-pilot 具有如下特性:
一個單獨的 fluentd 進程收集機器上所有容器的日志。不需要為每個容器啟動一個 fluentd 進程。
支持文件日志和 stdout。docker log dirver 亦或 logspout 只能處理 stdout,fluentd-pilot 不僅支持收集 stdout 日志,還可以收集文件日志。
聲明式配置。當您的容器有日志要收集,只要通過 label 聲明要收集的日志文件的路徑,無需改動其他任何配置,fluentd-pilot 就會自動收集新容器的日志。
支持多種日志存儲方式。無論是強大的阿里云日志服務,還是比較流行的 elasticsearch 組合,甚至是 graylog,fluentd-pilot 都能把日志投遞到正確的地點。
我們既然要用fluentd-pilot,就得先把它啟動起來。還要有一個日志系統,日志要集中收集,必然要有一個中間服務去收集和存儲,所以要先把這種東西準備好。Rancher中我們要如何做?如圖,首先我們選擇Rancher的應用商店中的Elasticsearch和Kibana。版本沒有要求,下面使用Elasticsearch3.X和Kibana4。
其次在RancherAgent主機上面部署一個fluentd-pilot容器,然后在容器里面啟動的時候,我們要聲明容器的日志信息,fluentd-pilot會自動感知所有容器的配置。每次啟動容器或者刪除容器的時候,它能夠看得到,當看到容器有新容器產生之后,它就會自動給新容器按照你的配置生成對應的配置文件,然后去采集,最后采集回來的日志同樣也會根據配置發送到后端存儲里面去,這里面后端主要指的elasticsearch或者是SLS這樣的系統,接下來你可以在這個系統上面用一些工具來查詢等等。
可根據實際情況,在每臺Agent定義主機標簽,通過主機標簽在每臺RancherAgent主機上跑一個pilot容器。用這個命令來部署,其實現在它是一個標準的Docker鏡像,內部支持一些后端存儲,可以通過環境變量來指定日志放到哪兒去,這樣的配置方式會把所有的收集到的日志全部都發送到elasticsearch里面去,當然兩個掛載是需要的,因為它連接Docker,要感知到Docker里面所有容器的變化,它要通過這種方式來訪問宿主機的一些信息。在Rancher環境下使用以下docker-compose.yml 應用---->添加應用,在可選docker-compose.yml中添加一下內容。
version: '2' services: pilot: image: registry.cn-hangzhou.aliyuncs.com/acs-sample/fluentd-pilot:0.1 environment: ELASTICSEARCH_HOST: elasticsearch ELASTICSEARCH_PORT: '9200' FLUENTD_OUTPUT: elasticsearch external_links: - es-cluster/es-master:elasticsearch volumes: - /var/run/docker.sock:/var/run/docker.sock - /:/host labels: aliyun.global: 'true'
配置好之后啟動自己的應用(例子:tomcat),我們看應用上面要收集的日志,我該在上面做什么樣的聲明?關鍵的配置有兩個,一是label catalina,聲明的是要收集容器的日志為什么格式(標準格式等,也可以是文件。),所有的名字都可以;二是聲明access,這也是個名字,都可以用你喜歡的名字。這樣一個路徑的地址,當你通過這樣的配置來去啟動fluentd-pilot容器之后,它就能夠感覺到這樣一個容器的啟動事件,它會去看容器的配置是什么,要收集這個目錄下面的文件日志,然后告訴fluentd-pilot去中心配置并且去采集,這里還需要一個卷,實際上跟Logs目錄是一致的,在容器外面實際上沒有一種通用的方式能夠獲取到容器里面的文件,所有我們主動把目錄從宿主機上掛載進來,這樣就可以在宿主機上看到目錄下面所有的東西。
當你通過部署之后,他會自己在elasticsearch創建索引,就可以在elasticsearch的kopf上面看到會生成兩個東西,都是自動創建好的,不用管一些配置,你唯一要做的事是什么呢?就可以在kibana上創建日志index pattern了。然后到日志搜索界面,可以看到從哪過來的,這條日志的內容是什么,這些信息都已經很快的出現了。
啟動tomcat的時候,我們聲明了這樣下面兩個,告訴fluentd-pilot這個容器的日志位置。
aliyun.logs.tomcat1-access /opt/apache-tomcat-8.0.14/logs/localhost_access_log.*.txt aliyun.logs.catalina stdout
你還可以在應用容器上添加更多的標簽
aliyun.logs.$name = $path
變量name是日志名稱,具體指隨便是什么,你高興就好。只能包含0-9a-zA-Z_和-
變量path是要收集的日志路徑,必須具體到文件,不能只寫目錄。文件名部分可以使用通配符。/var/log/he.log和/var/log/*.log都是正確的值,但/var/log不行,不能只寫到目錄。stdout是一個特殊值,表示標準輸出
aliyun.logs.$name.format,日志格式,目前支持
none 無格式純文本
json: json格式,每行一個完整的json字符串
csv: csv格式
aliyun.logs.$name.tags: 上報日志的時候,額外增加的字段,格式為k1=v1,k2=v2,每個key-value之間使用逗號分隔,例如
aliyun.logs.access.tags="name=hello,stage=test",上報到存儲的日志里就會出現name字段和stage字段
如果使用elasticsearch作為日志存儲,target這個tag具有特殊含義,表示elasticsearch里對應的index
到此,相信大家對“如何使用開源工具fluentd-pilot收集容器日志”有了更深的了解,不妨來實際操作一番吧!這里是億速云網站,更多相關內容可以進入相關頻道進行查詢,關注我們,繼續學習!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。