亚洲激情专区-91九色丨porny丨老师-久久久久久久女国产乱让韩-国产精品午夜小视频观看

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

rsync+inotify實時同步環境部署

發布時間:2020-06-05 12:34:46 來源:網絡 閱讀:2286 作者:摯愛linux 欄目:系統運維

rsync+inotify實時同步環境部署

隨著應用系統規模的不斷擴大,對數據的安全性和可靠性也提出的更好的要求,rsync在高端業務系統中也逐漸暴露出了很多不足。
首先,rsync在同步數據時,需要掃描所有文件后進行比對,進行差量傳輸。如果文件數量達到了百萬甚至千萬量級,掃描所有文件將是非常耗時的,并且正在發生變化的往往是其中很少的一部分,這是非常低效的方式。
其次,rsync不能實時的去監測、同步數據,雖然它可以通過linux守護進程的方式進行觸發同步,但是兩次觸發動作一定會有時間差,這樣就導致了服務端和客戶端數據可能出現不一致,無法在應用故障時完全的恢復數據。

基于以上兩種情況,可以使用rsync+inotify的組合來解決,可以實現數據的實時同步。

inotify是一種強大的、細粒度的、異步的文件系統事件控制機制。linux內核從2.6.13起,加入了inotify支持,通過inotify可以監控文件系統中添加、刪除、修改、移動等各種事件,利用這個內核接口,第三方軟件就可以監控文件系統下文件的各種變化情況,而inotify-tools正是實施監控的軟件。
在使用rsync首次全量同步后,結合inotify對源目錄進行實時監控,只有有文件變動或新文件產生,就會立刻同步到目標目錄下,非常高效使用!

需求說明:

分別將

192.168.1.1的/Data/fangfull_upload和/Data/erp_upload
192.168.1.2的/Data/xqsj_upload/和/Data/fa`n`ghu_upload_src
192.168.1.3的/Data/Static_img/webroot/ssapp-prod和/usr/local/nginx/html/ssapp.prod

實時同步到
192.168.1.5的/home/backup/image-back目錄下對應的fangfull_upload、erp_upload、xqsj_upload、fanghu_upload_src、ssapp-prod和ssapp.prod目錄。

這樣的話:
(1)192.168.1.1、192.168.1.2、192.168.1.3這三臺服務器是源服務器,作為rsync的客戶端,部署rsync+inotify。
(2)192.168.1.5是目標服務器,作為rsync的服務端。只需要安裝配置rsync即可,不需要安裝inotify。

一.在目標服務器192.168.1.5上部署rsync服務端。

1)關閉selinux
vim /etc/selinux/config
SELINUX=disabled
setenforce 0
2)防火墻上允許以上三臺源服務器訪問它的22端口和873端口
firewall-cmd --permanent --add-rich-rule="rule family="ipv4" source address="192.168.1.1" port protocol="tcp" port="22" accept"
firewall-cmd --permanent --add-rich-rule="rule family="ipv4" source address="192.168.1.1" port protocol="tcp" port="873" accept"
firewall-cmd --permanent --add-rich-rule="rule family="ipv4" source address="192.168.1.2" port protocol="tcp" port="22" accept"
firewall-cmd --permanent --add-rich-rule="rule family="ipv4" source address="192.168.1.2" port protocol="tcp" port="873" accept"
firewall-cmd --permanent --add-rich-rule="rule family="ipv4" source address="192.168.1.3" port protocol="tcp" port="22" accept"
firewall-cmd --permanent --add-rich-rule="rule family="ipv4" source address="192.168.1.3" port protocol="tcp" port="873" accept"

systemctl restart firewalld
3)安裝部署rsync服務
yum install rsync xinetd
vim /etc/xinetd.d/rsync
.....
disable = no               #由默認的yes改為no,設置開機啟動rsync
啟動xineted服務

/etc/init.d/xinetd start

創建/etc/rsyncd.conf文件,并配置同步策略。添加如下代碼:
 vim /etc/rsyncd.conf
 log file = /var/log/rsyncd.log          #日志文件位置,啟動rsync后自動產生這個文件,無需提前創建
pidfile = /var/run/rsyncd.pid           #pid文件的存放位置
lock file = /var/run/rsync.lock        #支持max connections參數的鎖文件
secrets file = /etc/rsync.pass         #用戶認證配置文件,里面保存用戶名稱和密碼,后面會創建這個文件
motd file = /etc/rsyncd.Motd          #rsync啟動時歡迎信息頁面文件位置(自己創建這個文件,內容隨便自定義)

[fangfull_upload]                            #自定義名稱
path = /home/backup/image-back/fangfull_upload           #rsync服務端數據目錄路徑,即同步到目標目錄后的存放路徑
comment = fangfull_upload                                             #模塊名稱與[fangfull_upload]自定義名稱相同
uid = nobody                                 #設置rsync運行的uid權限。這個要保證同步到目標目錄后的權限和源目錄一致,即都是nobody!
gid = nobody                                #設置rsync運行的gid權限。
port=873                                    #默認的rsync端口
use chroot = no                          #默認為true,修改為no或false,增加對目錄文件軟連接的備份
read only = no                            #設置rsync服務端文件為讀寫權限
list = no                                      #不顯示rsync服務端資源列表
max connections = 200              #最大連接數
timeout = 600                           #設置超時時間
auth users = RSYNC_USER          #執行數據同步的用戶名,需要后面手動設置。可以設置多個,用英文狀態下逗號隔開
hosts allow = 192.168.1.1        #允許進行數據同步的客戶端IP地址,可以設置多個,用英文狀態下逗號隔開
hosts deny = 192.168.1.194       #禁止數據同步的客戶端IP地址,可以設置多個,用英文狀態下逗號隔開(如果沒有禁止,就不用設置這一行)

[erp_upload]
path = /home/backup/image-back/erp_upload
comment = erp_upload
uid = nobody
gid = nobody
port=873
use chroot = no
read only = no
list = no
max connections = 200
timeout = 600
auth users = RSYNC_USER
hosts allow = 192.168.1.1

[xqsj_upload]
path = /home/backup/image-back/xqsj_upload
comment = xqsj_upload
uid = nobody
gid = nobody
port=873
use chroot = no
read only = no
list = no
max connections = 200
timeout = 600
auth users = RSYNC_USER
hosts allow = 192.168.1.2

[fanghu_upload_src]
path = /home/backup/image-back/fanghu_upload_src
comment = fanghu_upload_src
uid = nobody
gid = nobody
port=873
use chroot = no
read only = no
list = no
max connections = 200
timeout = 600
auth users = RSYNC_USER
hosts allow = 192.168.1.2

[ssapp-prod]
path = /home/backup/image-back/ssapp-prod
comment = ssapp-prod
uid = nginx
gid = nginx
port=873
use chroot = no
read only = no
list = no
max connections = 200
timeout = 600
auth users = RSYNC_USER
hosts allow = 192.168.1.3

[ssapp.prod]
path = /home/backup/image-back/ssapp.prod
comment = ssapp.prod
uid = nginx
gid = nginx
port=873
use chroot = no
read only = no
list = no
max connections = 200
timeout = 600
auth users = RSYNC_USER
hosts allow = 192.168.1.3
創建用戶認證文件 (多個模塊用的是這同一個認證文件)
vim /etc/rsync.pass
xiaoshengyu:123456@rsync
設置文件權限,即rsyncd.conf和rsync.pass認證文件都是600權限!
chmod 600 /etc/rsyncd.conf
chmod 600 /etc/rsync.pass
重啟rsync服務
/etc/init.d/xinetd restart
lsof -i:873
COMMAND PID USER FD TYPE DEVICE SIZE/OFF NODE NAME
xinetd 22041 root 5u IPv6 3336440 0t0 TCP *:rsync (LISTEN)
4)最后,創建rsync同步過來后的目標目錄
cd /home/backup/image-back/
mkdir fangfull_upload erp_upload xqsj_upload fanghu_upload_src ssapp-prod ssapp.prod

第二部分:在源服務器192.168.1.1、192.168.1.2、192.168.1.3部署rsync客戶端和inotify監控。

1)三臺機器同樣操作
關閉selinux,做為客戶端的rsync可以不用在iptables里開放873端口
vim /etc/selinux/config
SELINUX=disabled
setenforce 0
2)三臺機器同樣操作
安裝rsync
yum install rsync xinetd
vim /etc/xinetd.d/rsync
.....
disable = no                     #由默認的yes改為no,設置開機啟動rsync
啟動rsync服務
/etc/init.d/xinetd start
lsof -i:873
COMMAND PID USER FD TYPE DEVICE SIZE/OFF NODE NAME
xinetd 22041 root 5u IPv6 3336440 0t0 TCP *:rsync (LISTEN)
創建同步的密碼文件,這個文件名可以跟服務端的認證文件不一樣,但是里面的密碼必須一致!用于rsync同步命令中。不過,最好兩邊的文件設置成一樣,便于管理
vim /etc/rsync.pass
123456@rsync
設置rsync.pass密碼文件為600權限

chmod 600 /etc/rsync.pass

3)三臺機器同樣操作
查看服務器內核是否支持inotify,出現下面的內容,說明服務器內核支持inotify
 ll /proc/sys/fs/inotify
 max_queued_events
 max_user_instances
 max_user_watches
下面開始安裝inotify-tools
yum install make gcc gcc-c++                          #安裝編譯工具
cd /usr/local/src
wget http://github.com/downloads/rvoicilas/inotify-tools/inotify-tools-3.14.tar.gz
tar zxvf inotify-tools-3.14.tar.gz
cd inotify-tools-3.14
./configure --prefix=/usr/local/inotify
make && make install
設置系統環境變量
vim /etc/profile
 export PATH=$PATH:/usr/local/inotify/bin
 source /etc/profile
添加庫文件
vim /etc/ld.so.conf
/usr/local/inotify/lib
 ldconfig
修改inotify默認參數(inotify默認內核參數值太小)

查看系統默認參數值

sysctl -a | grep max_queued_events
fs.inotify.max_queued_events = 16384
sysctl -a | grep max_user_watches
fs.inotify.max_user_watches = 8192
sysctl -a | grep max_user_instances
fs.inotify.max_user_instances = 128
修改參數:
sysctl -w fs.inotify.max_queued_events="99999999"
sysctl -w fs.inotify.max_user_watches="99999999"
sysctl -w fs.inotify.max_user_instances="65535
"
參數說明:

max_queued_events:
inotify隊列最大長度,如果值太小,會出現" Event Queue Overflow "錯誤,導致監控文件不準確
max_user_watches:
要同步的文件包含多少目錄,可以用:find /Data/xqsj_upload -type d | wc -l 統計這些源目錄下的目錄數,必須保證max_user_watches值大于統計結果(這里/Data/xqsj_upload為同步的源文件目錄)
max_user_instances:
每個用戶創建inotify實例最大值

4)接著執行同步操作:
分別在三臺源服務器上執行rsync首次全量同步的操作(加--delete參數,保持目標目錄和源目錄下文件絕對一致)

在192.168.1.1服務器上
第一次全量同步:

rsync -avH --port=873 --progress --delete /Data/fangfull_upload/ RSYNC_USER@192.168.1.5::fangfull_upload --password-file=/etc/rsync.pass
rsync -avH --port=873 --progress --delete /Data/erp_upload/ RSYNC_USER@192.168.1.5::erp_upload --password-file=/etc/rsync.pass
待第一次rsync全量同步完成后,就進行rsync+inotify實時同步腳本操作。

實時同步腳本里添加的是--delete-before參數,而不是--delete參數(第一次全量同步時rsync用的參數),二者區別:
--delete參數:表示rsync同步前,強制刪除目標目錄中的所有文件,然后再執行同步操作。
--delete-before參數:表示rsync同步前,會先對目標目錄進行一次掃描檢索,刪除目標目錄中對比源目錄的多余文件,然后再執行同步操作。顯然比--delete參數安全些。

cd /home/rsync/
cat rsync_fangfull_upload_inotify.sh
#!/bin/bash
SRCDIR=/Data/fangfull_upload/
USER=RSYNC_USER
IP=192.168.1.5
DESTDIR=fangfull_upload
/usr/local/inotify/bin/inotifywait -mrq --timefmt '%d/%m/%y %H:%M' --format '%T %w%f%e' -e close_write,modify,delete,create,attrib,move $SRCDIR | while read file
do
/usr/bin/rsync -avH --port=873 --progress --delete-before $SRCDIR $USER@$IP::$DESTDIR --password-file=/etc/rsync.pass
echo " ${file} was rsynced" >> /tmp/rsync.log 2>&1
done
cat rsync_erp_upload_inotify.sh
#!/bin/bash
SRCDIR=/Data/erp_upload/
USER=RSYNC_USER
IP=192.168.1.5
DESTDIR=erp_upload
/usr/local/inotify/bin/inotifywait -mrq --timefmt '%d/%m/%y %H:%M' --format '%T %w%f%e' -e close_write,modify,delete,create,attrib,move $SRCDIR | while read file
do
/usr/bin/rsync -avH --port=873 --progress --delete-before $SRCDIR $USER@$IP::$DESTDIR --password-file=/etc/rsync.pass
echo " ${file} was rsynced" >> /tmp/rsync.log 2>&1
done
然后啟動同步腳本,放在后臺執行!
nohup sh rsync_fangfull_upload_inotify.sh &
nohup sh rsync_erp_upload_inotify.sh &
檢查下是否腳本啟動成功了

ps -ef|grep inotify
root 11390 1 0 13:41 ? 00:00:00 sh rsync_erp_upload_inotify.sh
root 11392 11390 0 13:41 ? 00:00:00 sh rsync_erp_upload_inotify.sh
root 11397 1 0 13:41 ? 00:00:00 sh rsync_fangfull_upload_inotify.sh
root 11399 11397 0 13:41 ? 00:00:00 sh rsync_fangfull_upload_inotify.sh
root 21842 11702 0 17:22 pts/0 00:00:00 grep --color=auto inotify

最后進行測試:

比如在源目錄/Data/fangfull_upload中創建一個文件或目錄,會自動實時同步到目標機器192.168.1.5的目標目錄/home/backup/image-back/fangfull_upload中。


在192.168.1.2服務器上

第一次全量同步:

rsync -avH --port=873 --progress --delete /Data/xqsj_upload/ RSYNC_USER@192.168.1.5::xqsj_upload --password-file=/etc/rsync.pass
rsync -avH --port=873 --progress --delete /Data/fanghu_upload_src/ RSYNC_USER@192.168.1.5::fanghu_upload_src --password-file=/etc/rsync.pass

rsync+inotify實時同步:

cd /home/rsync/
cat rsync_xqsj_upload_inotify.sh
#!/bin/bash
SRCDIR=/Data/xqsj_upload/
USER=RSYNC_USER
IP=192.168.1.5
DESTDIR=xqsj_upload
/usr/local/inotify/bin/inotifywait -mrq --timefmt '%d/%m/%y %H:%M' --format '%T %w%f%e' -e close_write,modify,delete,create,attrib,move $SRCDIR | while read file
do
/usr/bin/rsync -avH --port=873 --progress --delete-before $SRCDIR $USER@$IP::$DESTDIR --password-file=/etc/rsync.pass
echo " ${file} was rsynced" >> /tmp/rsync.log 2>&1
done
cat rsync_fanghu_upload_src_inotify.sh
#!/bin/bash
SRCDIR=/Data/fanghu_upload_src/
USER=RSYNC_USER
IP=192.168.1.5
DESTDIR=fanghu_upload_src
/usr/local/inotify/bin/inotifywait -mrq --timefmt '%d/%m/%y %H:%M' --format '%T %w%f%e' -e close_write,modify,delete,create,attrib,move $SRCDIR | while read file
do
/usr/bin/rsync -avH --port=873 --progress --delete-before $SRCDIR $USER@$IP::$DESTDIR --password-file=/etc/rsync.pass
echo " ${file} was rsynced" >> /tmp/rsync.log 2>&1
done
然后啟動同步腳本,放在后臺執行!
nohup sh rsync_xqsj_upload_inotify.sh &
nohup rsync_fanghu_upload_src_inotify.sh &
最后進行測試:

比如在源目錄/Data/xqsj_upload中創建一個文件或目錄,會自動實時同步到目標機器192.168.1.5的目標目錄/home/backup/image-back/xqsj_upload中。


在192.168.1.3服務器上

第一次全量同步:

rsync -avH --port=873 --progress --delete /Data/Static_img/webroot/ssapp-prod/ RSYNC_USER@192.168.1.5::ssapp-prod --password-file=/etc/rsync.pass
rsync -avH --port=873 --progress --delete /usr/local/nginx/html/ssapp.prod/ RSYNC_USER@192.168.1.5::ssapp.prod --password-file=/etc/rsync.pass
rsync+inotify實時同步:
cd /home/rsync/
cat rsync_ssapp-prod_inotify.sh
#!/bin/bash
SRCDIR=/Data/Static_img/webroot/ssapp-prod/
USER=RSYNC_USER
IP=192.168.1.5
DESTDIR=ssapp-prod
/usr/local/inotify/bin/inotifywait -mrq --timefmt '%d/%m/%y %H:%M' --format '%T %w%f%e' -e close_write,modify,delete,create,attrib,move $SRCDIR | while read file
do
/usr/bin/rsync -avH --port=873 --progress --delete-before $SRCDIR $USER@$IP::$DESTDIR --password-file=/etc/rsync.pass
echo " ${file} was rsynced" >> /tmp/rsync.log 2>&1
done
cat rsync_ssapp.prod_inotify.sh
#!/bin/bash
SRCDIR=/usr/local/nginx/html/ssapp.prod/
USER=RSYNC_USER
IP=192.168.1.5
DESTDIR=ssapp.prod
/usr/local/inotify/bin/inotifywait -mrq --timefmt '%d/%m/%y %H:%M' --format '%T %w%f%e' -e close_write,modify,delete,create,attrib,move $SRCDIR | while read file
do
/usr/bin/rsync -avH --port=873 --progress --delete-before $SRCDIR $USER@$IP::$DESTDIR --password-file=/etc/rsync.pass
echo " ${file} was rsynced" >> /tmp/rsync.log 2>&1
done
然后啟動同步腳本,放在后臺執行!
nohup sh rsync_ssapp-prod_inotify.sh &
nohup rsync_ssapp.prod_inotify.sh &
最后進行測試:

比如在源目錄/Data/Static_img/webroot/ssapp-prod中創建一個文件或目錄,會自動實時同步到目標機器192.168.1.5的目標目錄/home/backup/image-back/ssapp-prod中。

如果在同步過程中,發現中途報錯!重復執行同步命令一直是報這個錯誤:
rsync error: some files/attrs were not transferred (see previous errors) (code 23) at
main.c(1505)

最后發現原因:
是因為在同步的時候,源目錄下有軟鏈接文件!
rsync同步軟鏈接文件,應該加參數-l

所以,最好在使用rsync同步命令的時候,后面跟-avpgolr參數組合(將上面的-avH改成-avpgolr)

-a:遞歸
-v:打印詳細過程
-p:保持文件屬性
-g:文件所屬組不變
-o:文件所屬者不變
-l:軟連接屬性
-r:同步目錄時的參數
向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

黄浦区| 肥城市| 华蓥市| 嘉义县| 三河市| 秦皇岛市| 天峻县| 富蕴县| 两当县| 资阳市| 诏安县| 如东县| 罗平县| 响水县| 信宜市| 维西| 肥西县| 柞水县| 扎赉特旗| 蒙自县| 曲靖市| 河北区| 扶余县| 息烽县| 绿春县| 青铜峡市| 襄汾县| 大庆市| 沧源| 科技| 雅江县| 秦皇岛市| 温泉县| 仁化县| 宁阳县| 东乌珠穆沁旗| 柳林县| 横山县| 师宗县| 定远县| 西乡县|