现有7个目录下面分别有30个站的数据,总共是210个站的数据,现在要让他做备份服务器,就要把nginx的环境配置好,显然手动配置超级慢,这里写了一个脚本,可以批量生成nginx的虚拟主机的文件。
不动的可以问,但不可以说脏话。 #/bin/bash find ./ -maxdepth 3 -type d -name "*.com" | sed 's#.\/#\/www\/backup\/#' > /root/zhan.txt find ./ -maxdepth 3 -type d -name "*.net" | sed 's#.\/#\/www\/backup\/#' >> /root/zhan.txt find ./ -maxdepth 3 -type d -name "*.org" | sed 's#.\/#\/www\/backup\/#' >> /root/zhan.txt find ./ -maxdepth 3 -type d -name "*.cn" | sed 's#.\/#\/www\/backup\/#' >> /root/zhan.txt for wwwpath in `cat /root/zhan.txt` do domain=`echo $wwwpath | awk -F/ '{print $6}'` domain=`echo $domain | awk -F. '{ if ( NF == 2 ) {print "www."$0} else {print $0}}'` echo $domain echo $wwwpath cat > /root/vhost/$domain.conf <<EOF server { listen 80; server_name $domain ; index index.html index.htm index.php; root $wwwpath ; limit_rate 30M; location ~ .*\.(gif|jpg|jpeg|png|bmp|swf|html|htm)$ { expires 30d; } location ~ .*\.(js|css)?$ { expires 12h; } } EOF done