排除 mod_security 中受信任的机器人
Exclude trusted bots in mod_security
我正在努力 mod_security 完全绕过我信任的机器人。
我在 /etc/modsecurity/modsecurity.conf
的底部写了这些示例说明
SecRule REQUEST_HEADERS:User-Agent "Googlebot" id:'9999991',phase:1,nolog,allow,ctl:ruleEngine=off
SecRule REQUEST_HEADERS:User-Agent "bing" id:'9999992',phase:1,nolog,allow,ctl:ruleEngine=off
SecRule REQUEST_HEADERS:User-Agent "facebookexternalhit" id:'9999993',phase:1,nolog,allow,ctl:ruleEngine=off
这是正确的方法吗?
这不是个好主意。
许多攻击可以伪造 user-agent 并且您将打开一个缺口以超越您的 mod_sec.
的所有规则
不影响搜索机器人的最佳方法是在 mod_sec 规则中避免 false/positive,经常跟踪日志,并将防火墙配置为绕过搜索机器人的反向 IP。
.configserver.com
.configserver.co.uk
.googlebot.com
.crawl.yahoo.net
.search.msn.com
我正在努力 mod_security 完全绕过我信任的机器人。
我在 /etc/modsecurity/modsecurity.conf
的底部写了这些示例说明SecRule REQUEST_HEADERS:User-Agent "Googlebot" id:'9999991',phase:1,nolog,allow,ctl:ruleEngine=off
SecRule REQUEST_HEADERS:User-Agent "bing" id:'9999992',phase:1,nolog,allow,ctl:ruleEngine=off
SecRule REQUEST_HEADERS:User-Agent "facebookexternalhit" id:'9999993',phase:1,nolog,allow,ctl:ruleEngine=off
这是正确的方法吗?
这不是个好主意。
许多攻击可以伪造 user-agent 并且您将打开一个缺口以超越您的 mod_sec.
的所有规则不影响搜索机器人的最佳方法是在 mod_sec 规则中避免 false/positive,经常跟踪日志,并将防火墙配置为绕过搜索机器人的反向 IP。
.configserver.com
.configserver.co.uk
.googlebot.com
.crawl.yahoo.net
.search.msn.com