攻击者在入侵网站后,常常会通过恶意劫持流量来获取收益,从而实现流量变现。有一些黑帽劫持的手法堪称防不胜防,正常的访问行为很难发现异常。今天给大家分享一下常见的网站劫持手法和排查思路。
我们可以按照基于不同隐藏目的的常见劫持手法,来做一个简单的分类:
1、将爬虫与用户正常访问分开,实现搜索引擎快照劫持 2、将移动端与PC端的访问分开,实现移动端的流量劫持 3、根据用户访问来源进行判断,实现特定来源网站劫持 4、如果获取管理员的真实IP地址,实现特定区域的流量劫持 5、按照访问路径/关键词/时间段设置,实现特定路径/关键词/时间段的流量劫持
基于以上,实现的方式有很多种,比如客户端js劫持、服务端代码劫持、301重定向、恶意反向代理、IIS模块劫持等。
01、客户端js劫持
在网页中插入js脚本,通过js进行url跳转,一般情况下,会通过js混淆加密来增加识别难度。
如下:通过js劫持从搜索引擎中来的流量。
<script>var s=document.referrer; i("baidu")>0("soso")>0("google")>0("yahoo")>0("sogou")>0("youdao")>0("bing")>0){;;; }</script>
排查思路:查看网页源代码或者抓包分析http流量,找到源代码中插入的js代码,删除js代码后恢复。
02、服务端代码劫持
网站源码被篡改,在首页或配置文件中引入恶意代码。
如下:通过判断User-agent与Referer,进行快照劫持。
<?php error_reporting(0); //判断是否为百度蜘蛛,然后进行内容劫持 if(stripos($_SERVER["HTTP_USER_AGENT"],"baidu")>-1){ $file = file_get_contents(';); echo $file; exit; } //判断是否来自百度搜索,然后进行url跳转 if(stristr ($_SERVER['HTTP_REFERER'],"baidu.com")) { Header("Location: ;);//指定跳转 exit; } ?>
排查思路:查看网站首页引入了哪些文件,依次访问相关的文件源码,确认可疑的代码,去除包含文件后恢复。备份网站源码及文件完整性验证非常重要,可以帮助我们在上万行的代码中快速找到恶意代码。
03、nginx反向代理劫持
以前遇到过一个网站做了网页防篡改,无法通过修改网站源码劫持,攻击者通过修改nginx的配置文件,通过正则匹配url链接,配置proxy_pass代理转发实现url劫持。
location ~ /[0-9a-z]+sc { proxy_pass ; }
排查思路:总结url劫持规律,中间件配置文件也是需要关注的位置。
04、利用301重定向劫持
通过HTTP重定向实现301劫持。
<httpRedirect enabled="true" destination="; childOnly="true" httpResponseStatus="Permanent" />
排查思路:可以检查网站根目录下的配置文件web.config,确认是否有相关设置。
05、IIS恶意模块劫持
这种手法相对比较隐蔽,网站目录中查不到webshell和挂马页面,但使用特定的路径、Referer或者UA访问,页面会加载暗链。
排查思路:排查加载的异常dll文件,如没有签名、创建时间不匹配需重点关注。可使用火绒剑或Process Monitor等工具协助排查。