当前位置: 首页 > 后端技术 > Python

提防假网站

时间:2023-03-26 17:51:11 Python

发现假网站的时候,我一般都会刷一会微博,看看现在的热门数据。前天在微博上看到一则广告<六月幸运召唤师抽奖>。作为一个S3入门的老玩家,我毫不犹豫的点开了链接。作为一个程序员,这几年一直在浏览大千网站,第一次打开网页就感觉不对劲。确认网站是钓鱼网站,直接举报到公众号,12321也举报了网站,没那么简单。然而,今天吃完午饭,打开微博,发现事情并没有那么简单。该网站仍然吸引了很多人。微博上的超链接标签看不到详细的url,所以很多用微博app的人更喜欢容易上当从微博app访问链接,打开后的界面和真正的开奖界面一样提交后你的账号密码,他就会跳转到真正的彩票官网,给你留下一脸懵逼和问号。我查了一下,已经有很多被骗的同学在微博上发泄了。辛苦了3年的账号被封了,真是太气愤了。——我对它有了更多的了解。这位钓鱼人之前的账号被封了,但是他又申请了一个新账号继续钓鱼。这真是变幻莫测,所以写了一篇文章提醒大家,谨防假货。如何发现钓鱼网站我在公司电脑上浏览微博,通常使用网页版或手机版。钓鱼网站链接:https://lm.6iyy.cn/action/L3/?act=1首先是网站异常url。一般来说,英雄联盟的活动,链接前面都是https://lol.qq。com/。LoL官方抽奖链接:https://lol.qq.com/act/a20200...还有这个lm.6iyy.cn看起来比较low。遇到这种情况,最好先去官网确认一下,谨防假冒。对于使用app时看不到链接的同学,遇到这种广告推送,千万不要随意点击。开通后不要提交账号密码,先确认是否是正确有效的官方活动,如果真的一时冲动提交了账号密码,一定要赶紧改密码,再补也不迟为了它。如果要怪罪这些无良的网站开发者和某波神奇的推送机制——难道就忍无可忍了吗?虽然我年纪大了,没有被骗过,但是看着那些被白天同学一个一个挡住的,我也很气愤!作者不是黑客,不擅长通过特殊手段攻击这个钓鱼网站。基本的汇报工作做完之后,我决定想办法反感他。这类钓鱼网站主要是收集玩家的账号信息,然后挂在租赁平台或者测试外挂脚本等。然后我会伪造数百万的账号密码提交到他的后台,增加被骗同学修改密码的反应时间。-使用Asyncpy提交账号Asyncpy是我基于asyncio和aiohttp开发的一个轻量级高效的爬虫框架,可以实现并发操作。(使用文档)首先查看该钓鱼网站的提交界面。参数非常简单。u和p是我填写的账号和密码,开始写提交账号的爬虫程序。安装框架:pipinstallasyncpy创建项目:asyncpygenspiderdemo并打开项目。打开demo.py开始写爬虫文件#-*-coding:utf-8-*-fromasyncpy.spiderimportSpiderimportsettingsfromasyncpy.requestimportRequestfrommiddlewaresimportmiddlewareimportrandomclassDemoSpider(Spider):name='demo'settings_attr=settingsstart_urls=[]url='https://lm.6iyy.cn/action/L3/2019.php'pwstr='abcdefghigklmnopqrstuvwxyz123456789!#.'asyncdefstart_requests(self):foriinrange(100000):#创建请求任务userport,password='',''fornuminrange(9):userport=str(random.randint(1,9))+userport#accountl=random.randint(10,15)#numberinrange(l):password=str(random.choice(self.pwstr))+password#passworddata={"u":userport,"p":password}print(data)yieldRequest(url=self.url,data=data,callback=self.parse)asyncdefparse(self,response):passDemoSpider.start(middleware=middleware)打开settings.py文件,找到控制并发线程数的CONCURRENT_REQUESTS参数CONCURRENT_REQUESTS=300修改middleware.py文件,修改user-agent为添加代理IP#-*-编码:utf-8-*-fromasyncpy.middlewareimportMiddlewarefromasyncpy.requestimportRequestfromasyncpy.spiderimportSpidermiddleware=Middleware()@middleware.requestasyncdefUserAgentMiddleware(spider:Spider,request:Request):ua="Mozilla/5.0(WindowsNT10.0;Win64;x64)AppleWebKit/537.36(KHTML,likeGecko)Chrome/60.0.3100.0Safari/537.36"request.headers.update({"User-Agent":ua})#request.aiohttp_kwargs。update({"proxy":"http://58.218.200.228:3632"})然后返回demo.py,点击运行,当前10w个账号的提交任务已经开始!也可以多创建几个demo.py文件,同时启动,请参考(文档)-控制请求的速度,别弄那么快,不忘初心,毕竟我们没有恶意破坏服务器!