您的位置:首页 > 文旅 > 旅游 > 深圳相册制作公司_中国企业名录黄页_有实力的网站排名优化软件_今日头条最新版

深圳相册制作公司_中国企业名录黄页_有实力的网站排名优化软件_今日头条最新版

2024/12/28 16:49:17 来源:https://blog.csdn.net/weixin_71529930/article/details/142350186  浏览:    关键词:深圳相册制作公司_中国企业名录黄页_有实力的网站排名优化软件_今日头条最新版
深圳相册制作公司_中国企业名录黄页_有实力的网站排名优化软件_今日头条最新版

案例一:Python-蓝队项目-Scapy 流量分析

通过 pip 来安装 Scapy。在命令行中运行以下命令:

pip install scapy

一个简单的python抓取包的demo

from scapy.all import *
def handlePacket(p):# p 捕获到的数据包p.show()
sniff(prn=handlePacket,count=0)
#一直抓,除非手动停止或者from scapy.all import *# 嗅探网络中的数据包,持续10秒
packets = sniff(count=10)# 显示捕获到的数据包
packets.summary()

建议在命令行当中运行,格式会非常清晰

用ip为1的主机给ip为132的主机发送ping包

因为ping是有来有回的所以也会出现,往回ping的现象

访问http

 访问一个不存在的地址

虽然页面不存在但是也会记录下来

这么写查看会比较麻烦,可以过滤监听的ip,以及端口

这里设置一个过滤原始ip为192.168.172.1,目标端口为80端口的策略,添加过滤规则

sniff的一些参数

#filter 筛选
#iface 网卡
#prn 调用函数
#count 获取条数
#store 内存清除
#count: 指定最多嗅探多少个符合要求的报文,设置为 0 时则一直捕获
#store: 指定保存抓取的数据包或者丢弃, 1 为保存, 0 为丢弃
#offline: pcap 文件中读取数据包,而不进行嗅探,默认为 None
#prn: 为每个数据包定义一个回调函数,回调函数会在捕获到符合 filter 的报文时被
调用,通常使用 lambda 表达式来编写
#filter: 用来筛选抓取的信息,其用法与常见抓包软件 WireShark 等相同,遵循
bpf_filter = "ip src 192.168.172.1 and tcp dst port 80"bpf_filter = "host 192.168.172.1 and tcp dst port 80"
from scapy.all import *
bpf_filter = "ip src 192.168.172.1 and tcp dst port 80"
def handlePacket(p):# p 捕获到的数据包p.show()
sniff(prn=handlePacket,filter=bpf_filter,count=0)
#一直抓,除非手动停止

 这个时候里面只有原始ip为192.168.172.1,目标端口为80的数据包

再做进一步优化,根据一些特征字符,判断是否是sql注入,文件上传

首先先把tcp中传入的payload包,以一行一行的格式进行输出,因为http肯定是tcp层协议

from scapy.all import *
bpf_filter = "ip src 192.168.172.1 and tcp dst port 80"
def handlePacket(packet):# p 捕获到的数据包#packet.show()datas = bytes(packet[TCP].payload)for data in datas.split(b"\r\n"):print(data)sniff(prn=handlePacket,filter=bpf_filter,count=0)
#一直抓,除非手动停止

这个抓下来的数据就相当于抓包的时候每一行的数据

通过写一个列表把最常见的字符串以byte格式写入,每一行进行循环,判断这段字符串是否在这一行中

from scapy.all import *
bpf_filter = "ip src 192.168.172.1 and tcp dst port 80"
def handlePacket(packet):# p 捕获到的数据包#packet.show()datas = bytes(packet[TCP].payload)for data in datas.split(b"\r\n"):print(data)patterns = [b"or", b"union",b"select",b"and"]for patter in  patterns:if patter in data:print("sql注入攻击中")
sniff(prn=handlePacket,filter=bpf_filter,count=0)
#一直抓,除非手动停止

有的会误判

判断文件上传,文件上传时前面一般都有这一行字符串

通过这个来进行判断是否在payload中

上传文件之后

案例二:  Python-蓝队项目-Watchdog 文件行为

该项目就不过多进行介绍了,这里被创建,删除也会提示修改,所以我只显示增加,删除,

只需要把文件路径修改为自己想要监控的地址即可

from watchdog.observers import Observer
from watchdog.events import *
import timeclass FileEventHandler(FileSystemEventHandler):def __init__(self):FileSystemEventHandler.__init__(self)def on_moved(self, event):if event.is_directory:pass#print("directory moved from {0} to {1}".format(event.src_path, event.dest_path))else:pass#print("file moved from {0} to {1}".format(event.src_path, event.dest_path))def on_created(self, event):if event.is_directory:print("directory created:{0}".format(event.src_path))else:print("file created:{0}".format(event.src_path))def on_deleted(self, event):if event.is_directory:print("directory deleted:{0}".format(event.src_path))else:print("file deleted:{0}".format(event.src_path))def on_modified(self, event):if event.is_directory:pass#print("directory modified:{0}".format(event.src_path))else:pass#print("file modified:{0}".format(event.src_path))if __name__ == "__main__":observer = Observer()event_handler = FileEventHandler()observer.schedule(event_handler, r"D:\\phpstudy_pro\\WWW\\uploadlabs", True)observer.start()try:while True:time.sleep(1)except KeyboardInterrupt:observer.stop()observer.join()

 即使你上传木马后把木马删除了,你这里还是会有记录

本来后续上传的文件,可以调用api接口上传到威胁分析平台进行分析是否有害,根据分析返回的结果,来判断是否进行删除,但是百度免费的网站已经停掉了,virustotal免费的api坏掉了,别的免费的不好用,收费的买不起…………

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com