python实现web邮箱扫描的示例(附源码)


Posted in Python onMarch 30, 2021

信息收集是进行渗透测试的关键部分,掌握大量的信息对于攻击者来说是一件非常重要的事情,比如,我们知道一个服务器的版本信息,我们就可以利用该服务器框架的相关漏洞对该服务器进行测试。那么如果我们掌握了该服务器的管理员的邮箱地址,我们就可以展开一个钓鱼攻击。所以,对web站点进行邮箱扫描,是进行钓鱼攻击的一种前提条件。

下面,我们利用python脚本来实现一个web站点的邮箱扫描爬取。目的是在实现这个脚本的过程中对python进行学习

最后有完整代码

基本思路

  1. 我们向工具传入目标站点之后,首先要对输入进行一个基本的检查和分析,因为我们会可能会传入各种样式的地址,比如http://www.xxxx.com/、http://www.xxxx.com/123/456/789.html等等,我们需要对其进行简单的拆分,以便于后面链接的爬取
  2. 通过requests库爬取目标地址的内容,并且在内容通过正则表达式中寻找邮箱地址
  3. 查找爬取的网站中的超链接,通过这些超链接我们就能进入到该站点的另外一个页面继续寻找我们想要的邮箱地址。
  4. 开工:

该脚本所需要的一些库

from bs4 import BeautifulSoup #BeautifulSoup最主要的功能是从网页抓取数据,Beautiful Soup自动将输入文档转换为Unicode编码
import requests #requests是python实现的最简单易用的HTTP库
import requests.exceptions
import urllib.parse
from collections import deque #deque 是一个双端队列, 如果要经常从两端append 的数据, 选择这个数据结构就比较好了, 如果要实现随机访问,不建议用这个,请用列表. 
import re #是一个正则表达式的库

获取扫描目标

user_url=str(input('[+] Enter Target URL to Scan:'))
urls =deque([user_url]) #把目标地址放入deque对象列表

scraped_urls= set()#set() 函数创建一个无序不重复元素集,可进行关系测试,删除重复数据,还可以计算交集、差集、并集等。
emails = set()

对网页进行邮箱地址爬取(100条)

首先要对目标地址进行分析,拆分目标地址的协议,域名以及路径。然后利用requests的get方法访问网页,通过正则表达式过滤出是邮箱地址的内容。'[a-z0-0.-+]+@[a-z0-9.-+]+.[a-z]+',符合邮箱格式的内容就进行收录。

count=0
try:
  while len(urls):  #如果urls有长度的话进行循环
    count += 1		#添加计数器来记录爬取链接的条数 
    if count ==101:
      break
    url = urls.popleft() #popleft()会删除urls里左边第一条数据并传给url
    scraped_urls.add(url)

    parts = urllib.parse.urlsplit(url) # 打印 parts会显示:SplitResult(scheme='http', netloc='www.baidu.com', path='', query='', fragment='')
    base_url = '{0.scheme}://{0.netloc}'.format(parts)#scheme:协议;netloc:域名 

    path = url[:url.rfind('/')+1] if '/' in parts.path else url#提取路径
    print('[%d] Processing %s' % (count,url))
   
    try:
      head = {'User-Agent':"Opera/9.80 (Macintosh; Intel Mac OS X 10.6.8; U; en) Presto/2.8.131 Version/11.11"}
      response = requests.get(url,headers = head)
    except(requests.exceptions.MissingSchema,requests.exceptions.ConnectionError):
      continue
    new_emails = set(re.findall(r'[a-z0-0\.\-+_]+@[a-z0-9\.\-+_]+\.[a-z]+', response.text ,re.I))#通过正则表达式从获取的网页中提取邮箱,re.I表示忽略大小写
    emails.update(new_emails)#将获取的邮箱地址存在emalis中。

通过锚点进入下一网页继续搜索

soup = BeautifulSoup(response.text, features='lxml')

    for anchor in soup.find_all('a'):  #寻找锚点。在html中,<a>标签代表一个超链接,herf属性就是链接地址
      link = anchor.attrs['href'] if 'href' in anchor.attrs else '' #如果,我们找到一个超链接标签,并且该标签有herf属性,那么herf后面的地址就是我们需要锚点链接。
      if link.startswith('/'):#如果该链接以/开头,那它只是一个路径,我们就需要加上协议和域名,base_url就是刚才分离出来的协议+域名
        link = base_url + link
      elif not link.startswith('http'):#如果不是以/和http开头的话,就要加上路径。
        link =path + link
      if not link in urls and not link in scraped_urls:#如果该链接在之前没还有被收录的话,就把该链接进行收录。
        urls.append(link)
except KeyboardInterrupt:
  print('[+] Closing')

for mail in emails:
  print(mail)

完整代码

from bs4 import BeautifulSoup
import requests
import requests.exceptions
import urllib.parse
from collections import deque
import re

user_url=str(input('[+] Enter Target URL to Scan:'))
urls =deque([user_url])

scraped_urls= set()
emails = set()


count=0
try:
  while len(urls):
    count += 1
    if count ==100:
      break
    url = urls.popleft()
    scraped_urls.add(url)

    parts = urllib.parse.urlsplit(url)
    base_url = '{0.scheme}://{0.netloc}'.format(parts)

    path = url[:url.rfind('/')+1] if '/' in parts.path else url

    print('[%d] Processing %s' % (count,url))
    try:
      head = {'User-Agent':"Opera/9.80 (Macintosh; Intel Mac OS X 10.6.8; U; en) Presto/2.8.131 Version/11.11"}
      response = requests.get(url,headers = head)
    except(requests.exceptions.MissingSchema,requests.exceptions.ConnectionError):
      continue
    new_emails = set(re.findall(r'[a-z0-0\.\-+_]+@[a-z0-9\.\-+_]+\.[a-z]+', response.text ,re.I))
    emails.update(new_emails)

    soup = BeautifulSoup(response.text, features='lxml')

    for anchor in soup.find_all('a'):
      link = anchor.attrs['href'] if 'href' in anchor.attrs else ''
      if link.startswith('/'):
        link = base_url + link
      elif not link.startswith('http'):
        link =path + link
      if not link in urls and not link in scraped_urls:
        urls.append(link)
except KeyboardInterrupt:
  print('[+] Closing')

for mail in emails:
  print(mail)

实验………………

python实现web邮箱扫描的示例(附源码)

以上就是python实现web邮箱扫描的示例(附源码)的详细内容,更多关于python web邮箱扫描的资料请关注三水点靠木其它相关文章!

Python 相关文章推荐
在Python的web框架中编写创建日志的程序的教程
Apr 30 Python
Python使用微信SDK实现的微信支付功能示例
Jun 30 Python
Python使用Pickle库实现读写序列操作示例
Jun 15 Python
pandas每次多Sheet写入文件的方法
Dec 10 Python
python3射线法判断点是否在多边形内
Jun 28 Python
opencv实现简单人脸识别
Feb 19 Python
Python列表切片常用操作实例解析
Dec 16 Python
Python函数式编程实例详解
Jan 17 Python
Python拼接字符串的7种方式详解
Mar 19 Python
python——全排列数的生成方式
Feb 26 Python
解决Keras 自定义层时遇到版本的问题
Jun 16 Python
Django REST framework 限流功能的使用
Jun 24 Python
python函数指定默认值的实例讲解
Mar 29 #Python
pytest进阶教程之fixture函数详解
python中pandas.read_csv()函数的深入讲解
Mar 29 #Python
python编写函数注意事项总结
Mar 29 #Python
python基于tkinter制作无损音乐下载工具
Python requests库参数提交的注意事项总结
Python爬虫爬取全球疫情数据并存储到mysql数据库的步骤
You might like
一个数据采集类
2007/02/14 PHP
php Sql Server连接失败问题及解决办法
2009/08/07 PHP
ajax取消挂起请求的处理方法
2013/03/18 PHP
PHP递归删除目录几个代码实例
2014/04/21 PHP
PHP网页游戏学习之Xnova(ogame)源码解读(二)
2014/06/23 PHP
ThinkPHP处理Ajax返回的方法
2014/11/22 PHP
Apache无法自动跳转却显示目录的解决方法
2020/11/30 PHP
PHP截取发动短信内容的方法
2017/07/04 PHP
浅析PHP中的闭包和匿名函数
2017/12/25 PHP
PHP中PCRE正则解析代码详解
2019/04/26 PHP
jQuery元素的隐藏与显示实例
2015/01/20 Javascript
Jquery Ajax Error 调试错误的技巧
2015/11/20 Javascript
基于jquery实现简单的手风琴特效
2015/11/24 Javascript
Bootstrap基本样式学习笔记之表单(3)
2016/12/07 Javascript
浅析JS中的 map, filter, some, every, forEach, for in, for of 用法总结
2017/03/29 Javascript
vue路由拦截及页面跳转的设置方法
2018/05/24 Javascript
vue-cli配置flexible过程详解
2019/07/04 Javascript
python抓取网页中的图片示例
2014/02/28 Python
Python爬虫爬验证码实现功能详解
2016/04/14 Python
python3使用smtplib实现发送邮件功能
2018/05/22 Python
使用python 打开文件并做匹配处理的实例
2019/01/02 Python
聊聊python里如何用Borg pattern实现的单例模式
2019/06/06 Python
Python大数据之从网页上爬取数据的方法详解
2019/11/16 Python
使用python的turtle函数绘制一个滑稽表情
2020/02/28 Python
解决django xadmin主题不显示和只显示bootstrap2的问题
2020/03/30 Python
python 双循环遍历list 变量判断代码
2020/05/04 Python
Django crontab定时任务模块操作方法解析
2020/09/10 Python
常务副总经理岗位职责
2014/04/12 职场文书
小摄影师教学反思
2014/04/27 职场文书
法院反腐倡廉心得体会
2014/09/09 职场文书
大一工商管理职业生涯规划:有梦最美,行动相随
2014/09/18 职场文书
三严三实对照检查材料范文
2014/09/23 职场文书
2014年党风廉政工作总结
2014/12/03 职场文书
2016春季田径运动会广播稿
2015/12/21 职场文书
解决numpy和torch数据类型转化的问题
2021/05/23 Python
关于python爬虫应用urllib库作用分析
2021/09/04 Python