作业讲解

"""
网络爬虫没有我们现在接触的那么简单
	有时候页面数据无法直接拷贝获取
	有时候页面还存在防爬机制 弄不好ip会被短暂拉黑
"""
http://www.redbull.com.cn/about/branch   红牛各公司信息
1.直接拷贝页面数据到本地文件
2.读取文件内容当作字符串处理
3.编写正则筛选内容
import re

# 1.文件操作读取文本内容
with open(r'redbull.html', 'r', encoding='utf8') as f:
# 2.直接读取全部内容 无需优化
    data = f.read()
# 3.研究各部分数据的特征 编写相应的正则表达式
"""
1.思路1:
    一次性获取每个公司全部的数据
    分部挨个获取最后统一整合
"""
res = re.findall("<h2>(.*?)</h2><p class='mapIco'>(.*?)</p><p class='mailIco'>(.*?)</p><p class='telIco'>(.*?)</p>",data)
# print(res)   # [(),(),(),()]
complany_title_list = re.findall('<h2>(.*?)</h2>', data)
# print(complany_title_list)
complany_address_list = re.findall("<p class='mapIco'>(.*?)</p>", data)
# print(complany_address_list)
complany_email_list = re.findall("<p class='mailIco'>(.*?)</p>", data)
# print(complany_email_list)
complany_phone_list = re.findall("<p class='telIco'>(.*?)</p>", data)
# print(complany_phone_list)
res = zip(complany_title_list,complany_address_list,complany_email_list,complany_phone_list)
# print(list(res))   # [(),(),(),()]
with open(r'comp_info.txt', 'w', encoding='utf')as f:
    for data_tuple in res:
        print(
            """
            公司名称:%s
            公司地址:%s
            公司邮编:%s
            公司电话:%s
            """ % data_tuple
        )
        f.write(
            """
            公司名称:%s
            公司地址:%s
            公司邮编:%s
            公司电话:%s\n
            """ % data_tuple)

第三方模块讲解

第三方模块:别人写的模块 一般情况下功能都特别强大
我们如果想使用第三方模块 第一次必须先下载 后面才可以反复使用(等同于内置模块)
下载第三方模块的方式
1.pip工具
注意每个解释器都有pip工具 如果我们的电脑上有多个版本的解释器那么 我们在使用pip的时候一定要注意到底使用的是哪一个版本 否则极其容易出现使用的是A版本解释器然后用B版本的pip下载的模块
    为了避免pip冲突 我们在使用的时候可以添加对应的版本
    python27     pip2.7
    python36     pip3.6
    python38     pip3.8
下载第三方模块的句式
    pip install 模块名
下载第三方模块临时切换仓库
    pip install 模块名 -i 仓库地址
下载第三方模块指定版本(不指定默认是最新版)
    pip install 模块名==版本号 -i 仓库地址   
2.pycharm提供快捷方式
    file---settings---project----python interpreter---界面双击搜索 install package
"""
下载第三方模块可能会出现的问题
1.报错并由警告信息
	WARNING: You are using pip version 20.2.1;
	原因在于pip版本过低 只需要拷贝和后面的命令执行更新操作即可
	d:\python38\python.exe -m pip install --upgrade pip
	更新完成后再次执行下载第三方模块的命令即可
2.报错并含有Timeout关键字
	说明当前计算机网络不稳定 只需要换网络或者重新执行几次即可
3.报错并没有关键字
	面向百度搜索
	pip下载XXX报错: 拷贝报错信息
	通常都是需要用户提前准备一些环境才可以顺利下载
4.下载速度很慢
	pip默认下载的仓库地址是国外的  python.org
	我们可以切换下载的地址
	pip install 模块名 -i 仓库地址
pip的仓库地址很多  直接搜
	清华大学 :https://pypi.tuna.tsinghua.edu.cn/simple/

	阿里云:http://mirrors.aliyun.com/pypi/simple/

	中国科学技术大学 :http://pypi.mirrors.ustc.edu.cn/simple/

	华中科技大学:http://pypi.hustunique.com/

	豆瓣源:http://pypi.douban.com/simple/

	腾讯源:http://mirrors.cloud.tencent.com/pypi/simple

	华为镜像源:https://repo.huaweicloud.com/repository/pypi/simple/
"""

网络爬虫模块之requests模块

requests能模拟浏览器发送网络请求 获取页面数据
import requests

# 1.朝指定网址发送请求获取页面数据(等价于:浏览器地址栏输入网址回车访问)
# res = requests.get('http://www.redbull.com.cn/about/branch')
# print(res)
# print(res.content)       # 获取bytes类型的网页数据(二进制)
# res.encoding = 'utf8'    # 指定编码
# print(res.text)          # 获取字符串类型的网页数据(默认按照utf8)
# res = requests.get('https://www.autohome.com.cn/beijing/')
# print(res.text)      # 汽车之家

网络爬虫实战之爬取链家二手房数据

import re

import requests

res = requests.get('https://sh.lianjia.com/ershoufang/pudong/')
# print(res.text)
data = res.text

home_title_list = re.findall('<a class="" href=".*?" target="_blank" data-log_index=".*?"  data-el="ershoufang" data-housecode=".*?" data-is_focus="" data-sl="">(.*?)</a>',data)
# print(home_title_list)
home_name_list = re.findall('<a href=".*?" target="_blank" data-log_index=".*?" data-el="region">(.*?) </a>',data)
# print(home_name_list)
home_street_list = re.findall('<div class="positionInfo"><span class="positionIcon"></span><a href=".*?" target="_blank" data-log_index=".*?" data-el="region">.*? </a>   -  <a href=".*?" target="_blank">(.*?)</a> </div>',data)
# print(home_street_list)
home_info_list = re.findall('<div class="houseInfo"><span class="houseIcon"></span>(.*?)</div>',data)
# print(home_info_list)
home_watch_list = re.findall('<div class="followInfo"><span class="starIcon"></span>(.*?)</div>',data)
# print(home_watch_list)
home_total_price_list = re.findall('<div class="priceInfo"><div class="totalPrice totalPrice2"><i> </i><span class="">(.*?)</span><i>万</i></div>',data)
# print(home_total_price_list)
home_unit_price_list = re.findall('<div class="unitPrice" data-hid=".*?" data-rid=".*?" data-price=".*?"><span>(.*?)</span></div></div>',data)
# print(home_unit_price_list)
home_data = zip(home_title_list,home_name_list,home_street_list,home_info_list,home_watch_list,home_total_price_list,home_unit_price_list)
# print(list(home_data))

with open(r'home_data.txt','w',encoding='utf8')as f:
    for data in list(home_data):
        print(
        """
        房屋标题:%s
        小区名称:%s
        街道名称:%s
        详细信息:%s
        关注程度:%s
        房屋总价:%s
        房屋单价:%s
        """ % data)
        f.write("""
            房屋标题:%s
            小区名称:%s
            街道名称:%s
            详细信息:%s
            关注程度:%s
            房屋总价:%s
            房屋单价:%s\n
            """ % data   )

自动化办公领域之openpyxl模块

1.excel文件的后缀名问题
     03版本之前
    	.xls
     03版本之后
    	.xlsx
2.操作excel表格的第三方模块
xlwt往表格中写入数据、wlrd从表格中读取数据
	兼容所有版本的excel文件
openpyxl最近几年比较火热的操作excel表格的模块
	03版本之前的兼容性比较差
ps:还有很多操作excel表格的模块 甚至涵盖了上述的模块>>>:pandas   

from openpyxl import Workbook


# 创建一个excel文件
wb = Workbook()
# 在一个excel文件内创建多个工作簿
wb1 = wb.create_sheet('帅哥')
wb2 = wb.create_sheet('美女')
wb3 = wb.create_sheet('大长腿')
# 还可以修改默认工作簿位置
wb4 = wb.create_sheet('富婆名单',0)

# 还可以二次修改工作簿名称
wb4.title = '高富帅排行榜'
# 还可以改工作簿的颜色
wb4.sheet_properties.tabColor = "1072BA"


# 填写数据的方式1
# wb4['F4'] = 666
# 填写数据的方式2
# wb4.cell(row=3, column=1, value='jason')
# # 填写数学公式
# wb4.cell(row=1, column=1, value=22222)
# wb4.cell(row=2, column=1, value=44444)
# wb4.cell(row=3, column=1, value=4444)
# wb4.cell(row=4, column=1, value=4444)
# wb4['A5'] = '=sum(A1:A4)'
# wb4.cell(row=8,column=5,value='=sum(A1:A4)')
# 填写数据的方式3
# wb4.append(['编号','年龄','姓名','爱好'])   # 表头字段
# wb4.append(['1','12','jason','111'])
# wb4.append(['2','13','kevin','222'])
# wb4.append(['3','14','jerry','333'])
# wb4.append(['4','16','tom','444'])
'''多了少了 正常写入'''

# 保存excel文件
wb.save(r'111.xlsx')    

"""
openpyxl主要用于数据的写入 至于后续的表操作它并不是很擅长 如果想做需要更高级的模块pandas
import pandas

data_dict = {
    "公司名称":complany_title_list,
    "公司地址":complany_address_list,
    "公司邮编":complany_email_list,
    "公司电话":complany_phone_list}
# 将字典转换成pandas 里面的DataFrame数据结构
df = pandas.DataFrame(data_dict)
# 直接保存成excel文件
df.to_excel(r'pd_comp_info.xlsx')

excel软件正常可以打开操作的数据集在10万左右 一旦数据集过大 软件操作几乎无效
需要使用代码操作>>>:pandas模块
"""
openpyxl读取数据
from openpyxl import load_workbook

# 1.指定读取的文件
wb = load_workbook(r'111.xlsx',data_only=True)
# 2.查看内部所有工作薄名称
# print(wb.sheetnames)  # ['高富帅排行榜', 'Sheet', '帅哥', '美女', '大长腿']
# 3.指定某个工作薄
wb1 = wb['帅哥']
# 4.读取工作薄相关操作
# print(wb1.max_row)  # 获取最大列数
# print(wb1.max_column)  # 获取最大行数
# print(wb1['A3'].value)  # 读取单元格内容
# print(wb1['A8'].value)  # 如果是公式 读取的是公式    如果想要读取结果 需要加参数data_only

# for i in wb1.rows:
#     print([d.value for d in i])
# for j in wb1.rows:
#     print([d.value for d in j])

import pandas

print(pandas.read_excel(r'111.xlsx', ))

原文地址:http://www.cnblogs.com/xm15/p/16829761.html

1. 本站所有资源来源于用户上传和网络,如有侵权请邮件联系站长! 2. 分享目的仅供大家学习和交流,请务用于商业用途! 3. 如果你也有好源码或者教程,可以到用户中心发布,分享有积分奖励和额外收入! 4. 本站提供的源码、模板、插件等等其他资源,都不包含技术服务请大家谅解! 5. 如有链接无法下载、失效或广告,请联系管理员处理! 6. 本站资源售价只是赞助,收取费用仅维持本站的日常运营所需! 7. 如遇到加密压缩包,默认解压密码为"gltf",如遇到无法解压的请联系管理员! 8. 因为资源和程序源码均为可复制品,所以不支持任何理由的退款兑现,请斟酌后支付下载 声明:如果标题没有注明"已测试"或者"测试可用"等字样的资源源码均未经过站长测试.特别注意没有标注的源码不保证任何可用性