前言
尾语
嗨喽!大家好呀,这里是魔王~
准备工作在写代码之前,你需要先在开发者平台申请权限 不知道如何弄得可以私聊我~
开发环境:- Python 3.8
- Pycharm 2021.2
- 会使用接口
- requests >>> pip install requests
- tqdm >>> pip install tqdm
- os
- base64
- win + R 输入 cmd 点击确定, 输入安装命令 pip install 模块名 (pip install requests) 回车
- 在pycharm中点击Terminal(终端) 输入安装命令
- 选择file(文件) >>> setting(设置) >>> Project(项目) >>> python interpreter(python解释器)
- 点击齿轮, 选择add
- 添加python安装路径
- 选择file(文件) >>> setting(设置) >>> Plugins(插件)
- 点击 Marketplace 输入想要安装的插件名字 比如:翻译插件 输入 translation / 汉化插件 输入 Chinese
- 选择相应的插件点击 install(安装) 即可
- 安装成功之后 是会弹出 重启pycharm的选项 点击确定, 重启即可生效
爬虫基本流程:
一. 数据来源分析
主播照片, 照片url地址 可以从哪里获取 >>> 通过网页上面开发者工具进行抓包分析
二. 代码实现步骤 发送请求 >>> 获取数据 >>> 解析数据 >>> 保存数据
- 发送请求, 对于 发送请求 列表页面
- 获取数据, 获取服务器返回的响应数据 response
- 解析数据, 提取我们想要数据内容 主播名字 主播封面图url地址 json数据 可以直接处理 re正则表达式提取 根据标签节点/属性提取内容: xpath css选择器
- 保存数据, 图片内容保存到本地文件夹
对于我们保存下来照片, 进行颜值检测评分
因某些原因代码不完整,有需求得可以私聊找我我发你~
# 导入数据请求
import requests # pip install requests (导入模块没有使用是灰色)
# 导入格式化输出模块
import pprint
# 导入os文件操作模块
import os
import base64
from tqdm import tqdm
# 发送请求
# 确定请求的url地址
for page in range(1, 11):
url = f''
# headers 请求头 伪装Python的代码 不被识别出来是爬虫程序...
# headers 是一个字典数据类型
headers = {
'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/96.0.4664.110 Safari/537.36'
}
# 通过requests模块去对url地址发送请求
response = requests.get(url=url, headers=headers)
# 2. 获取数据, 获取服务器返回的数据内容
# 返回response对象, 200状态码 表示请求成功
# 我能不能直接获取json数据呢? *** 请求参数里面含有callback 想要直接获取json数据 要删掉
# print(response.json())
# pprint.pprint(response.json())
# 3. 解析数据, 提取我们想要数据内容 主播名字 主播封面图url地址
# json数据提取内容 根据冒号左边的内容 提取冒号右边内容
data_list = response.json()['data']['datas']
for index in data_list:
# pprint.pprint(index)
name = index['nick']
img_url = index['screenshot']
# 4. 保存数据 保存图片数据内容, 也需要发送请求 获取数据
# response.text 获取响应体文本数据
# response.json() 获取响应体的json字典数据
# response.content 获取响应体的二进制数据
img_content = requests.get(url=img_url, headers=headers).content
# 'img\\' 文件路径 name 文件名字 '.jpg' 文件后缀 >>> 文件名
# mode 保存方式 wb 二进制模式写入
# as 重命名 为 f
filename = 'img_1\\'
if not os.path.exists(filename):
os.mkdir(filename)
with open(filename + name + '.jpg', mode='wb') as f:
f.write(img_content) # 写入数据
print('正在保存: ', name)
def get_beauty(img_base64):
host = ''
data = {
'grant_type': 'client_credentials',
'client_id': 'vXONiwhiVGlBaI2nRRIYLgz5',
'client_secret': 'ouZMTMuCGLi7pbeg734ftNxn9h3qN7R4'
}
response = requests.get(url=host, params=data)
token = response.json()['access_token']
# print(token)
'''
人脸检测与属性分析
'''
request_url = f"}"
params = {
"image": img_base64, # 需要传递 图片 base64
"image_type": "BASE64",
"face_field": "beauty"
}
headers = {'content-type': 'application/json'}
response = requests.post(request_url, data=params, headers=headers)
try:
beauty = response.json()['result']['face_list'][0]['beauty']
return beauty
except:
return '识别失败'
# f = open('img\\DX丶软软.jpg', mode='rb') # 读取一张图片内容
# 转成base64内容
# img_base64 = base64.b64encode(f.read())
# 1. 获取所有图片
lis = []
files = os.listdir('img_1\\')
print('正在识别人脸, 颜值检测中, 请稍后.....')
for file in tqdm(files):
img_file = 'img_1\\' + file
img_name = file.split('.')[0]
# print(img_file)
f = open(img_file, mode='rb') # 读取一张图片内容
img_base64 = base64.b64encode(f.read())
beauty = get_beauty(img_base64)
if beauty != '识别失败':
dit = {
'主播': img_name,
'颜值': beauty,
}
lis.append(dit) # 把字典添加到空列表里面
# print(f'{img_name}颜值评分是{beauty}')
lis.sort(key=lambda x:x['颜值'], reverse=True)
num = 1
# 前10张照片的颜值排名
for index in lis:
print(f'颜值排名第{num}的是{index["主播"]}, 颜值评分是{index["颜值"]}')
num += 1
python爬虫+人工智能:采集虎牙主播封面并作颜值检测
好了,我的这篇文章写到这里就结束啦!
有更多建议或问题可以评论区或私信我哦!一起加油努力叭(ง •_•)ง
喜欢就关注一下博主,或点赞收藏评论一下我的文章叭!!!