用python撰写以下API脚本百度API接口地址1:httpsuggestionbaiducomsuwd=网站优化百度API接口地址2:httpssp1baiducom5a1Fazu8AA54nxGko9WTAnF6hhysuwd=网站优化&cb=doJson实现检索页面内容中的pfalse后的关键词并将其记录到表格中同时实现自动去重表格格式为xlsx去重规则:过滤重复词组API中的网站优化为检
以下是用Python实现的API脚本:
import requests
import json
import openpyxl
from openpyxl.utils import get_column_letter
from openpyxl.styles import Alignment
# 定义要检索的关键词列表
keywords = ['网站优化', 'SEO', 'SEM']
# 创建Excel表格
wb = openpyxl.Workbook()
ws = wb.active
ws.title = 'Keywords'
ws.append(['关键词', '来源'])
for col in range(1, 3):
ws.cell(row=1, column=col).alignment = Alignment(horizontal='center', vertical='center')
ws.column_dimensions[get_column_letter(col)].width = 20
# 检索百度API
for keyword in keywords:
# 第一个API地址
url1 = f'http://suggestion.baidu.com/su?wd={keyword}'
resp1 = requests.get(url1)
if resp1.status_code == 200:
data1 = resp1.text.split('p:false,')[1].rstrip(')').rstrip('}').lstrip('["').rstrip('",')
ws.append([data1, 'API1'])
# 第二个API地址
url2 = f'https://sp1.baidu.com/5a1Fazu8AA54nxGko9WTAnF6hhy/su?wd={keyword}&cb=doJson'
resp2 = requests.get(url2)
if resp2.status_code == 200:
data2 = resp2.text.split('p:false,')[1].rstrip(')').rstrip('}').lstrip('["').rstrip('",')
if data2 != data1:
ws.append([data2, 'API2'])
# 去重
unique_keywords = []
for row in ws.iter_rows(min_row=2, max_col=1, values_only=True):
if row[0] not in unique_keywords:
unique_keywords.append(row[0])
# 将去重后的关键词写入表格
ws.delete_cols(1)
ws.cell(row=1, column=1, value='关键词')
ws.cell(row=1, column=1).alignment = Alignment(horizontal='center', vertical='center')
for i, keyword in enumerate(unique_keywords):
ws.cell(row=i+2, column=1, value=keyword)
# 保存Excel表格
wb.save('keywords.xlsx')
该脚本首先定义了要检索的关键词列表,然后使用openpyxl库创建一个Excel表格,并在第一行添加表头。接着,使用requests库向两个百度API地址发送请求,获取检索结果,并将结果写入表格中。在写入表格前,先对检索结果进行去重,避免重复记录同一个关键词。最后,将去重后的关键词写入表格,并保存表格到本地。
原文地址: https://www.cveoy.top/t/topic/baYb 著作权归作者所有。请勿转载和采集!