用python抓取 httpstockpage10jqkacomcn600690finance网页中的财务数据将财务数据写入到一个csv文件里。其中600690是股票代码股票代码作为一个变量。从一个execl的第二列数据作为股票代码每个股票代码单独写入一个以股票代码为文件名的csv文件从而实现批量获取财务数据。
以下是一个示例代码,可以实现上述功能:
import requests
import csv
# 读取股票代码列表
with open('stocks.xlsx', 'r') as f:
stocks = [row[1] for row in csv.reader(f)][1:]
# 循环遍历股票代码,抓取财务数据并保存到csv文件
for stock in stocks:
url = 'http://stockpage.10jqka.com.cn/{}/finance/'.format(stock)
response = requests.get(url)
response.encoding = 'gbk'
html = response.text
# 解析财务数据
data_start = html.find('cwzbdata')
data_end = html.find('};', data_start)
data_str = html[data_start+9:data_end+1]
data = eval(data_str)
# 保存到csv文件
with open('{}.csv'.format(stock), 'w', newline='') as f:
writer = csv.writer(f)
writer.writerow(['报告期', '净利润', '营业收入', '毛利率', '净利率'])
for row in data:
writer.writerow([row[0], row[2], row[3], row[8], row[9]])
这个代码会读取一个名为stocks.xlsx的Excel文件,其中股票代码在第二列,然后循环遍历每一个股票代码,抓取对应网页的财务数据,并将数据保存到一个以股票代码为文件名的csv文件中。每个csv文件包含报告期、净利润、营业收入、毛利率和净利率等数据。需要注意的是,这个代码需要使用requests和csv模块,如果没有安装这些模块,需要先安装。
原文地址: https://www.cveoy.top/t/topic/bdQ7 著作权归作者所有。请勿转载和采集!