很奇怪的事情,最近收到的邀请问答都是关于彩票的,这让我有个想法呀!今天就用Python来试一试,学习为主。重点是学知识,很简单的一个案例,先用爬虫爬取开奖结果并保存,在分析下爬取的数据,做下数据可视化。话不多说,小编学历有限,不喜欢码字,直接开撸。先看下怎么获取开奖结果,小编比较懒,就用最简单的方法,代码很少,但是可以把2003年至今的开奖全部爬下来。思路如下:打开彩票网站(获取html文件)找到第一期开奖结果(筛选数据)录入excel(数据导出)找到下一期的开奖结果(获取html文件+筛选数据)重复操作3、4步直到录入了所有开奖结果一步一步来,要获得双色球开奖号码,首先我们需要打开彩票网站https://kaijiang.500.com/shtml/ssq/20093.shtml用request库,可以很方便地得到html文件。requests.get()函数返回一个response对象,传递参数url是目标网页地址。requests.get()函数后面加上“.text”,以便将response对象转换成字符串。import requests
def turn_page():
url = "http://kaijiang.500.com/ssq.shtml"
html = requests.get(url).text在浏览器打开上述url,右击选择【查看源文件】,通过分析源文件,找到需要爬取的数据,制定合适的爬取方案。从图中可以看到,这个源文件包含了每一期的网页链接,并且所有链接都在一个类名为“iSelectList”的<div>标签中。这意味着我们能够一次就把所有链接保存到一个列表中,之后只需按照列表顺序逐个打开链接爬取数据就可以了。想要得到html源文件,可以使用BeautifulSoupBeautifulSoup是一个可以从HTML或XML文件中提取数据的第三方库BeautifulSoup()函数有两个参数,第一个参数是要解析的HTML/XML代码,第二个参数是解析器。在这里我们以前面requests.get()返回的html作为第一个参数,'html.parser'是Python内置的解析器(标准库)解析html后,得到一个BeautifulSoup 的对象,即变量soupBS支持大部分的CSS选择器,在BS对象的.select()方法传入字符串参数,即可使用CSS选择器的语法查到tag(标签)前面我们已经知道,开奖号码的页面链接在一个class为“iSelectList”的<div>标签中而链接是用<a>标签标示的,所以我们在select()方法中传入的参数是“div.iSelectList a”即,选择所有在class为“iSelectList”的<div>标签中的<a>标签。import requests
from bs4 import BeautifulSoup
def turn_page():
url = "http://kaijiang.500.com/ssq.shtml"
html = requests.get(url).text
soup = BeautifulSoup(html, 'html.parser')
pageList = soup.select("div.iSelectList a")现在我们已经得到包含所有结果链接的<a>标签并赋值给列表变量pageList用一个for循环语句,遍历pageList中的每一个元素,p['href']用于提取链接,p.string用于提取标签中的字符串(即期数)import requests
from bs4 import BeautifulSoup
def turn_page():
url = "http://kaijiang.500.com/ssq.shtml"
html = requests.get(url).text soup = BeautifulSoup(html,'html.parser')
pageList = soup.select("div.iSelectList a")
for p in pageList:
url = p['href'] #提取链接
page = p.string #提取字符串通过观察源文件,发现开奖号码由无序标签(ul li)定义,并且在一个class为“ball_box01”的<div>标签中声明一个函数download(),形参url是要提取开奖号码的页面链接,page是开奖期数变量html和soup和前面一样,在此不再赘述用CSS选择器语法select('div.ball_box01def write_to_excel(page,ball):
f = open('双色球开奖结果.csv','a',encoding='utf_8_sig')
f.write(f'第{page}期,{ball[0]},{ball[1]},{ball[2]},{ball[3]},{ball[4]},{ball[5]},{ball[6]}\n')
f.close()声明函数main(),作为程序入口如果exists()函数发现存在同名的csv文件,就会删除在主函数main()调用turn_page()函数def main():
if(os.path.exists('双色球开奖结果.csv')):
os.remove('双色球开奖结果.csv')
turn_page()至此,开奖结果的爬取与保存已完成,整合看下结果完整的代码:import requests
import osfrom bs4 import BeautifulSoup
def download(url, page): html = requests.get(url).text soup = BeautifulSoup(html, 'html.parser')
list = soup.select('div.ball_box01 ul li')
ball = [] for li in list:
ball.append(li.string) write_to_excel(page, ball) print(f"第{page}期开奖结果录入完成")
def write_to_excel(page, ball):
f = open('双色球开奖结果.csv', 'a', encoding='utf_8_sig')
f.write(f'第{page}期,{ball[0]},{ball[1]},{ball[2]},{ball[3]},{ball[4]},{ball[5]},{ball[6]}\n')
f.close()def turn_page():
url = "http://kaijiang.500.com/ssq.shtml"
html = requests.get(url).text soup = BeautifulSoup(html, 'html.parser')
pageList = soup.select("div.iSelectList a")
for p in pageList:
url = p['href']
page = p.string download(url, page)def main():
if (os.path.exists('双色球开奖结果.csv')):
os.remove('双色球开奖结果.csv')
turn_page()if __name__ == '__main__':
main()运行结果如下:看下是否有保存我们打开这个工作表,是不是有数据了?为什么只有这么点数据呢,原因是小编只需要2020年的开奖结果,所以就手动停止了程序。来吧,数据有了,我们来进行数据分析下面就统计下蓝球在今年出现的频率,并实现数据可视化,直接撸(代码里面有解释)import pandas as pd
import numpy as npimport matplotlib.pyplot as plt#读取双色球开奖结果.csv文件df = pd.read_table('双色球开奖结果.csv',header=None,sep=',')
# print df
# print df[1:3] #第2到第3行(索引0开始为第一行,1代表第二行,不包含第四行)
# print df.loc[0:10,:] #第1行到第9行的全部列
# print df.loc[:,[0,7]] #全部行的第1和第8列
tdate = sorted(df.loc[:,0]) #取第一列数据
# print tdate
tdate1 = [] #将tdate数据读取到列表中for i in tdate:
tdate1.append(i)
print(tdate1)
# s = pd.Series(tdate1, index=tdate1)s = pd.Series(range(1,len(tdate1)+1), index=tdate1) #将期数转换为对应的数值从1开始
# print s
tblue = list(reversed(df.loc[:,7])) #对数据取反
print(tblue)
fenzu = pd.value_counts(tblue,ascending=False) #将数据进行分组统计,按照统计数降序排序print(fenzu)
x=list(fenzu.index[:]) #获取蓝色号码y=list(fenzu.values[:]) #获得蓝色统计数量print(x)
print(y)
# print type(fenzu)
plt.figure(figsize=(10,6),dpi=70) #配置画图大小、和细度
plt.legend(loc='best')
# plt.plot(fenzu,color='red') #线图
plt.bar(x,y,alpha=.5, color='b',width=0.8) #直方图参数设置
plt.title('The blue ball number') #标题
plt.xlabel('blue number') #x轴内容
plt.ylabel('times') #y轴内容
plt.show() #显示图运行结果如下:可以看到,2020年的开奖结果中,蓝球出现次数最多的是3与8,出现了9次。红球的来了,往下看import pandas as pd
import numpy as npimport matplotlib.pyplot as plt#读取文件df = pd.read_table('双色球开奖结果.csv',header=None,sep=',')
# print df
# print df[1:3]
# print df.loc[0:10,:]
# print df.loc[:,1:6]
tdate = sorted(df.loc[:,0])
# print tdate
h1 = df.loc[:,1]
h2 = df.loc[:,2]
h3 = df.loc[:,3]
h4 = df.loc[:,4]
h5 = df.loc[:,5]
h6 = df.loc[:,6]
#将数据合并到一起all = h1.append(h2).append(h3).append(h4).append(h5).append(h6)
alldata = list(all)print(len(alldata))
fenzu = pd.value_counts(all,ascending=False)print(fenzu)
x=list(fenzu.index[:])y=list(fenzu.values[:])print(x)
print(y)
# print type(fenzu)
plt.figure(figsize=(10,6),dpi=70)
plt.legend(loc='best',)
# plt.plot(fenzu,color='red')
plt.bar(x,y,alpha=.5, color='r',width=0.8)
plt.title('The red ball number')
plt.xlabel('red number')
plt.ylabel('times')
plt.show()结果如下:可以看到,2020年的开奖结果中,红球出现次数最多的是2,9,15,16,26,32这六个数。很简单的一个案例,学习为主,脚踏实地,打铁还需自身硬呢,多学点技术,充实自己,还怕老板不给高工资吗?一个简单的爬虫和数据分析分享给大家,想自己练习的直接复制代码就行了,除了统计还可以试一下用线性回归算法预测下一期的数据,学习为主,切勿当真,感谢每一个一直都在支持我的小可爱,谢谢你们一直的陪伴!
从庄家打出第一张牌后,由庄家的下家开始,轮流在牌墙上抓牌棋牌资讯,每次一张。用有用的牌棋牌资讯,更换手牌中的一张废牌,将无用之牌打人牌池中。此种情况除有家吃牌、碰牌或杠牌外,均可循环往复,直到某家和牌为止。 |