真人麻将游戏

点击注册
点击注册
.
真人麻将游戏 你的位置:真人麻将游戏 > 棋牌资讯 >

棋牌资讯 别再问我彩票怎么才能中奖了这个问题让Python给你回答

发布日期:2022-04-06 12:35    点击次数:67
很奇怪的事情,最近收到的邀请问答都是关于彩票的,这让我有个想法呀!今天就用Python来试一试,学习为主。重点是学知识,很简单的一个案例,先用爬虫爬取开奖结果并保存,在分析下爬取的数据,做下数据可视化。话不多说,小编学历有限,不喜欢码字,直接开撸。先看下怎么获取开奖结果,小编比较懒,就用最简单的方法,代码很少,但是可以把2003年至今的开奖全部爬下来。思路如下:打开彩票网站(获取html文件)找到第一期开奖结果(筛选数据)录入excel(数据导出)找到下一期的开奖结果(获取html文件+筛选数据)重复操作3、4步直到录入了所有开奖结果一步一步来,要获得双色球开奖号码,首先我们需要打开彩票网站https://kaijiang.500.com/shtml/ssq/20093.shtml用request库,可以很方便地得到html文件。requests.get()函数返回一个response对象,传递参数url是目标网页地址。requests.get()函数后面加上“.text”,以便将response对象转换成字符串。import requests def turn_page(): url = "http://kaijiang.500.com/ssq.shtml" html = requests.get(url).text在浏览器打开上述url,右击选择【查看源文件】,通过分析源文件,找到需要爬取的数据,制定合适的爬取方案。从图中可以看到,这个源文件包含了每一期的网页链接,并且所有链接都在一个类名为“iSelectList”的<div>标签中。这意味着我们能够一次就把所有链接保存到一个列表中,之后只需按照列表顺序逐个打开链接爬取数据就可以了。想要得到html源文件,可以使用BeautifulSoupBeautifulSoup是一个可以从HTML或XML文件中提取数据的第三方库BeautifulSoup()函数有两个参数,第一个参数是要解析的HTML/XML代码,第二个参数是解析器。在这里我们以前面requests.get()返回的html作为第一个参数,'html.parser'是Python内置的解析器(标准库)解析html后,得到一个BeautifulSoup 的对象,即变量soupBS支持大部分的CSS选择器,在BS对象的.select()方法传入字符串参数,即可使用CSS选择器的语法查到tag(标签)前面我们已经知道,开奖号码的页面链接在一个class为“iSelectList”的<div>标签中而链接是用<a>标签标示的,所以我们在select()方法中传入的参数是“div.iSelectList a”即,选择所有在class为“iSelectList”的<div>标签中的<a>标签。import requests from bs4 import BeautifulSoup def turn_page(): url = "http://kaijiang.500.com/ssq.shtml" html = requests.get(url).text soup = BeautifulSoup(html, 'html.parser') pageList = soup.select("div.iSelectList a")现在我们已经得到包含所有结果链接的<a>标签并赋值给列表变量pageList用一个for循环语句,遍历pageList中的每一个元素,p['href']用于提取链接,p.string用于提取标签中的字符串(即期数)import requests from bs4 import BeautifulSoup def turn_page(): url = "http://kaijiang.500.com/ssq.shtml" html = requests.get(url).text soup = BeautifulSoup(html,'html.parser') pageList = soup.select("div.iSelectList a") for p in pageList: url = p['href'] #提取链接 page = p.string #提取字符串通过观察源文件,发现开奖号码由无序标签(ul li)定义,并且在一个class为“ball_box01”的<div>标签中声明一个函数download(),形参url是要提取开奖号码的页面链接,page是开奖期数变量html和soup和前面一样,在此不再赘述用CSS选择器语法select('div.ball_box01def write_to_excel(page,ball): f = open('双色球开奖结果.csv','a',encoding='utf_8_sig') f.write(f'第{page}期,{ball[0]},{ball[1]},{ball[2]},{ball[3]},{ball[4]},{ball[5]},{ball[6]}\n') f.close()声明函数main(),作为程序入口如果exists()函数发现存在同名的csv文件,就会删除在主函数main()调用turn_page()函数def main(): if(os.path.exists('双色球开奖结果.csv')): os.remove('双色球开奖结果.csv') turn_page()至此,开奖结果的爬取与保存已完成,整合看下结果完整的代码:import requests import osfrom bs4 import BeautifulSoup def download(url, page): html = requests.get(url).text soup = BeautifulSoup(html, 'html.parser') list = soup.select('div.ball_box01 ul li') ball = [] for li in list: ball.append(li.string) write_to_excel(page, ball) print(f"第{page}期开奖结果录入完成") def write_to_excel(page, ball): f = open('双色球开奖结果.csv', 'a', encoding='utf_8_sig') f.write(f'第{page}期,{ball[0]},{ball[1]},{ball[2]},{ball[3]},{ball[4]},{ball[5]},{ball[6]}\n') f.close()def turn_page(): url = "http://kaijiang.500.com/ssq.shtml" html = requests.get(url).text soup = BeautifulSoup(html, 'html.parser') pageList = soup.select("div.iSelectList a") for p in pageList: url = p['href'] page = p.string download(url, page)def main(): if (os.path.exists('双色球开奖结果.csv')): os.remove('双色球开奖结果.csv') turn_page()if __name__ == '__main__': main()运行结果如下:看下是否有保存我们打开这个工作表,是不是有数据了?为什么只有这么点数据呢,原因是小编只需要2020年的开奖结果,所以就手动停止了程序。来吧,数据有了,我们来进行数据分析下面就统计下蓝球在今年出现的频率,并实现数据可视化,直接撸(代码里面有解释)import pandas as pd import numpy as npimport matplotlib.pyplot as plt#读取双色球开奖结果.csv文件df = pd.read_table('双色球开奖结果.csv',header=None,sep=',') # print df # print df[1:3] #第2到第3行(索引0开始为第一行,1代表第二行,不包含第四行) # print df.loc[0:10,:] #第1行到第9行的全部列 # print df.loc[:,[0,7]] #全部行的第1和第8列 tdate = sorted(df.loc[:,0]) #取第一列数据 # print tdate tdate1 = [] #将tdate数据读取到列表中for i in tdate: tdate1.append(i) print(tdate1) # s = pd.Series(tdate1, index=tdate1)s = pd.Series(range(1,len(tdate1)+1), index=tdate1) #将期数转换为对应的数值从1开始 # print s tblue = list(reversed(df.loc[:,7])) #对数据取反 print(tblue) fenzu = pd.value_counts(tblue,ascending=False) #将数据进行分组统计,按照统计数降序排序print(fenzu) x=list(fenzu.index[:]) #获取蓝色号码y=list(fenzu.values[:]) #获得蓝色统计数量print(x) print(y) # print type(fenzu) plt.figure(figsize=(10,6),dpi=70) #配置画图大小、和细度 plt.legend(loc='best') # plt.plot(fenzu,color='red') #线图 plt.bar(x,y,alpha=.5, color='b',width=0.8) #直方图参数设置 plt.title('The blue ball number') #标题 plt.xlabel('blue number') #x轴内容 plt.ylabel('times') #y轴内容 plt.show() #显示图运行结果如下:可以看到,2020年的开奖结果中,蓝球出现次数最多的是3与8,出现了9次。红球的来了,往下看import pandas as pd import numpy as npimport matplotlib.pyplot as plt#读取文件df = pd.read_table('双色球开奖结果.csv',header=None,sep=',') # print df # print df[1:3] # print df.loc[0:10,:] # print df.loc[:,1:6] tdate = sorted(df.loc[:,0]) # print tdate h1 = df.loc[:,1] h2 = df.loc[:,2] h3 = df.loc[:,3] h4 = df.loc[:,4] h5 = df.loc[:,5] h6 = df.loc[:,6] #将数据合并到一起all = h1.append(h2).append(h3).append(h4).append(h5).append(h6) alldata = list(all)print(len(alldata)) fenzu = pd.value_counts(all,ascending=False)print(fenzu) x=list(fenzu.index[:])y=list(fenzu.values[:])print(x) print(y) # print type(fenzu) plt.figure(figsize=(10,6),dpi=70) plt.legend(loc='best',) # plt.plot(fenzu,color='red') plt.bar(x,y,alpha=.5, color='r',width=0.8) plt.title('The red ball number') plt.xlabel('red number') plt.ylabel('times') plt.show()结果如下:可以看到,2020年的开奖结果中,红球出现次数最多的是2,9,15,16,26,32这六个数。很简单的一个案例,学习为主,脚踏实地,打铁还需自身硬呢,多学点技术,充实自己,还怕老板不给高工资吗?一个简单的爬虫和数据分析分享给大家,想自己练习的直接复制代码就行了,除了统计还可以试一下用线性回归算法预测下一期的数据,学习为主,切勿当真,感谢每一个一直都在支持我的小可爱,谢谢你们一直的陪伴!

从庄家打出第一张牌后,由庄家的下家开始,轮流在牌墙上抓牌棋牌资讯,每次一张。用有用的牌棋牌资讯,更换手牌中的一张废牌,将无用之牌打人牌池中。此种情况除有家吃牌、碰牌或杠牌外,均可循环往复,直到某家和牌为止。