2000字范文,分享全网优秀范文,学习好帮手!
2000字范文 > 秀 用NBA球员数据学透K-Means聚类

秀 用NBA球员数据学透K-Means聚类

时间:2019-11-19 19:16:34

相关推荐

秀 用NBA球员数据学透K-Means聚类

这次我们用 NBA 球员赛季表现聚类来探讨下 K-Means 算法,K-Means 是一个清晰明白的无监督学习方法,和 KNN 有很多相似点,例如都有超参数 K,前者是 K 个类别,后者是 K 个邻居。

聚类算法是不需要标签的,直接从数据的内在性之中学习最优的分类结果,或者说确定离散标签类型。K-Means 聚类算法是其中最简单、最容易理解的。

简单即高效。我们的目标是学习一个东西,然后把它的思想应用到我们想要探索的场景,以加深对算法的理解。

最优的聚类结果需要满足两个假设:

“簇中心点”(cluster center)是属于该簇的所有的数据点坐标的算术平均值

一个簇的每个点到该簇中心点的距离,比到其他簇中心点的距离短

于是 K-Means 聚类的工作流为

随机猜测一些簇中心点

将样本分配至离其最近的簇中心点上去

将簇中心点设置为所有点坐标的平均值

重复 2 和 3 直至收敛

我们会编码实现 K-Means 算法,并用于 NBA 控卫 -21 常规赛季的表现分析中。

我们知道过去刚刚结束的这个赛季得分王是萌神库里,我爱他。我们这里只关注控卫,一是因为控卫线上星光熠熠,二是数据分析要细分,这本身是一个原则。

我们开始吧!

01

学习原理方法

找到数据

我们可以从https://www.basketball-找到我们想要的数据,那就是NBA球员在过去一个赛季的统计数据。数据获取流程如下

看看数据

#三剑客来一遍importpandasaspdimportnumpyasnpimportmatplotlib.pyplotaspltnba=pd.read_csv("nba_.csv")nba.head()

我们发现姓名列有个\,后面跟着不知道是什么的简称,可以处理掉。另外字段名全是简写,我一个球迷有很多都看不懂,尴尬。整理了下字段含义,我们看一遍,这样就大概了解了这个数据集有什么了。

Age:年龄(别告诉我你知不知道)

TM(team):球队

Lg(league):联盟

Pos(position):位置

PG(Point Guard):组织后卫

GS(Games Started):首发出场次数

MP(Minutes Played Per Game):场均上场时间

FG(Field Goals Per Game):场均命中数

FGA(Field Goal Attempts Per Game):场均投篮数

FG%(Field Goal Percentage):命中率

3P(3-Point Field Goals Per Game):三分球命中率

3PA (3-Point Field Goal Attempts Per Game):场均三分球投篮数

3P% (3-Point Field Goal Percentage):三分球命中率

2P (2-Point Field Goals Per Game):两分球命中数

2PA (2-Point Field Goal Attempts Per Game):场均两分投篮数

2P% (2-Point Field Goal Percentage):两分球命中率

eFG% (Effective Field Goal Percentage):有效命中率

FT (Free Throws Per Game):场均罚球命中数

FTA (Free Throw Attempts Per Game):场均罚球数

FT% (Free Throw Percentage):罚球命中率

ORB (Offensive Rebounds Per Game):场均进攻篮板数

DRB (Defensive Rebounds Per Game):场均防守篮板数

TRB (Total Rebounds Per Game):总篮板数

AST (Assists Per Game):场均助攻

STL (Steals Per Game):场均抢断

BLK (Blocks Per Game):场均盖帽

TOV (Turnovers Per Game):场均失误

PF (Personal Fouls Per Game):场均个人犯规

PTS (Points Per Game):场均得分

处理数据

#球员名字取\前面的字符nba['Player']=nba['Player'].apply(lambdax:x.split('\\')[0])#取控卫PG的样本进行分析point_guards=nba[nba['Pos']=='PG']#剔除0失误的控卫数据,0tov意味着场次太少,且0不能被除point_guards=point_guards[point_guards['TOV']!=0]#定义ATR为助攻失误比,并计算出来point_guards['ATR']=point_guards['AST']/point_guards['TOV']

处理后的数据变成了下面的样子,我们剩下了 124 个控卫数据。

判断一个控卫优不优秀,最重要的两个指标是场均得分和场均助攻失误比,也就是PTSATR。下面我们就用这两个关键特征对球员聚类。

探索数据

看下这些球员的场次得分与助攻失误比散点图,这往往是数据分析和建模的第一步。

#改善下绘图风格importseabornassnssns.set()# nba联盟控卫场次得分与助攻失误比散点图plt.scatter(point_guards['PTS'],point_guards['ATR'],c='y')plt.title("PointGuards")plt.xlabel('PointsPerGame',fontsize=13)plt.ylabel('AssistTurnoverRatio',fontsize=13)plt.show()

最右边得分超过 30 的你不用猜,就是这个男人。

确认下数据,场均得分大于 25 的过滤出来看下,果然是库里,东契奇、欧文、利拉德等人赫然在列。这些超巨得分是高,但看起来助攻失误比差不多都在平均线上下。这是合理的。其实有点干的越多错的越多的意思,工作上亦是如此。

看了下助攻失误比超高或超低的,我都不认识就不说了。

我们聚类吧

从散点图来看,其实并没有明显的簇,但我们可以人为定义任意个簇。我们还是分成 5 类。于是我们开始做聚类的第一步。

STEP1:随机认定 5 个样本点作为簇的中心点

num_clusters=5#从样本里随机选5个出来作为5个簇的起始中心点random_initial_points=np.random.choice(point_guards.index,size=num_clusters)centroids=point_guards.loc[random_initial_points]#画出散点图,包括5个随机选取的聚类中心点plt.scatter(point_guards['PTS'],point_guards['ATR'],c='y')plt.scatter(centroids['PTS'],centroids['ATR'],c='red')plt.title("Centroids")plt.xlabel('PointsPerGame',fontsize=13)plt.ylabel('AssistTurnoverRatio',fontsize=13)plt.show()

随后就是不断迭代优化簇中心点的过程,为了方便,我们将中心点的坐标存在一个字典里。

defcentroids_to_dict(centroids):dictionary=dict()#iteratingcounterweusetogenerateacluster_idcounter=0#iterateapandasdataframerow-wiseusing.iterrows()forindex,rowincentroids.iterrows():coordinates=[row['PTS'],row['ATR']]dictionary[counter]=coordinatescounter+=1returndictionarycentroids_dict=centroids_to_dict(centroids)

上图我们看到,随机选出来的centroids,我们把它存在了一个centroids_dict里面。

STEP2:将样本分配至离其最近的簇中心点上去

这里涉及两个计算,一个是距离的度量,一个是最小元素的查找。前者我们采用欧拉距离,后者是选择排序的精髓。

先定义好这两个计算函数,如下。

importmathdefcalculate_distance(centroid,player_values):root_distance=0forxinrange(0,len(centroid)):difference=centroid[x]-player_values[x]squared_difference=difference**2root_distance+=squared_differenceeuclid_distance=math.sqrt(root_distance)returneuclid_distancedefassign_to_cluster(row):lowest_distance=-1closest_cluster=-1forcluster_id,centroidincentroids_dict.items():df_row=[row['PTS'],row['ATR']]euclidean_distance=calculate_distance(centroid,df_row)iflowest_distance==-1:lowest_distance=euclidean_distanceclosest_cluster=cluster_idelifeuclidean_distance<lowest_distance:lowest_distance=euclidean_distanceclosest_cluster=cluster_idreturnclosest_cluster

执行这两个函数,我们就完成了 STEP2,我们可视化看下完成后的结果。

point_guards['cluster']=point_guards.apply(lambdarow:assign_to_cluster(row),axis=1)defvisualize_clusters(df,num_clusters):colors=['b','g','r','c','m','y','k']forninrange(num_clusters):clustered_df=df[df['cluster']==n]plt.scatter(clustered_df['PTS'],clustered_df['ATR'],c=colors[n-1])plt.xlabel('PointsPerGame',fontsize=13)plt.ylabel('AssistTurnoverRatio',fontsize=13)plt.show()visualize_clusters(point_guards,5)

以上,5 个类别分别以不同的颜色标识出来了,但显然这是随机簇的结果,划分的 5 类结果并没有太好。我们还需要 STEP3。

STEP3:将簇中心点设置为所有点坐标的平均值

defrecalculate_centroids(df):new_centroids_dict=dict()forcluster_idinrange(0,num_clusters):values_in_cluster=df[df['cluster']==cluster_id]#Calculatenewcentroidusingmeanofvaluesintheclusternew_centroid=[np.average(values_in_cluster['PTS']),np.average(values_in_cluster['ATR'])]new_centroids_dict[cluster_id]=new_centroidreturnnew_centroids_dict

STEP4:重复 2 和 3

#多次迭代,试试100轮吧for_inrange(0,100):centroids_dict=recalculate_centroids(point_guards)point_guards['cluster']=point_guards.apply(lambdarow:assign_to_cluster(row),axis=1)visualize_clusters(point_guards,num_clusters)

最终的结果如上,我们看到效果已经得到了很好的优化。高得分的在一个簇,高助攻失误比的在一个簇。

以上,我们写了很多代码。

手写算法是为了学习和理解。工程上,我们要充分利用工具和资源。

sklearn 库就包含了我们常用的机器学习算法实现,可以直接用来建模。

fromsklearn.clusterimportKMeanskmeans=KMeans(n_clusters=num_clusters)kmeans.fit(point_guards[['PTS','ATR']])point_guards['cluster']=kmeans.labels_visualize_clusters(point_guards,num_clusters)

短短五行代码就完成了我们从零开始写的百来行代码,效果看起来也很合理。值得说明的是,聚类受起始点的影响,可能不会达到全局最优结果。细心的朋友一定看出来了,上面两个最终聚类结果是有差异的。

02

风控中的应用

如果学习了一项技能,但是不知道怎么用,那就毫无意义。

想想风控中聚类可以用来干什么呢?风控中我们有什么数据,关注什么结果呢?

一个有意思的课题是,用户手机安装的 app 能不能区分用户的风险。答案显然是肯定的,

除了必要的社交、支付、生活和工具类 app 外,那些差异化的 app 偏好显然刻画不同类型的用户。安装了很多小贷平台的用户,就很可能是一个多头客户,在想着办法撸口子。

于是我们可以用 app 的安装情况来给用户聚类,假设采集了用户在 100 个 app 的安装情况,就可以对这 100 个 0、1 变量聚类。

聚成两类后,我们可以采用其中有标签的用户进行验证,如果好坏用户绝大部分都正确地被划分开了,那么有理由相信那些没有标签的用户大概率就等于簇的标签。

我没有对应的数据可以举例,但有类似的数据来说明问题。下面是美国国会的数据,party 代表了议员的党派,R 是共和党 Republican,D 是民主党 Democratic,I 是中间党派。其余数据均为 0、1 变量。这里的 party 就类似风控中的好坏用户。

importpandasaspdvotes=pd.read_csv("114_congress.csv")votes.head()

于是我们开始无监督聚类。注意以下并未用到 party 这个标签。

#用k-meansclustering方法fromsklearn.clusterimportKMeanskmeans_model=KMeans(n_clusters=2,random_state=1)senator_distances=kmeans_model.fit_transform(votes.iloc[:,3:])labels=kmeans_model.labels_

我们需要用标签去对聚类结果做验证。

可以看到,分成了 0 和 1 两个簇中,0 簇中 43 个议员有 41 个都是民主党,2 是无党派人士;1 簇中 57 个议员有 54 个都是共和党,3 个是民主党。数据总有异常,或者用户总有一部分比较奇怪,我们不追求 100%准确。

不完美才是人生的最完美。

推荐阅读

Pandas处理数据太慢,来试试Polars吧!

懒人必备!只需一行代码,就能导入所有的Python库

绝!关于pip的15个使用小技巧

介绍10个常用的Python内置函数,99.99%的人都在用!

可能是全网最完整的 Python 操作 Excel库总结!

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。
相关阅读
NBA球员数据

NBA球员数据

2024-06-26

NBA球员身体数据

NBA球员身体数据

2018-07-02

NBA球员数据爬虫练习

NBA球员数据爬虫练习

2024-04-10

NBA球员数据分析

NBA球员数据分析

2022-12-07