关于Kaggle
大赛就不多说了,我打算进一步了解一下入门级的比赛之后再另作参加项目/比赛的打算,在此之前需要更多的实践才行。
以下是我学习的地址(在一个GitHub
大神分享的相关的资源):
https://github.com/apachecn/kaggle
里面有多种可以实现的算法的代码以及思想,我在此进行进一步的整理,进行一个简单的代码记录,以及会进行一点修改以符合我自身的情况。
The House Belong to Love and Freedom.
关于Kaggle
大赛就不多说了,我打算进一步了解一下入门级的比赛之后再另作参加项目/比赛的打算,在此之前需要更多的实践才行。
以下是我学习的地址(在一个GitHub
大神分享的相关的资源):
https://github.com/apachecn/kaggle
里面有多种可以实现的算法的代码以及思想,我在此进行进一步的整理,进行一个简单的代码记录,以及会进行一点修改以符合我自身的情况。
关于这个算法更像是无监督学习
,它相较于K-Means
算法不用指定K
的个数,可以自动的通过求解一个向量,使得圆心一直往数据集密度最大的方向移动。说的再简单一点,就是每次迭代的时候,都是找到圆里面点的平均位置作为新的圆心位置。
在原作者的原代码上进行一些符合当今实际情况的修改。
K-均值算法(K-Means)属于无监督学习、聚类算法。即将无标签的数据集进行分类,并且无训练过程(监督学习的数据集才存在训练一说)等,又可理解为自动分类器
。
本文对于原作者的代码进行了一点修改以符合当今情况。
打算在eclipse中运行Django项目,结果发现出现了错误Django not found,如下图(网上找的一张,忘记截图了..):
图片来源:https://blog.csdn.net/wlsyn/article/details/49784263?utm_source=blogxgwz2
试了一些网上所谓的重新嵌入解释器目录的方法,还有重装Django的方法,都没有什么用。
还是老样子,这篇文章不适合纯粹的小白,仅仅注重实践,基础知识说的比较浅,基本上一笔带过。
我在作者的原代码和数据上进行了一点修改以符合当今的实际情况。
此篇文章将实现K近邻算法的基本原理,以及实现K邻近算法并且应用到实际数据集之中,之后会有一个实战项目。
本来不想写太多关于这方面的基础知识的,但是为了加强理解,我想不妨直接写博文记录也是一个好的选择,也可以顺便帮助需要的人,何乐而不为呢?
那么开始吧。我在原课程的基础上进行那么一点点修改。
这不是一个小白教程,需要自行取了解一些基础知识,基础知识我仅仅是一笔带过。
这篇文章不是给纯粹的小白看的,需要一定的基础,需要小白补充一定的基础知识,在我的博客有相关的资源介绍。
在这里记录下这篇文章时因为很实用,并且也希望以此帮助需要的人。
这是我在YouTube上学习到的。
对应的网页课程地址在此:https://pythonprogramming.net/forecasting-predicting-machine-learning-tutorial/
在作者的基础上进行了一点点的改动。说明一下:相关的库自行安装,就不一一废话了。