数据挖掘自学
Ⅰ 数据挖掘大概要学习多久
数据挖掘属于知识发现的一种,主要是从海量的数据库中寻找事物之间的关系,这是目前版业界权的主流观点,其实也是狭义的数据挖掘主要是利用数据库中的海量数据来发现事物间的关联规则;广义的数据挖掘就不只是从数据库中进行知识发现了,所挖掘的模型也就不只是关联规则了。
即便是狭义的数据挖掘也是需要相当的IT基础,数理逻辑要好一点。从应用的角度上看什么书不太清楚,从专业的角度来说,它只是人工智能领域中很小的一个分支,也没什么太高的难度。但看你的基础一点都没有,对你来说可能主要是入门的问题吧。
最好到书店买实体书,多买几本参考着看,所有的书在2个月内不管看懂了没有能全部看完,然后还有所体悟而且再看也不会烦,那我就觉得你应该是可以做这一行的。如果还是没什么头绪,说明这道门槛对你来说太高了;而如果你已经厌烦了,那很好,一两百元的书钱就避免了你浪费一生;如果2个月后你又花了500元书钱,那应该恭喜你选对了方向。
Ⅱ 数据挖掘能自学吗
你用什么工具做大数据挖掘?有很多工具和方法来实现数据挖掘,如SPSS、SAS、Python、R等等,但是我们需要掌握什么或掌握什么来学习数据挖掘?这取决于你在做什么,你想去哪里。
慢慢的
Ⅲ 怎么样自学大数据挖掘师
现在很多人想学习来,但是真正源能坚持下来的很少,个人认为首先要做好前期工作
1、确认目标,做好规划
2、如果是小白的话建议找一个老师,如果是做技术的转大数据,建议找一个同伴,加入群和社区勉励和讨论
3、你用什么工具做大数据挖掘?有很多工具和方法来实现数据挖掘,如SPSS、SAS、Python、R等等,但是我们需要掌握什么或掌握什么来学习数据挖掘?这取决于你在做什么,你想去哪里。
4、关于学习资料的话网上有很多,但是要找比较新的视频和文档学习,甚至可以买网上新的视频资料
5、当然最重要的还是实践,多实践终会成功的,而,这仅仅是个开始,在大数据挖掘的道路上,我们必须学习文本处理和自然语言知识、Linux和火花知识、深入的学习知识等等,并且我们需要对数据挖掘保持持续的兴趣。
Ⅳ 如何通过自学,成为数据挖掘“高手”
基础篇:
1. 读书《Introction to Data Mining》,这本书很浅显易懂,没有复杂高深的公式,很合适入门的人。另外可以用这本书做参考《Data Mining : Concepts and Techniques》。第二本比较厚,也多了一些数据仓库方面的知识。如果对算法比较喜欢,可以再阅读《Introction to Machine Learning》。
2. 实现经典算法。有几个部分:
a. 关联规则挖掘 (Apriori, FPTree, etc.)
b. 分类 (C4.5, KNN, Logistic Regression, SVM, etc.)
c. 聚类 (Kmeans, DBScan, Spectral Clustering, etc.)
d. 降维 (PCA, LDA, etc.)
e. 推荐系统 (基于内容的推荐,协同过滤,如矩阵分解等)
然后在公开数据集上测试,看实现的效果。可以在下面的网站找到大量的公开数据集:http://archive.ics.uci.e/ml/
3. 熟悉几个开源的工具: Weka (用于上手); LibSVM, scikit-learn, Shogun
4. 到 https://www.kaggle.com/ 上参加几个101的比赛,学会如何将一个问题抽象成模型,并从原始数据中构建有效的特征 (Feature Engineering).
到这一步的话基本几个国内的大公司都会给你面试的机会。
进阶篇:
1. 读书,下面几部都是大部头,但学完进步非常大。
a.《Pattern Recognition and Machine Learning》
b.《The Elements of Statistical Learning》
c.《Machine Learning: A Probabilistic Perspective》
第一本比较偏Bayesian;第二本比较偏Frequentist;第三本在两者之间,但我觉得跟第一本差不多,不过加了不少新内容。当然除了这几本大而全的,还有很多介绍不同领域的书,例如《Boosting Foundations and Algorithms》,《Probabilistic Graphical Models Principles and Techniques》;以及理论一些的《Foundations of Machine Learning》,《Optimization for Machine Learning》等等。这些书的课后习题也非常有用,做了才会在自己写Paper的时候推公式。
2. 读论文。包括几个相关会议:KDD,ICML,NIPS,IJCAI,AAAI,WWW,SIGIR,ICDM;以及几个相关的期刊:TKDD,TKDE,JMLR,PAMI等。跟踪新技术跟新的热点问题。当然,如果做相关research,这一步是必须的。例如我们组的风格就是上半年读Paper,暑假找问题,秋天做实验,春节左右写/投论文。
3. 跟踪热点问题。例如最近几年的Recommendation System,Social Network,Behavior Targeting等等,很多公司的业务都会涉及这些方面。以及一些热点技术,例如现在很火的Deep Learning。
4. 学习大规模并行计算的技术,例如MapRece、MPI,GPU Computing。基本每个大公司都会用到这些技术,因为现实的数据量非常大,基本都是在计算集群上实现的。
5. 参加实际的数据挖掘的竞赛,例如KDDCUP,或 https://www.kaggle.com/ 上面的竞赛。这个过程会训练你如何在一个短的时间内解决一个实际的问题,并熟悉整个数据挖掘项目的全过程。
6. 参与一个开源项目,如上面提到的Shogun或scikit-learn还有Apache的Mahout,或为一些流行算法提供更加有效快速的实现,例如实现一个Map/Rece平台下的SVM。这也是锻炼Coding的能力。
到这一步国内的大公司基本是想哪去哪,而且待遇也不差;如果英语好,去US那边的公司难度也不大了。