1. 如何使用python分析大数据

#coding:utf-8
#file: FileSplit.py

import os,os.path,time

def FileSplit(sourceFile, targetFolder):
sFile = open(sourceFile, 'r')
number = 100000 #每个小文件中保存100000条数据
dataLine = sFile.readline()
tempData = [] #缓存列表
fileNum = 1
if not os.path.isdir(targetFolder): #如果目标目录不存在,则创建
os.mkdir(targetFolder)
while dataLine: #有数据
for row in range(number):
tempData.append(dataLine) #将一行数据添加到列表中
dataLine = sFile.readline()
if not dataLine :
break
tFilename = os.path.join(targetFolder,os.path.split(sourceFile)[1] + str(fileNum) + ".txt")
tFile = open(tFilename, 'a+') #创建小文件
tFile.writelines(tempData) #将列表保存到文件中
tFile.close()
tempData = [] #清空缓存列表
print(tFilename + " 创建于: " + str(time.ctime()))
fileNum += 1 #文件编号

sFile.close()

if __name__ == "__main__" :
FileSplit("access.log","access")
====

#coding:utf-8
#file: Map.py

import os,os.path,re

def Map(sourceFile, targetFolder):
sFile = open(sourceFile, 'r')
dataLine = sFile.readline()
tempData = {} #缓存列表
if not os.path.isdir(targetFolder): #如果目标目录不存在,则创建
os.mkdir(targetFolder)
while dataLine: #有数据
p_re = re.compile(r'(GET|POST)\s(.*?)\sHTTP/1.[01]',re.IGNORECASE) #用正则表达式解析数据
match = p_re.findall(dataLine)
if match:
visitUrl = match[0][1]
if visitUrl in tempData:
tempData[visitUrl] += 1
else:
tempData[visitUrl] = 1
dataLine = sFile.readline() #读入下一行数据

sFile.close()

tList = []
for key,value in sorted(tempData.items(),key = lambda k:k[1],reverse = True):
tList.append(key + " " + str(value) + '\n')

tFilename = os.path.join(targetFolder,os.path.split(sourceFile)[1] + "_map.txt")
tFile = open(tFilename, 'a+') #创建小文件
tFile.writelines(tList) #将列表保存到文件中
tFile.close()

if __name__ == "__main__" :
Map("access\\access.log1.txt","access")
Map("access\\access.log2.txt","access")
Map("access\\access.log3.txt","access")
==

#coding:utf-8
#file: Rece.py

import os,os.path,re

def Rece(sourceFolder, targetFile):
tempData = {} #缓存列表
p_re = re.compile(r'(.*?)(\d{1,}$)',re.IGNORECASE) #用正则表达式解析数据
for root,dirs,files in os.walk(sourceFolder):
for fil in files:
if fil.endswith('_map.txt'): #是rece文件
sFile = open(os.path.abspath(os.path.join(root,fil)), 'r')
dataLine = sFile.readline()

while dataLine: #有数据
subdata = p_re.findall(dataLine) #用空格分割数据
#print(subdata[0][0]," ",subdata[0][1])
if subdata[0][0] in tempData:
tempData[subdata[0][0]] += int(subdata[0][1])
else:
tempData[subdata[0][0]] = int(subdata[0][1])
dataLine = sFile.readline() #读入下一行数据

sFile.close()

tList = []
for key,value in sorted(tempData.items(),key = lambda k:k[1],reverse = True):
tList.append(key + " " + str(value) + '\n')

tFilename = os.path.join(sourceFolder,targetFile + "_rece.txt")
tFile = open(tFilename, 'a+') #创建小文件
tFile.writelines(tList) #将列表保存到文件中
tFile.close()

if __name__ == "__main__" :
Rece("access","access")

2. python大数据开发

So little score, so many questions.

3. Python在大数据领域是怎么来应用的

有些办法。比如使用array, numpy.array。 主要的思路是节约内存的使用,同时提高数据查询的效率。

如果能够注意这些内容,处理几个GB的数据还是轻松的。 接下来就是分布式计算。 按maprece的思路。数据尽量在本地处理。所以算法上要优化。主要是分段。

不管怎么说。这几个方面所有的语言都是相同的。即使你用的是C语言也一样要考虑到这些。大数据因为量大,算法也需要改进。

对于不能改进的算法(好象还没有遇到)也只好用python接C的扩展模块了。 好在python与C有很好的接口。轻松就接上。

最近比较流行的方法是使用cython,一方面可以略略提高速度,另一方面与C有无缝的接口。

java在处理大数据方面速度与易用性略略占优势。C++也经常会使用在核心算法上。语言本身都不是问题。大部分时候大数据还是在处理算法本身而不是语言。

在原型阶段python很方便,快速,灵活。所以大数据处理中python是几种语言中最适合的。特别是早期探索阶段。业务与算法经常变更。到了后期基本上都是C++了。java比较适合工程化阶段。

4. python大数据需要学什么

1、需求---->算法
算法-->独自存在 解决问题的思想
特性:
输入性
输出性
有穷性
确定性
可行性
2、基本运算总数 ---->效率
3、问题规模N
T(N) ---N (数学概念:渐进函数)
时间复杂度---"O"
最优时间复杂度
最坏时间复杂度(重点)
平均时间复杂度
4、时间复杂度计算规则
1、常数项 操作 ---O(1)
2、顺序结构 累和
3、循环结构 累积
4、分支结构 取时间复杂度最高
5、最坏时间复杂度(未说明)
6、只取最高次项 其他忽略
5、空间复杂度---了解就行
6、时间复杂度消耗时间的排序
O(1) < O(logn) < O(n) <O(nlogn) < O(n^2) < O(n^3) < O(2^n) < O(n!) < O(n^n)
7、对Python中list操作分析---->各个操作效率不同(时间复杂度不同)
工具模块 :timeit
创建对象:timeit.Timer()
参数:
1、测试代码
2、导入语法
3、计时器(平台相关)
返回值:
time对象
调用方法:time.timeit()
参数:
1、设置测试次数
返回值:
时间(秒数 float类型)
8、list dict操作时间复杂度剖析
9、数据结构
概念:数据元素之间的关系
数据结构是算法的载体
共同构成一个程序
抽象数据类型(ADT)
插入 删除 修改 查找 排序
10、顺序表---属于线性表
连续内存,存储形式
1、直接存储数据(数据类型相同)
2、元素外置(存储元素的对应地址)
千锋Python的课程推荐你去试听一下

5. 如何用Python进行大数据挖掘和分析

首先你要会一些常用的库,从numpy pandas skitlearn 再到tensorflow

6. 大数据之Python模块如何学习

阶段一、人工智能篇之Python核心
1、Python扫盲
2、面向对象编程基础
3、变量和基本数据类专型
4、Python机器学习属类库
5、Python控制语句与函数
6.、Python数据库操作+正则表达式
7、Lambda表达式、装饰器和Python模块化开发
阶段二、人工智能篇之数据库交互技术
1、初识MySQL数据库
2、创建MySQL数据库和表
3、MySQL数据库数据管理
4、使用事务保证数据完整性
5、使用DQL命令查询数据
6、创建和使用索引
7、MySQL数据库备份和恢复

7. 如何用python进行大数据挖掘和分析

毫不夸张地说,大数据已经成为任何商业交流中不可或缺的一部分。桌面和移动搜索向全世界的营销人员和公司以空前的规模提供着数据,并且随着物联网的到来,大量用以消费的数据还会呈指数级增长。这种消费数据对于想要更好地定位目标客户、弄懂人们怎样使用他们的产品或服务,并且通过收集信息来提高利润的公司来说无疑是个金矿。
筛查数据并找到企业真正可以使用的结果的角色落到了软件开发者、数据科学家和统计学家身上。现在有很多工具辅助大数据分析,但最受欢迎的就是Python。
为什么选择Python?
Python最大的优点就是简单易用。这个语言有着直观的语法并且还是个强大的多用途语言。这一点在大数据分析环境中很重要,并且许多企业内部已经在使用Python了,比如Google,YouTube,迪士尼,和索尼梦工厂。还有,Python是开源的,并且有很多用于数据科学的类库。所以,大数据市场急需Python开发者,不是Python开发者的专家也可以以相当块速度学习这门语言,从而最大化用在分析数据上的时间,最小化学习这门语言的时间。
用Python进行数据分析之前,你需要从Continuum.io下载Anaconda。这个包有着在Python中研究数据科学时你可能需要的一切东西。它的缺点是下载和更新都是以一个单元进行的,所以更新单个库很耗时。但这很值得,毕竟它给了你所需的所有工具,所以你不需要纠结。
现在,如果你真的要用Python进行大数据分析的话,毫无疑问你需要成为一个Python开发者。这并不意味着你需要成为这门语言的大师,但你需要了解Python的语法,理解正则表达式,知道什么是元组、字符串、字典、字典推导式、列表和列表推导式——这只是开始。
各种类库
当你掌握了Python的基本知识点后,你需要了解它的有关数据科学的类库是怎样工作的以及哪些是你需要的。其中的要点包括NumPy,一个提供高级数学运算功能的基础类库,SciPy,一个专注于工具和算法的可靠类库,Sci-kit-learn,面向机器学习,还有Pandas,一套提供操作DataFrame功能的工具。
除了类库之外,你也有必要知道Python是没有公认的最好的集成开发环境(IDE)的,R语言也一样。所以说,你需要亲手试试不同的IDE再看看哪个更能满足你的要求。开始时建议使用IPython Notebook,Rodeo和Spyder。和各种各样的IDE一样,Python也提供各种各样的数据可视化库,比如说Pygal,Bokeh和Seaborn。这些数据可视化工具中最必不可少的就是Matplotlib,一个简单且有效的数值绘图类库。
所有的这些库都包括在了Anaconda里面,所以下载了之后,你就可以研究一下看看哪些工具组合更能满足你的需要。用Python进行数据分析时你会犯很多错误,所以得小心一点。一旦你熟悉了安装设置和每种工具后,你会发现Python是目前市面上用于大数据分析的最棒的平台之一。
希望能帮到你!

8. 如何用Python分析大数据

基本主流的大数据框架和算法库都支持python,比如hadoop 和spark,需要你根据操作的狂降找到对应的python 库