java开发web项目,python做一些大数据的开发,请问怎么架构项目

web作为对外的接口服务,
web的后台中如果需要大数据处理,那么调用python的服务,也就是python作为服务为java后台方法的一部分。
整个系统服务化,对外提供统一的服务访问地址。

㈡ java转行大数据要学习哪些技术

对于Java程序员,大数据的主流平台hadoop是基于Java开发的,所以Java程序员往大数据开发方向转行从语言环境上更为顺畅,另外很多基于大数据的应用框架也是Java的,所以在很多大数据项目里掌握Java语言是有一定优势的。
当然,hadoop核心价值在于提供了分布式文件系统和分布式计算引擎,对于大部分公司而言,并不需要对这个引擎进行修改。这时候除了熟悉编程,你通常还需要学习数据处理和数据挖掘的一些知识。尤其是往数据挖掘工程师方向发展,则你需要掌握更多的算法相关的知识。
对于数据挖掘工程师而言,虽然也需要掌握编程工具,但大部分情况下是把hadoop当做平台和工具,借助这个平台和工具提供的接口使用各种脚本语言进行数据处理和数据挖掘。因此,如果你是往数据挖掘工程方向发展,那么,熟练掌握分布式编程语言如scala、spark-mllib等可能更为重要。
Java程序员转大数据工程师的学习路线图:
第一步:分布式计算框架
掌握hadoop和spark分布式计算框架,了解文件系统、消息队列和Nosql数据库,学习相关组件如hadoop、MR、spark、hive、hbase、redies、kafka等;
第二步:算法和工具
学习了解各种数据挖掘算法,如分类、聚类、关联规则、回归、决策树、神经网络等,熟练掌握一门数据挖掘编程工具:Python或者Scala。目前主流平台和框架已经提供了算法库,如hadoop上的Mahout和spark上的Mllib,你也可以从学习这些接口和脚本语言开始学习这些算法。
第三步:数学
补充数学知识:高数、概率论和线代
第四步:项目实践
1)开源项目:tensorflow:Google的开源库,已经有40000多个star,非常惊人,支持移动设备;
2)参加数据竞赛
3)通过企业实习获取项目经验
如果你仅仅是做大数据开发和运维,则可以跳过第二步和第三步,如果你是侧重于应用已有算法进行数据挖掘,那么第三步也可以先跳过。

㈢ java资深大数据研发/架构师是做什么的

记得有人说过一句话,大体意思是:现在计算机技术发展那么迅速,日新月异,那些学计算机技术的人,要不断学习才能不被淘汰,那些人的脑子是不是坏掉了,干嘛要让自己活的这么累?表示不解。不想时隔几年,我也进入了这个飞速发展的IT行业。大概是随着时间的推移,个人价值观也随之改变了吧!
初入这个行业的Java程序员是迷茫的,处在金字塔的最底端,拿可怜的薪水,无休止的加班,被“高薪”和“码农”的代名词交替映射着,亦步亦趋的行进着,什么职业规划都是飘渺的空虚的,月光族都是向钱看的。直到无意看到一篇针对Java程序员的文章,感觉收获颇丰。似乎有一种拨开云雾见月明的感觉
一、认识现在自己,想要什么样的生活
当我们还不能确定自己的职业规划时,我们可以先确定一个目标,哪怕是以薪资为目标,为了实现这个目标,我们必定会为之奋斗,低薪时,只管低头学技术,当你成为资深程序员,才可以望向更远的发展线:专家线和管理线,一个跟机器打交道,一个跟人打交道。
把自己当做一种商品,商品必然存在价值,使用价值和交换价值。说的通俗点即你能给雇主创造多少财富。提高个人能力是一方面,还有一个技巧是选择更好的细分市场。感触很深的一点是通过网络提升个人品牌,一方面可以将个人所学知识进行梳理,同时可以锻炼自己的逻辑能力、语言表达能力,最重要的是可以分享,让更多的人学习,共同成长。
二、作为程序员,你首先要问自己一个问题:“我真的喜欢编程吗
我能确定我当程序员不仅是为了养家糊口,而是为了实现自己的人生价值吗?” 这一点非常重要。如果你的答案是为了养家糊口,那么很可能你成为不了一个优秀的程序员,而且在这条路上你越走越疲倦;如果你的答案是真心喜欢编程,那也很可能说明不了什么问题,除非你每天都在主动地学习和进步。
请先忘却它可能给你带来的奖励,而是切实的学习知识,充实自己,奖励只是你进步途中的副产品。如果你做一件事情前先考虑它有没有价值,会不会给你带来收益,那么你在当时的环境中很难看清楚一件事情对以后有没有价值。
永远不要把自己的成长完全寄托给公司,希望新人都能认识到这一点,公司好的项目会很锻炼人,但是每个人在项目中都只是一颗螺丝钉,只会负责某一个模块,自己不主动去探索,没有人会给你介绍整个系统的架构和工作原理。在我的成长过程中,一般有2个习惯,一个是搞清楚整个项目是做什么的,有哪些模块,整个系统是如何架构和设计的?另一个习惯是从自己负责的模块开始发散,找到一个又一个兴趣点利用业余时间进行深入地学习。无论做什么方向,都是可以不断积累和锻炼这些能力的,不用太过于关注某个方向有没有前途,个人综合能力提高了,切换方向很快的。

㈣ Java架构师还是大数据年龄32,Java框架会用,是往前一步到架构师还是转行大数据

我之前一直是系统架构师,负责系统架构升级、技术引进、服务化等等,并且是30人研发团队的负责人。后来公司对大数据部门做整合,我就去负责整个大数据的技术规划。无论java架构师、还是大数据的架构师,都需要有快速学习的能力,毕竟技术全栈之前差距还是比较大的。还有就是做一个靠谱与值得信赖的人,这样才能把重要的任务交付给你。

另外,书籍和视频课程遇见精品就要学习,动力节点的架构师课路线图不错,可以作为研究对象,课程怎么样就不清楚了,你自己去看看。

㈤ 使用java开发B/S的大数据分析软件 应该用什么框架新手勿喷

在大数据处理分析过程中常用的六大工具:
Hadoop
Hadoop 是一个能够对大量数据进行分布式处理的软件框架。但是 Hadoop 是以一种可靠、高效、可伸缩的方式进行处理的。Hadoop 是可靠的,因为它假设计算元素和存储会失败,因此它维护多个工作数据副本,确保能够针对失败的节点重新分布处理。Hadoop 是高效的,因为它以并行的方式工作,通过并行处理加快处理速度。Hadoop 还是可伸缩的,能够处理 PB 级数据。此外,Hadoop 依赖于社区服务器,因此它的成本比较低,任何人都可以使用。
HPCC
HPCC,High Performance Computing and Communications(高性能计算与通信)的缩写。1993年,由美国科学、工程、技术联邦协调理事会向国会提交了逗重大挑战项目:高性能计算与 通信地的报告,也就是被称为HPCC计划的报告,即美国总统科学战略项目,其目的是通过加强研究与开发解决一批重要的科学与技术挑战问题。HPCC是美国 实施信息高速公路而上实施的计划,该计划的实施将耗资百亿美元,其主要目标要达到:开发可扩展的计算系统及相关软件,以支持太位级网络传输性能,开发千兆 比特网络技术,扩展研究和教育机构及网络连接能力。
Storm
Storm是自由的开源软件,一个分布式的、容错的实时计算系统。Storm可以非常可靠的处理庞大的数据流,用于处理Hadoop的批量数据。Storm很简单,支持许多种编程语言,使用起来非常有趣。
Apache Drill
为了帮助企业用户寻找更为有效、加快Hadoop数据查询的方法,Apache软件会近日发起了一项名为逗Drill地的开源项目。Apache Drill 实现了 Google's Dremel.
据Hadoop厂商MapR Technologies公司产品经理Tomer Shiran介绍,逗Drill地已经作为Apache孵化器项目来运作,将面向全球软件工程师持续推广
RapidMiner
RapidMiner是世界领先的数据挖掘解决方案,在一个非常大的程度上有着先进技术。它数据挖掘任务涉及范围广泛,包括各种数据艺术,能简化数据挖掘过程的设计和评价。

㈥ 用java做互联网开发,高并发,大数据量,应具备哪些技术系统架构,数据库方面的,还有那些常用的技术。

memcache缓存系统
proxool数据库连接池
这两个用好已经基本解决问题了

㈦ java大数据程序员如何成长:一定要写自己的框架

从事java大数据程序员的同学发现,很多程序员快速掌握一门语言的方法都是,用别人的框架进行学习,但是框架用的时间久了之后就发现了一个问题:我真的有学习过吗?我学的内容真的有用嘛,这些框架内的东西能对我今后有帮助吗?今天专家为大家整理了一名以前无限互联的同学从事java大数据工程师的成长路程:

㈧ 为啥大部分大数据框架都是 Java based

现在主流的 可以考虑 bbo bbo 阿里支持的
分布式并不是一套框架 ,而是一种实现机制
简言之,过去一台服务器处理的东西分配到多台服务器进行处理
主要涉及到的技术
负载均衡技术
消息一致性技术
PAC原则
分布式事务

㈨ 大数据和Java开发哪个更有前途

两者关系

java是计算机的一门编程语言;可以用来做很多工作,大数据开发属于其中一种;

大数据属于互联网方向,就像现在建立在大数据基础上的AI方向一样,

他两不是一个同类,但是属于包含和被包含的关系;

java可以用来做大数据工作,大数据开发或者应用不必要用java,可以Python,Scala,go语言等。

再有就是就业前景

看看职友集的数据,

Java工程师


最后根据自己的需要可以自己选择适合自己的才是最好的,

㈩ 学习大数据框架前,单就Java而言,需要掌握哪些知识以及掌握到什么程度

如果只是应用Hadoop/Spark进行数据分析,那么JavaSE只需要基本了解就行了,重点在于深入理解回Hadoop/Spark各自的计算模型和实现原理答,以及常见的数据分析方法和分布式算法。实际的分析工作,甚至可以不使用java,使用各自的streaming接口用任意语言编写。另外,Spark与Hadoop不同,原生语言是Scala。

如果要深入学习两个框架的实现,阅读源代码的话,那肯定就得学习Java/Scala了,建议在掌握基础之后边看代码边查相应的语言特性。

对初学者,建议还是从应用入手,在使用的过程中,自然地一步步了解实现。