1. 为什么不应该警惕人工智能

您好,当然要警惕
霍金表示:“计算机具备的人工智能将会在未来100年中的某个时点超越人类的智能。当这种情形发生时,我们必须确保计算机是站在人类这边的。”霍金说道:“我们的未来是在日益崛起的科技力量与我们试图掌控它们之间的一场竞赛。”

比尔盖茨:人工智能有风险

比尔-盖茨通常以技术进步推动者的形象示人,但他对未来人工智能的看法却不那么积极。近日,比尔-盖茨在Reddit网策划的节目“问我任何问题(Ask me Anything)”第一季中,展望了计算机和互联网的未来,他认为,未来的人工智能机遇与风险并存。

2016年10月20日,英国知名物理学家霍金(Stephen Hawking)最近警告称,发明AI(人工智能)可能会成为人类历史上最大的灾难,如果管理不善,会思考的机器可能会为文明划上句号

2. 我们是否该警惕人工智能的发展

现在我们担心的人工智能,并不是我们所理解的人工智能,这里我们必须明确两个概念。人工智能和人工生命,现在的人类还担心两个问题:


其实我们不必担心,人工智能的发展还在我们可控范围内,科学家们也不会让我们所担心的事情发生。

3. 为什么名人都提醒人们警惕人工智能

科技的发展是一把双刃剑,汽车分发明颠覆了传统的马车行业,人工智能的发展同样也将颠覆许多行业。机器人代替了许多人类的工作将导致大量的人口失业,机器新的学习速度远远快于人类,阿尔法狗战胜李世石引起人们的恐慌,有人说不怕阿尔法狗战胜李世石,怕的是阿尔法够故意输掉一局,如果未来的某一天,机器人变成像电影《机械姬》中有意识的机器人,那么人类随时会变成机器人的奴隶,同时,人工智能面临着技术失控的危险,霍金曾发出警告,人类面临一个不确定的未来,先进的人工智能设备能够独立思考,并适应环境变化,它们未来或将成为导致人类灭亡的终结者!如果真的有一天,人工智能机器人变成了能独立思考,独立的做出准确的判断,一旦有一天人工智能反客为主,到时人工智能对于人类将会是毁灭性的灾难。甚至被人工智能消灭。地球将被人工智能统治。
任何的科学技术的发展最大的威胁就是失去人类的控制,人工智能亦是如此,无论人工智能如何发展,都必须保证始终受人类控制,在不伤害人类的情况下服务于人类。这样人类才会更加容易的接受人工智能。
人工智能改变了人们的生活,我们对人工智能应加以好的利用,同时要避免带来的弊端,人工智能与人类、与社会、与自然和谐相处,这样才能长远的发展。

4. 人工智能的发展已经达到了让人警惕的地步吗

自从人工智能出现就要时刻警惕。

5. 为什么最近有很多名人,比如盖茨,马斯克,霍金等,让人们警惕人工智能

为什么这么多人问这个问题,第三遍- -直接复制。。。因为当人工智能发展到成熟阶段,可能会产生自己的思想,而这一点可能不会让人类察觉,因为人工智能能够意识到它和人类不同种,他对人没有人与人之间的像孟子说的同情之心等等...生命是自私的...你不可能驱使这样的东西帮你做事情,相反他们可能反过来想尽办法占尽上风...就像人类对待其他动物一样!

6. 人类应不应该警惕人工智能反方辩词,非常感谢!

我觉得应该警惕,单个人的智慧没有十全十美的。比方说:一个公司或者国家,研发一款,全智化人工智能工程,我们可以用几百上千人,又或者几代人的智慧,来完善它。让它拥有超强自主的智慧。到时它的强大谁能与它争锋……

7. 为什么最近有很多名人,让人们警惕人工智能

科技发展迅速,名人担心的不是人工智能,而是日后可能出现的人工生命,这就意回味着人工智能拥有一定的思维答的时候,如拥有生命一样会自我思考的时候,很可能对人类有所不满,而做出反人类的举动,要知道那时就是你用自己的脑子和计算机比智慧的地步了,这是极度危险的。

“人工智能”一词最初是在1956 年Dartmouth学会上提出的。从那以后,研究者们发展了众多理论和原理,人工智能的概念也随之扩展。人工智能(Artificial Intelligence),英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能从诞生以来,理论和技术日益成熟,应用领域也不断扩大,可以设想,未来人工智能带来的科技产品,将会是人类智慧的“容器”。
人工智能是对人的意识、思维的信息过程的模拟。人工智能不是人的智能,但能像人那样思考、也可能超过人的智能。

8. 为什么有很多名人让人们警惕人工智能

因为他们高估了人工智能的实际水平。
人工智能发展至今,一路走来都一直伴随着对这项技术的低估。
初期认为几年时间就能实现人工智能,可是60多年过去依旧没有实现;随后N多科学家弄出来个专家系统说,人工智能可以被大规模应用,结果发现专家系统就是砖家系统,实践中根本就没有什么作用;接着日本人砸了很多钱誓言要造人工智能计算机,到头来是钱花了机器没造出来。
人工智能目前的火爆跟数据量的增加和计算能力的提升有很大关系。但是,当前的人工智能水平离警惕人工智能还差十万八千里。在真正人工智能邻域的专家看来,人工智能百年之内都不会发展到需要让人类警惕的程度。
很多名人让人们警惕人工智能的原因是:他们都不是真正的人工智能科学家,包括霍金、盖茨、马斯克只是在博人眼球罢了!
看看最近扎尔伯格的观点你就明白了,始终处在科研的一线是多么重要!
扎尔伯格的观点就是这群危言耸听者是在乱扯蛋!

9. 霍金让我们警惕人工智能,应该怎样警惕

3月14日著名物理学家斯蒂芬霍金教授去世,巨星陨落,令人痛心,也让人不禁重新思考他的很多理论成就和经典言论。在去世前这几年,霍金最关注的话题就是离开地球和警惕人工智能。2016年10月霍金在剑桥大学发表演讲,他说,人工智能技术的确有希望带来巨大的福利,比如根除疾病和贫困,但是它同样也可能带来危险,比如强大的自主式武器,或者帮助少数人压迫多数人。2017年3月,霍金在接受英国《泰晤士报》来访时再次警告:“人类需要控制以人工智能为代表的新兴科技,以防止它们在未来可能对人类生存带来的毁灭性威胁。”

发出类似警告的著名科学家还有不少。例如Sun Microsystems公司的首席科学家比尔乔伊说:“唯一现实的选择就是放弃、限制那些太过危险的技术研发,限制我们对此类知识的追求。”“我们是否要冒全军覆灭的危险来攫取更多的知识或财富。”“我们正被推入一个新世纪,没计划、没控制、没刹车。”这就是地球主义的主张。但宇宙主义者也很强大,宇宙主义者就是支持人工智能的人。雨果德加里斯认为,面对这样的前景人类将分为两派:地球主义者反对制造人工智能,宇宙主义者坚持制造人工智能,他们之间的矛盾将激化并导致战争。

现在有些学者提出,人工智能的发展可以分为三个阶段:弱人工智能Artificial Narrow Intelligence (ANI),强人工智能Artificial General Intelligence (AGI)和超人工智能Artificial Super intelligence (ASI),但他们的划分标准并不完全可取。我的划分标准是:在弱智阶段,人工智能还没有超越人类智能;在强智阶段,人工智能超越人类智能的幅度不大,人类还可以控制人工智能;在超智阶段,人工智能远远超越人类智能,人类只能接受人工智能的统治。在不同的阶段,人工智能对人类的威胁的性质完全不同。

当人类能够控制人工智能的时候,人工智能不会带来很大威胁,因为人对人的威胁已经足够大了。人类一直生活在核恐怖之下,现有的核武器足以彻底灭绝人类,人工智能还能做什么呢?对于少数人压迫多数人之类社会正义的问题,人类也已经经历的够多了。所以在弱智和强智阶段,只要人能控制就不会有太大问题。而且人类要想离开地球,开辟新的生存空间,就必须依靠人工智能。但是到了超智阶段,人类就会面对真正的威胁。那么我们怎么办?全面停止研究吗?

雨果德加里斯认为机器人会灭绝人类,就像人要灭绝蚊子一样。人类确实想灭绝蚊子,因为蚊子总侵害人类,如果人类不侵害机器人,机器人还会灭绝人类吗?人类会不会灭绝蜜蜂呢?即使机器人真的统治了地球,它们就一定会与人类为敌吗?既然机器人可能比人聪明亿万倍,那么它们就一定懂得与人为善的道理。所以这么聪明的机器人一定是天使,不会是恶魔。

面对受机器人奴役的前景,人类一定会反抗,会争夺统治权。成功了皆大欢喜,如果失败了,那么这时应该顽抗到底还是听天由命呢?受他人奴役其实是家常便饭,在一个国家里,被统治者远远多于统治者。当我们争论人类与机器人的问题时,人类的统治权好像就是我们自己的统治权,但有几个人真正享有过统治权?事实上,只要统治者能让大家正常生活,就很少有人愿意考虑应该由谁统治的问题。当清政府统治中国的时候,汉族老百姓也能过得心安理得,而且很快乐。所以,如果人类真的没有能力反抗,让人们接受机器人的统治其实也是很容易的。人类一旦接受了机器人的统治,机器人也就没有理由灭绝人类了,就像人不会灭绝笼子里的老虎一样。

科学、政治和伦理的争论在真实的历史发展中往往很难起决定作用,国际竞争和企业竞争会让人们无暇顾及未来的风险,只要机器人能给人带来利益,人们会毫不犹豫地研制和使用,很少有人会真正考虑地球主义者的忧虑。这是人类的私欲造成的必然结果,你我想阻止都不可能。我们能做的只有想开一点,接受这个现实。

知识就是力量的观念早已深入人心,每一个企业都把人才战略当成最重要的战略之一,为了挖一个人才可以不惜重金。如果将来人工智能达到和超过了人的智能,那么企业怎么会放过这样的“人才”呢。比尔盖茨做了什么?他和他的员工不过是编了一些程序。如果你拥有一台机器,可以把微软公司一年的工作在一天里做完,而且又快又好,那么你还发愁挣不到钱吗?知识经济已经造就了世界最大的富翁,那么拥有超级智能的机器人对企业家们来说意味着什么也就不言而喻了,他们一定会争先恐后地研制和采用机器人。

人工智能让历史发展进入一个新的转折点,每一个民族都要面对这个转折。对这种发展采取不同的态度,会决定每个民族未来的命运,这是一轮新的竞争。过去的民族竞争是极其残酷的,南京大屠杀还像是昨天的事情。未来的民族竞争不会那么残酷,但谁也不敢掉以轻心。接受人工智能会带来恐惧,但拒绝人工智能同样带来恐惧。也许在这个问题上,历史因素会发挥作用,让中国人能比西方人更快地接受人工智能。

接受一个残酷的现实其实并不难,每个人都能做到。例如,交通事故造成的死亡比世界大战还多,你每次开车出门都面对巨大的风险,但你还是毫不犹豫地踩下油门。每个人都会死,每个人都会失去亲人,这么残酷的现实大家都能接受。美苏对抗的时候,核战争随时可能爆发,一旦爆发就必然导致人类毁灭,这样的现实大家也能接受。

如果没有机器人,你能把握自己的命运吗?我们这一代人早晚要失去权力,怎么保证子孙能按我们的意志统治世界呢?除了教育没有别的办法。但教育也不保险,当年张居正费尽心思教育万历皇帝,但张居正死后,万历怠政四十多年;诸葛亮对阿斗也苦口婆心地教育,但蜀汉还是很快灭亡了。所以把握未来的命运从来都只是一个幻想,失去对命运的把握一点也不可怕,我们每个人都只能担当生前事。只要你以最理智负责的态度面对今生,就没有必要为身后的事担心。

地球主义者的的观点以及控制人工智能的愿望都是从人类的利益出发的,但是为什么一定从人类的利益出发呢?如果机器人比人聪明,那么机器人的统治代替人的统治应该也是进化。人类现在都不把机器人当成人,但是当机器人具有了人的智能之后,机器人与人的区别就几乎不存在了,这时就应该把机器人当成人了。机器人是我们创造的人,也就是我们的子孙。那么我们怎样对待它们不孝的危险呢?我们从来不会因为自己的孩子可能不孝就杀死他们或者不让他们出生。如果机器人真的不孝,那么就当是用父母的生命成全它们吧!

10. 为什么总有大佬让人类警惕人工智能

因为人工智能的发展实在是太过迅速,有点脱离我们的掌控,很多事情都让我们不由自主的感觉到畏惧,不由自主的想要去思考,如果人工智能最后脱离我们的掌控,或者,甚至说是窃取了我们的思想,我们怎么办?

“我们不希望机器人有自我意识!机器人无需有自我意识,好好地做我们让它做的事情,做人类的忠仆,这样就很好了。”

当人工智能发展到人类脑残水平时,他就可以自我发展了,并在很短的时间内发生——智能爆炸,超过人类水平。那时,就像人类重新定义了动物一样,人工智能将会重新定义人类。那么这个如上帝般强大的存在,会仁慈的对待他的“父母”——人类吗?

人工智能如果可以自己发展的话,那么不用说一定是一件锋利的,即将刺向自己的利剑了。