❶ 担心人工智能控制人类是新时代的杞人忧天!

为什么说担心人工智能控制人类是新时代的杞人忧天,答案很简单,因为人工智能没有控制人类的动机。诸葛亮比刘备和刘禅更聪明,但为什么没有取而代之谋反夺权呢,因为他是个忠臣,没有谋反的动机,同样的道理,即使将来人工智能的智慧超越了人类,它也不可能控制人类,因为人工智能没有控制人类的动机,为什么?因为人工智能(电脑、机器人、智能硬件等)是非生命物质,不具有任何动机,也不具有情感、意志、欲望等高等生命物质才能具备的心理要素,当然也就不会具有谋反和控制人类的动机,所以,人工智能控制人类,纯粹是无稽之谈。
今天的机器人已能模仿人类的许多表情,但它的表情是虚假的,不是真实的表情,就好比你看到一个微笑的石像,不能说这个石像有表情,因为它的表情是假的。许多人看了好莱坞的人工智能大片,就担心片中的机器人控制人类的场景将来会变成现实,这是非常可笑的,因为电影这么做是为了票房,反正电影只是艺术,不是现实,这么做也不违法,但是,还是那句话说得好,谣言止于智者,希望大家都能做一个智者,不要再轻易相信什么“人工智能控制人类”之类的谣言!
未来的人工智能会有两种,一种是低级人工智能,如智能硬件,机器人,另一种是高级人工智能,就是超人类计算机,它会有很高的智慧,但它只有思考的能力,没有行动和执行的能力,它只能受人类的控制,机器人有很强的行动能力,但人类不会赋予它很高的智慧,只赋予它执行力,所以,人类可以问计于超人类计算机,然后通过它来控制机器人,这样,三者间的控制关系是,人类——超人类计算机——机器人,前者控制后者,最终的控制权在人类,所以,不会出现人工智能控制人类的事情。机器人不会失控和危害人类,因为将来的人类会更有智慧,更有能力控制机器人,通过超人类计算机可以牢固地掌控机器人。
未来的超人类计算机会比爱因斯坦和爱迪生更聪明,会更多地代替人脑的思考、创造工作,但人脑不会因此而衰退,因为人脑可以从事其它思考工作,如,从事一些智力竞赛、思维训练、文艺创作等,但更主要的是从事心理学方面的思考和研究,电脑可以在“外知智力”(外知智力和内知智力是反省心理学中的概念,外知智力的功能是剖析和控制外部世界,内知智力的功能是剖析和控制内部心理世界)方面超越人脑,但不会具有“内知智力”,更不会在内知智力方面超越人脑,总之,没必要担心将来人脑的智慧会衰退,这就好比,机器取代了人的体力工作,但人可以通过体育锻炼等活动来保持和提高自己的体能。
未来人类的角色是刘备,超人类计算机的角色是诸葛亮,机器人的角色是关、张、赵云,三者相互配合,共创伟业,起主导作用和控制地位的是人类。
人工智能是人类必须走的一走棋,这一步棋走好了,疾病、死亡、自然灾害、资源短缺等问题都可得到解决。

❷ 人工智能可能引起哪些威胁

随着人工智能基础理论的快速迭代,不断挑战人类的极限,许多学者回开始担忧人工智能对答人类的威胁。目前,人工智能尚处于弱人工智能阶段,对人类带来的威胁主要在于加剧人类社会的鸿沟。

人工智能对人类的威胁

在高级阶段,强人工智能将具备和人类类似的完备心理能力,一旦机器人学会了独立思考,其很有可能不会继续屈服于人类的管控,甚至会发起对人类的攻击,最终人类将面临一场灾难。霍金就警示过,新兴科技发展可能对人类生存带来的毁灭性威胁。另外,届时如何区分人与机器人。如何确定机器人的社会地位会带来潜在的社会问题,一旦这些问题不能很好被解决,即使没有战争,局部的冲突也会出现。

❸ 人工智能为什么被认为存在重大威胁

对于人工智能威胁,现在担忧有些杞人忧天,可能是看多了像《西部世界》、《我,机器人》这样的科幻电影加剧了一部分普通群众对机器人战争的担忧,但是现阶段我们说人工智能有可能会萌发自我意识,产生感情,但目前的研究既没有给人工智能们足够多的类似人类神经细胞的芯片和电路,也没有先进到足以让机器人对我们产生威胁的地步,所以实在没必要担心。

退一万步讲哪个野心科学家给机器人装上发电机不用担心电池的问题,在如今的军事能力下,机器人也只是一堆会行走的破铜烂铁罢了。所以与其担心人工智能会对我们产生什么威胁,不如好好学习开发人工智能更好的为人类服务吧。我也想有一个给我们家做饭洗衣服,附带聊天解闷的人工智能机器人呢。

❹ 人类担心人工智能,那么人工智能危险在哪

霍金、比尔盖茨等社会科技大佬曾表示,人工智能可能会毁灭人类等话题,那么我们是否应该警惕人工智能,避免出现终结者等科幻电影中,人工智能成为人类生存的最大威胁。

人工智能之所以只能做到这个程度,是因为现在的人工智能是对人类“智能”进行模拟的产物,目的是帮助人类完成某些工作,他们只是按设计者所设计好的程序一步一步完成,并不会自己思考的机器,而设计者也没打算让它们思考(实际上也是不知道怎样才能让机器思考),所以目前人工智能只不过是人类生活中的工具而已。

担忧出现人工智能毁灭人类的情况,暂时还离我们很远。目前对人工智能的研究仍然很原始,原始到所有的研究发现都是基于工具使用,而那些行业大佬警惕人工智能的危险,是出于对强人工智能的担忧,但是作为社会科技研发领头羊的他们,也只不过是在搞弱人工智能而已。

真正兴致勃勃搞强人工智能的,是那些科幻小说和科幻电影。

❺ 人工智能最让你害怕的一点是什么

最害怕的是人工智能死活成功不了 我在担忧电脑能做的事情太少 而不是太多 他们连车都没开好呢 才L3 没到L5
电脑只会威胁到体力活

❻ 人们对人工智能的快速发展产生了哪些忧虑

围棋人机大战让人工智能的话题热度居高不下。每一次新进展的横空出世,都让期待这项技术的人变得更乐观,不过,人们对其影响力的顾虑也在明显上升。越来越多的组织、机构开始研究智能机器衍生的伦理问题。虽然人们无法保证今天的思考、策略完全有效,但在没有作任何准备的情况下,就必然无法将其控制。
一、永恒的恐惧
对于人工智能的忧虑,最早可以追溯到200年前。但这不是对一项技术的反思,而是展示了造物者与被造物之间的内在关系。
“亚当”是英国19世纪女作家玛丽·雪莱笔下作品《弗兰肯斯坦》中的合成生命体,科学家弗兰肯斯坦创造了他。亚当天性善良,渴望感情,渴望受到尊重,但世界并没有像他所期待的那样接纳他,他始终是个异类。
于是,他被迫反抗,作出极端行为,胁迫弗兰肯斯坦为他造一个“夏娃”。弗兰肯斯坦担心“亚当”和“夏娃”会衍生出无数新的怪物,在即将成功时将“夏娃”销毁。“亚当”开始了复仇杀戮,弗兰肯斯坦只能与之决斗。
《弗兰肯斯坦》在多年以后,依然能够成为英美文化的热点。上海交通大学科学史与科学文化研究院院长江晓原认为,这是源于人类与被造物之间天然的永恒恐惧与不安。“历史证明,即便同是人类,异族之间想要获得融合,也需付出巨大代价。”这可以解释为什么人类与人工智能的实现越近,恐惧与不安会更深。
不过,科学家一向反对将人工智能过度拟人化,他们认为目前没有确切证据证明它们在未来会带来像作品中的灾难性后果。
伦理学家、哲学家则坚持对人工智能的忧虑,至少可以理解为对科学技术的人文关怀。江晓原说:“要打消这个担忧,就必须论证‘人工智能不会危害人类’或者‘人工智能的危害是可控的’。”
二、人造机器会不会超越人
对于人工智能的警惕最初的焦点在于“人造的机器会超越人”。库兹韦尔在《奇点临近》中表示,一旦强人工智能实现,它可以很轻易地获得提高,其能力也会增倍,这是机器能力的根本特质。而这种自我强化的智能最终会超过人类智能水平。
世界通用人工智能学会副大大、《通用人工智能》杂志主编、美国天普大学计算机与信息科学系副教授王培认为,首先需要理清人工智能的概念。他告诉《中国科学报》记者,目前主流认知是,“人工智能”就是要在计算机上再现“全部的”人类智力功能。
虽然人们不断尝试设计和构建“思维机器”,但是往往都以失败而告终。因此,科学家转而研发只在某个特定问题的解决上可以达到人类水平的计算机系统。
在王培看来,这种研究方向的根本问题是这类系统的能力完全由人设计决定,系统本身基本上没有适应性、灵活性和创造性。因此,这类系统不是真正的智能。
一种非主流认识是,“智能”代表着某种理性原则,人类的智能从来不是全知全能,但人类总是能在任意环境中找到最优解。因此,真正的智能的定义可以抽象为“在知识和资源相对不足的条件下的适应能力”。
所谓“适应能力”是指,系统面临的问题是实时发生的,对系统作出反应的时间是有要求的;同时,相对于所要解决的问题来说,系统只有有限的信息加工能力,比如记忆的容量、计算的速度;其次,系统必须是开放的,不对面临的问题内容加以限制。
如此一来,目前人们所了解的人工智能系统都不满足这种能力。但王培认为,这才是更接近公众心目中的人工智能观念,是灵活的、有创造力的。
这类系统是一个自适应系统,元程序设计会赋予其自主应对问题的能力,但是它所面临的每一个问题本身并没有程序可以依靠,而是全凭自己在环境中学习和积累经验。
“无论计算机技术如何发展,尽管真正的人工智能系统会在很多具体问题的解决能力上超过人类,但由于它没有生物属性,没有和人类完全相同的经验,所以不会在所有方面超越人类。”王培表示,未来的人工智能系统只是在某些方面和人具有可比性,而非整体超越人类。那么,人与系统之间的关系也不可能等同于人与人之间的互动水平。
三、人工智能真的可控吗
人工智能不会全面超过人类不意味着它完全可控。就连库兹韦尔也表示,失控的人工智能在逻辑上是完全可能的。
王培承认,“智能”往往被当作褒义词,但事实上,真正的智能在拥有灵活性和创造性的同时,也可能是不稳定、不可靠的。“人工智能目标在一定程度上可以说就是减少人对计算机的控制和干预。因此,智能越高,失控的可能性在理论上就越大,风险也就越大。”
这正好印证了伦理学家的担忧。我国著名生命伦理学家邱仁宗表示,伦理学认为解决这个问题的核心,是希望人工智能机器成为一个“人工道德行动者”,使它们能考虑他人利益,甚至拥有利他主义倾向。
美国机器智能研究院专门研究人工智能的安全发展,该机构奠基人尤德科夫斯基就曾提出了“友好人工智能”的概念,认为“友善”从设计伊始就应当被注入机器的智能系统中。但这个理论很容易被推翻。“一个明显的常识是:人类无法避免自己的一部分后代学坏。”江晓原说。
王培的看法是,一个智能系统的行为同时取决于其先天条件以及后天条件。对于系统设计本身,可以在某种程度上将人类普世的道德标准编进程序。但由于它拥有自适应能力,人类无法预见其行为的所有后果。
“人工智能的‘自主决策’仍是被它的经验所约束的,如果在其‘未成年’期对其输入信息控制,以达到社会认可的动机、知识、技能结构和水平,并在其成长过程中进行与机器相关的道德、法律等社会约束,通过终生教育和社会化过程,可以实现像对人一样的管理。”
他认为,这就是平衡自由和道德的手段,然而,这个平衡并不能事先保证。这也说明人工智能一定能成为“人工道德行动者”的证据是不明确的。
四、预防还是行动
有一种观点认为,在科技发展过程中,恐惧新技术的人都会振振有词地说:到此处为止,不要再进步。
然而,由于“智能”天生就无法控制,在邱仁宗看来,人工智能对人类构成的威胁是一种“存在威胁”,即人类存在本身都成为问题,没有一项其他科技可以与之对等。
“真正带有终极性质的问题是:我们究竟为什么需要人工智能?人工智能真的必不可少吗?”江晓原认为,“没有人工智能或者限制人工智能并不会影响人类生存,它影响的是资本增值。”
这也造成在该问题上两种截然不同的处理原则。预防原则要求,我们不能用试错法来处理生存危机。如果一个行为的后果未知,但是根据科学家判断有极小可能会带来巨大的负面风险,这一行为最好不要进行;行动派则认为,很明显,这就要求科学家在战略中要尽可能提高自信以对抗这种风险。阻止新兴技术带来的好处,可能会增加灾难性结果的可能性。
尽管两者无法达成一致,但人工智能研究是人类几千年来在意识层面上自我认识的努力的最新前沿,它将不会停止发展。
“目前在这个领域的研究成果还没有成熟到支持应用技术的程度。和所有科学领域一样,把不成熟的研究成果投入实际应用是危险的,尤其是那些可能产生深远影响的成果,因此它的伦理问题很重要。”王培坦言,作为人工智能的研究者,随时想着自己研究工作的社会后果非常必要。“但人工智能技术的具体伦理规范应当随着科学研究的进展而逐渐建立,而不可能在研究成果尚未成熟的条件下完善。”
江晓原也表示,在必须发展该技术的前提下,我们应该抱着慎之又慎的心态。虽然本质上不存在能对抗强人工智能的绝对保护措施,大力增加在发展防御手段上的投入,包括道德标准、法律标准和防御技术本身都是非常必要的。
此外,在他看来,当这样一项重大科技应用有可能引发伦理和社会问题时,应对方式应该是科学与人文、科学家与公众之间展开积极的对话,而非单向的传播和顺从。

❼ 人工智能的威胁有哪些

公众已经开始将人工智能视为科学技术的第四次革命,尽管科学技术对此感到兴奋,但政治和哲学等人文学科却对此感到担忧。一方面,人类认知的核心——思考能力可能会随着对互联网的依赖而恶化。另一方面,随着人工智能技术的不断发展,未来机器人可能会无视道德、伦理和哲学规范。


作为历史学家和特邀政治家,亨利·A·基辛格长期关注阿尔法家族的发展。亨利·a·基辛格(Henry A. Kissinger)担心AlphaGo的出现。人工智能在未来会对人类的认知能力产生什么影响?2018年6月发表的一篇文章提出了人工智能可能引发的四个安全问题。


1、人工智能的威胁——人工智能可能会给人类带来意想不到的后果。


人工智能可能无法正确理解人类指令的具体语境,从而导致人工智能系统的运行偏离设计者的意图,甚至造成灾难。


2、人工智能的威胁——人工智能可能会改变人类的思维和价值观。


AlphaGo击败世界围棋冠军所用的策略是史无前例的。在学习围棋的过程中,人工智能的思维方式完全不同于人类的思维方式,改变了围棋的本质和人类传统的思维范式。


3、人工智能的威胁——人工智能可以实现既定目标,但无法解释这一过程背后的原理。


如果人工智能的计算能力继续快速发展,它可能很快就能以略微或完全不同于人类的方式优化场景。那么人工智能能够证明它的场景优化在人类能够理解的方面更好吗?如果人类意识不能以自己能够理解的方式来解释世界,它自身会发生什么?


4、人工智能的威胁——人工智能可能不是一个恰当的词


以前,智能机器人能够在人类认知能力的参与下解决问题。现在,人工智能可以用一种人类从未想过、从未采用过的“思维方式”来解决问题。例如,AlphaZero不需要注入人类游戏数据,仅通过几个小时的自我游戏训练,就达到了国际象棋大师的水平。Henry A. Kissinger, Eric Schmidt, Daniel Huttenlocher于2019年8月联合发表文章,表示人工智能的革命势不可挡。三位作者对此持乐观态度,努力理解人工智能及其后果,并积极应对。把机器可以帮助指导自身的发展,更好地提高自己解决问题的切入点,旨在讨论并提出了一些关于“人工智能将改变人类的认知真理和现实”应对不可避免的问题:建立一个新的“道德”人工智能领域;拒绝回答哲学问题的数字助理程序;人类需要进行高风险的模式识别。


以上就是《人工智能的威胁是什么?难道人类要遭遇灭顶之灾?》,目前,人工智能技术在网络安全领域的应用需求旺盛,技术优势突出,产业发展势头良好。然而,与人工智能相关的核心算法和技术还不成熟,如果你想知道更多的人工智能安全的发展,可以点击本站其他文章进行学习。

❽ 人类对于科技发展的担忧主要表现在哪些方面

人类对于科技发展的主要担忧表现在环境污染方面,随着现在科学技术的迅猛发展,现代生产的急剧增长,环境污染是日益显现出全球性人类的生存构成的危险,比如说温室效应,还有臭氧层空洞,酸雨,核放射污染等等。

❾ 人们对人工智能的担忧有没有道理

你好!
个人感觉,防患于未然完全是有必要的。