马斯克人工智能忧虑
❶ 人工智能是威胁,还是马斯克是威胁
腾讯科技讯 据外媒报道,周六在出席全美国州长协会的会议时,特斯拉CEO伊隆-马斯克(Elon Musk)强调称人工智能是“我们人类文明面临的最大威胁”,并呼吁政府迅速而坚决地进行干预,监督这项技术的发展。
“在人工智能领域,我见过最先进的人工智能技术。我想,人们真的应该担心它。”马斯克在与内华达州州长布赖恩-桑多瓦尔(Brian Sandoval)交谈时说。
很长时间以来,马斯克一直在大声疾呼人工智能的威胁。但是,他在全美国州长们面前的一席话特别令人瞩目,这不仅是因为他重点强调人工智能的巨大威胁,而且还强烈呼吁政府进行干预。
“就人工智能而言,我们需要在管制上更具有前瞻性,而不是消极应对。因为等到我们制定出人工智能管理规定的时候,已经太晚了。”他说。然后,马斯克比较了人工智能和传统管理目标,并声称,“人工智能是关系人类文明存亡的最大威胁,这是汽车事故、飞机坠毁、滥用药物或劣质食品都比不了的威胁。”
这样强烈的言辞居然来自于这样一位网络自由主义者。他具有以彼得-蒂尔(Peter Thiel)为代表的激烈反对政府管制的思想。蒂尔曾与马斯克合作创办了在线支付服务Paypal。
马斯克称,较为全面的政府管制是至关重要的,因为现在的科技公司都被逼着追求更高级的人工智能。
“在这里,管制当局需要站出来说,嘿,你们需要暂停一下,需要确保这样做是安全的。在人工智能领域,你需要管制当局来进行监管。否则,股东们就会说,为什么你不加快发展人工智能呢?因为你的竞争对手发展的速度很快。”
马斯克的部分担心来源于人工智能可能导致的社会动荡和失业。“机器人可以做任何东西,无一例外。”他说。
但是,马斯克的最大担心在于,人工智能可能被用来伤害人类。“它们可以散布假新闻,利用欺骗性的电子邮件账号发布虚假的新闻通讯稿,从而挑起战争。”他说,“笔比刀更厉害。”
例如,马斯克还提到了一种假设的情形:人工智能可以利用黑客手段和虚假信息来提高国防行业的投资,从而激起战争。
“毫无疑问,我反对政府过度管制。”马斯克强调说,“但是,对于人工智能,我们要立即加以管制。”
在长达一个小时的交流中,马斯克涉及人工智能的谈话只占了很少一部分。他还预测了无人驾驶汽车和太空旅行的发展前景,并感叹称满足他的超高期望值“让人们在感情上难以承受”,而且“要比看起来少了很多乐趣”。
❷ 霍金和马斯克是完全的人工智能悲观主义者吗
从机器伦理来讲,担忧也无可厚非。自但是他们也不是完全的人工智能悲观主义者。
在担忧未来人工智能威胁的人中,霍金和马斯克还是一直抱有一种非常积极的态度的。他们一方面基于自己的逻辑判断,相信人类未来面临机器威胁的可能性非常大;另一方面又利用自己的影响力,积极采取行动,尽可能将人工智能置于安全、友好的界限内。从这个角度讲,霍金和马斯克至少比那些盲目的悲观主义者,或因未来的不确定性而丧失勇气的怯儒者强很多很多倍。
❸ 马斯克畏惧的人工智能,结局会是《西部世界》吗
微观的自我和宏观的宇宙一样复杂。而机器是逻辑的延伸而已,不是全部的人类思想,自从有了电脑,它就一直在以代码的形式走逻辑路线,压根没变。什么时候变了,才有希望有思想。那时就了解了全部宇宙和人类自身。
❹ 为什么顶尖科学家如此担心人工智能
对人工智能,邪恶计算机的担心已经逐渐成为主流,很少有科技会议上不会有人讨论AI焦虑。霍金,比尔·盖茨都在担心,而特斯拉创始人马斯克甚至投资了1000万美元,用于研究如何让人工智能处于控制之下。
这种观点的盛行与媒体和技术的改变有关,它更多是一种猜测,甚至还有点癔想成分。但这一反应了一件事实:在我们所处的时代,人工智能已经成了生活的一部分。计算机控制着飞机,过不了多久也许能驾驶汽车了;算法会了解我们的需求,并展示针对性广告;机器还能从人群中识别出我们的脸。基因工程和纳米技术等新领域不错发展并融合,我们不知道它们会产生怎么样的结果,部分严肃的人担心潜在的危害,怀疑我们能否控制自己的发明。
❺ 马斯克让人类成为AI,然后制约AI的野心,可行吗
这要看未来的技术到底是怎么发展了。
作为一个技术狂热分子,马斯克表现出了自己的一些矛盾面——他似乎同时也是个AI悲观主义者。在这场汇聚着全球顶级智慧的大会上,他表示,按照目前AI的发展速度,用不了多久,人工智能就会在认知能力和智力上全面超越人类。最严重的后果莫过于爆发战争,人类被人工智能毁灭。而即使在最“无害”的情况下,由于人工智能的智力程度和工作效率远超过人类,人类的社会地位也迟早会被AI取代。
人工智能的定义可以分为两部分,即“人工”和“智能”。“人工”比较好理解,争议性也不大。有时我们会要考虑什么是人力所能及制造的,或者人自身的智能程度有没有高到可以创造人工智能的地步,等等。但总的来说,“人工系统”就是通常意义下的人工系统。
❻ 马斯克真的反感人工智能吗
不过这样的言论,也并非毫无意义。假如真有这么一天,机器人如这马斯克所说般崛起,可以取代人类的一切劳动,无论是体力上,还是脑力上的劳动,那么作为人类存在的价值,究竟是什么?当人类向半机器半人类方向“进化”时,是否只是为了跟机器竞争抢饭碗而已?
以此作为切入点,反思人工智能革命未必不是一个好角度。人类自身存在的意义与价值究竟是什么?或许,这才是马斯克“末日言论”背后最值得深思的问题。
❼ 钢铁侠马斯克为什么害怕人工智能武器
要分清楚的是,马斯克等人呼吁的是禁用智能武器,而非禁止制造,理由是:智能武器有可能让战争形态发生第三次革命,升级换代为智能武器战争。一旦智能武器大规模投入使用并升级换代(这在信息时代是非常容易的),可能导致武装冲突规模比以往任何时候都更大,而且速度比人类所能理解的还要快,所有人都面临灭顶之灾。所以,联合国现在必须采取行动,禁止智能武器的使用。
鲁迅曾说,翻开历史一查,每一页上都写着仁义道德,但仔细看下去,满本都写着两个字——吃人。其实,换成杀人更为准确,因为人类走过来的历史战争时间远远远多于和平时间。
从《剑桥战争史》到各种版本的《世界史》对人类有史以来的战争有过多种统计,其中一种统计是,从公元前3200年到公元1964年这5164年中,世界上共发生战争14513次,只有329年是和平的。这些战争导致36.4亿人丧生,造成的财富损失折合成黄金可以铺一条宽150千米、厚10米、环绕地球一周的金带。
战争就是杀人,杀人需要武器。以武器来衡量,人类的战争经历了冷兵器、热兵器(包括核武器),现在将要走向智能武器,后者被视为将引发第三次战争革命。至于化学武器、生物武器其实使用的并不多,所以未单独分类。第三次战争革命可以称为智能兵器战争,这在马斯克等人看来是比包括核武器在内的热兵器战争更能完全毁灭人类,因此需要未雨绸缪。
❽ 马斯克为什么会说,用不了多久人类和人工智能会爆发战争,而且人类会被人工智能_灭
1、可以很负责任的说,目前,几乎全部的人工智能模型,包括Google的,网络的等等等,全都是数学模型,如果数学没有突然取得了质的飞越,加上生物神经学的飞越发展,人工智能一百年二百年都不会有“智力”,“人工智能”的概念什么时间提出来的你知道吗?1956年,AI(Artificial Intelligence )概念最早1956年在达特茅斯会议上提出。1956年距今多少年了?63年,最近为什么突然取得了一点进展?因为GPU的发展,GPU突然有了大的进步,可以用来跑程序运算了,这才有了一点进展。
2、“用不了多久”针对地球的发展进程来说,可能的确没多久,500年1000年也没多久,近一二百年内,人工智能远远不会威胁到人类的生存。
❾ 马斯克,为什么要炒作"人工智能威胁论
因为人工智能在不久的将来将会成为一个比人类高级的物种,灾难可以躲避!但我们躲到哪敌人就会追到哪