㈠ 全国民事案件诉讼查询

查询步骤如下:

1、登录中国裁判文书网,如图:

㈡ 杭州互联网法院如何网上审理案件

8月18日上午,杭州互联网法院正式揭牌,成为中国首家互联网法院。那么“网上的案件”如何“网上审”?

这是杭州互联网法院揭牌当天开庭审理的一起案件:法官独自一人坐在审判台上,通过面前的一块大屏幕与诉讼双方交流。大约20分钟后,法官敲响法槌,庭审结束。

杭州互联网法院副院长表示,通过互联网审理案件,打破了时间和空间的限制,把很多以前需要在庭审中完成的环节前移到开庭之前完成。庭审时集中对双方有争议的焦点问题展开调查辩论,可以有效节约庭审时间。

杭州互联网法院院长表示,为了破解诉讼主体身份确认难、当事人在线质证难、在线行为控制难等网络审判难题,杭州互联网法院形成了一套以诉讼平台操作规程和网络视频庭审规范为中心的程序规则,完善网络司法缺席审判制度,维护网络司法权威。

“在审判团队方面,把不同专业背景的人聚集起来,实现司法业务和计算机技术的理念互通,让法官从法律人才成长为熟悉法律、拥抱互联网、懂得互联网技术的复合型人才。”杜前说。

人工智能应用在哪些方面呢能举几个典型的例子吗

1.智能机器人 智能机器人是一种具有感知能力、思维能力和行为能力的新一代机器人。这种机器人能够主动适应外界环境变化,并能够通过学习丰富自己的知识,提高自己的工作能力。目前,已研制出了肢体和行为功能灵活,能根据思维机构的命令完成许多复杂操作,能回答各种复杂问题的机器人。
2.智能网络 智能网络方面的两个重要研究内容分别是智能搜索引擎和智能网格。智能搜索引擎是一种能够为用户提供相关度排序、角色登记、兴趣识别、内容的语义理解、智能化信息过滤和推送等人性化服务的搜索引擎。智能网格是一种与物理结构和物理分布无关的网络环境,它能够实现各种资源的充分共享,能够为不同用户提供个性化的网络服务。可以形象地把智能网格比喻为一个超级大脑,其中的各种计算资源、存储资源、通信资源、软件资源、信息资源、知识资源等都像大脑的神经元细胞一样能够相互作用、传导和传递,实现资源的共享、融合和新生。
3.智能检索 智能检索是指利用人工智能的方法从大量信息中尽快找到所需要的信息或知识。随着科学技术的迅速发展和信息手段的快速提升,在各种数据库,尤其是因特网上存放着大量的、甚至是海量的信息或知识。面对这种信息海洋,如果还用传统的人工方式进行检索,已经很不现实。因此,迫切需要相应的智能检索技术和智能检索系统来帮助人们快速、准确、有效地完成检索工作。
4.智能游戏 游戏是一种娱乐活动。游戏技术与计算机技术结合产生了“计算机游戏”或“视频游戏”,与网络技术结合产生了“网络游戏”,与人工智能技术结合产生了智能游戏

㈣ 弱人工智能的举例,不少于十个例子

语音来识别,图像识别,图像审源核,图像效果增强,文字识别,人脸识别,人体分析,语音合成,文本审核,智能写作,等等
具体例子(分别与上面对应):语音输入,网络查图片,社交网站发图片审核是否有本性或者敏感的内容,黑白图像上色,录入手写文字,验证是不是同一个人,人像抠图,文字播报或者是导航地图的语音,信息筛查,智能生成春联,等等
还有比如:智能音箱,火车站检测过往的人是否发热(不用一个一个仪器扫描),无人驾驶,阿尔法狗下围棋,刷脸支付,等等
如果我没有解决你的问题,请继续追问
求点赞,谢谢谢谢你了

㈤ 国内目前将人工智能的深度学习技/术与银行反欺诈相结合的成功案/例有哪些

国内目前将人工智能的深度学习技术与银行反欺诈相结合的应用还比较少,一内些征信类公司容开始通过提供丰富的外部数据资源来为银行提供反欺诈技术支持。例如前海征信产品部门基于Encoder-Decoder深度学习技术框架设计的智能风控专家机器人,可以应用于银行业风控反欺诈领域,解释贷款产品特性、借款人风险识别、贷款产品政策等各类问题,高效智能地服务信贷审批、贷后风控管理和资产组合经理,提升信贷产品审批速度,降低客户违约率,防范贷款欺诈风险。同时,一些金融科技企业也正在与银行合作。例如天云大数据近期就利用其模型算法训练平台(MaximAI)为光大银行提供反欺诈方面的技术支持。基于样本数据进行一站式的模型算法训练、验证以及输出。训练完成的模型算法程序,被输出到欺诈分析引擎中,运行于大数据平台技术上,实现了实时在线对交易数据进行欺诈识别。

㈥ 人工智能在生活中应用的例子

1、虚拟个人助理

Siri,GoogleNow和Cortana都是各种渠道(iOS,Android和WindowsMobile)上的智能数字个人助理。

总归,当你用你的声响提出要求时,他们会协助你找到有用的信息;你能够说“最近的我国饭馆在哪里?”,“今日我的日程安排是什么?”,“提醒我八点打电话给杰里”,帮手会经过查找信息,转播手机中的信息或发送指令给其他应用程序。

人工智能在这些应用程序中十分重要,由于他们搜集有关恳求的信息并运用该信息更好地辨认您的言语并为您供给适合您偏好的结果。

微软标明Cortana“不断了解它的用户”,而且终究会开展出猜测用户需求的能力。虚拟个人助理处理来自各种来历的许多数据以了解用户,并更有效地协助他们组织和跟踪他们的信息。

2、视频游戏

事实上,自从第一次电子游戏以来,视频游戏AI现已被运用了很长一段时间-人工智能的一个实例,大多数人可能都很熟悉。

可是AI的复杂性和有效性在曩昔几十年中呈指数级添加,导致视频游戏人物了解您的行为,呼应刺激并以不行预知的方法做出反应。2014年的中心地球:魔多之影关于每个非玩家人物的个性特征,他们对曩昔互动的回想以及他们的可变方针都特别有目共睹。

“孤岛惊魂”和“使命呼唤”等第一人称射击游戏或许多运用人工智能,敌人能够剖析其环境,找到可能有利于其生存的物体或举动;他们会点赞保护,查询声响,运用侧翼演习,并与其他AI进行沟通,以添加取胜的时机。

就AI而言,视频游戏有点简略,但由于职业巨大的商场,每年都在投入许多精力和资金来完善这种类型的AI。

3、在线客服

现在,许多网站都提供用户与客服在线聊天的窗口,但其实并不是每个网站都有一个真人提供实时服务。在很多情况下,和你对话的仅仅只是一个初级AI。大多聊天机器人无异于自动应答器,但是其中一些能够从网站里学习知识,在用户有需求时将其呈现在用户面前。

最有趣也最困难的是,这些聊天机器人必须擅于理解自然语言。显然,与人沟通的方式和与电脑沟通的方式截然不同。所以这项技术十分依赖自然语言处理(NLP)技术,一旦这些机器人能够理解不同的语言表达方式中所包含的实际目的,那么很大程度上就可以用于代替人工服务。

4、购买预测

如果京东、天猫和亚马逊这样的大型零售商能够提前预见到客户的需求,那么收入一定有大幅度的增加。亚马逊目前正在研究这样一个的预期运输项目:在你下单之前就将商品运到送货车上,这样当你下单的时候甚至可以在几分钟内收到商品。

毫无疑问这项技术需要人工智能来参与,需要对每一位用户的地址、购买偏好、愿望清单等等数据进行深层次的分析之后才能够得出可靠性较高的结果。

虽然这项技术尚未实现,不过也表现了一种增加销量的思路,并且衍生了许多别的做法,包括送特定类型的优惠券、特殊的打折计划、有针对性的广告,在顾客住处附近的仓库存放他们可能购买的产品。

这种人工智能应用颇具争议性,毕竟使用预测分析存在隐私违规的嫌疑,许多人对此颇感忧虑。

5、音乐和电影推荐服务

与其他人工智能系统相比,这种服务比较简单。但是,这项技术会大幅度提高生活品质的改善。如果你用过网易云音乐这款产品,一定会惊叹于私人FM和每日音乐推荐与你喜欢的歌曲的契合度。

从前,想要听点好听的新歌很难,要么是从喜欢的歌手里找,要么是从朋友的歌单里去淘,但是往往未必有效。喜欢一个人的一首歌不代表喜欢这个人的所有歌,另外有的时候我们自己也不知道为什么会喜欢一首歌、讨厌一首歌。

而在有人工智能的介入之后,这一问题就有了解决办法。也许你自己不知道到底喜欢包含哪些元素的歌曲,但是人工智能通过分析你喜欢的音乐可以找到其中的共性,并且可以从庞大的歌曲库中筛选出来你所喜欢的部分,这比最资深的音乐人都要强大。

电影推荐也是相同的原理,对你过去喜欢的影片了解越多,就越了解你的偏好,从而推荐出你真正喜欢的电影。

(6)互联网人工智能纠纷案例扩展阅读

人工智能应用领域

机器翻译,智能控制,专家系统,机器人学,语言和图像理解,遗传编程机器人工厂,自动程序设计,航天应用,庞大的信息处理,储存与管理,执行化合生命体无法执行的或复杂或规模庞大的任务等等。

值得一提的是,机器翻译是人工智能的重要分支和最先应用领域。不过就已有的机译成就来看,机译系统的译文质量离终极目标仍相差甚远;而机译质量是机译系统成败的关键。

中国数学家、语言学家周海中教授曾在论文《机器翻译五十年》中指出:要提高机译的质量,首先要解决的是语言本身问题而不是程序设计问题;单靠若干程序来做机译系统,肯定是无法提高机译质量的。

另外在人类尚未明了大脑是如何进行语言的模糊识别和逻辑判断的情况下,机译要想达到“信、达、雅”的程度是不可能的。智能家居之后,人工智能成为家电业的新风口,而长虹正成为将这一浪潮掀起的首个家电巨头。

长虹发布两款CHiQ智能电视新品,主打手机遥控器、带走看、随时看、分类看功能 。

㈦ 人工智能打败人类例子

最经典的应该就是阿尔法狗人工智能围棋打败多个世界顶尖的围棋棋手

㈧ 人工智能技术能够解决商业问题的例子有哪些

人工智能技术可以解决的商业问题其实有很多的,比如有:
1、智能客服,智能客服主要的工作就是在人工换班或者是等待人太多的时候为客户解决问题的。
2、智能机器人,因为这种机器人是拥有简单的智力并且可以自己移动,所以这种机器人可以做的工作非常多,比如可以提醒我们做一些事情,可以帮助做一些家务等等。
3、智能机械,现在工厂中为了避免出现疲劳工作,进而发生事故的情况,会使用一些智能的机械来代替人工工作,不但可以长期的工作,不知疲劳,还可以保证合格率。
实际上,人工智能技术可以做的事情有很多,不过由于现在还有一些没有实现,所以在这里就不多介绍了,不过随着人工智能的慢慢发展,不断的研究,相信在以后会有更多的智能产品,来给人们的生活带来更多的体验。那下面就分享一些人工智能的知识,希望可以让大家更了解人工智能。
首先从自然语言处理原理到进阶实战的词向量与词嵌入方面来看TFIDF、Word2Vec算法、 Gensim模块、Skip-gram、TF代码实现Word2Vec算法项目、FastText、Word Embedding、深度学习用户画像项目。
然后从自然语言处理原理到进阶实战的循环神经网络原理与优化方面来看有Vanilla RNN、Basic RNN实现MNIST手写数字图片识别、LSTM长短时记忆、GRU与双向LSTM、电影评论情感分析案例、Seq2Seq、机器写唐诗案例、CNN+LSTM+CRF、POS tagging词性标注案例、 NER命名实体识别案例、 孪生网络、语义相似度分析案例。
最后从自然语言处理原理到进阶实战的Transformer和Bert方面来看有Attention注意力机制、Attention算法流程、Transformer、Self-Attention机制、Multi-Head Attention、Bert、Bert as service开源项目。
还有概率图模型算法的贝叶斯分类有朴素贝叶斯分类器、拉普拉斯估计代码实战垃圾邮件分类;HMM算法有马尔可夫过程、初始概率、转移概率、发射概率、 隐含马尔可夫模型原理、维特比算法;最大熵模型有熵、条件熵、相对熵、互信息、最大熵模型算法原理、有约束条件的函数最优化问题、最大熵和最大似然估计关系、IIS算法;CRF算法有条件随机场的性质条件随机场的判别函数条件随机场的学习条件随机场的推断CRF与HMM关系。

㈨ AI人工智能目前能实际解决企业什么问题

什么是AI?

从SIRI到自动驾驶汽车,人工智能(AI)正在迅速发展。虽然科幻小说经常将AI描绘成具有类似人类特征的机器人,但AI可以涵盖从谷歌的搜索算法到IBM的沃森到自动武器的任何东西。

今天的人工智能被恰当地称为窄AI(或弱AI),因为它被设计用于执行狭窄的任务(例如,仅面部识别或仅互联网搜索或仅驾驶汽车)。然而,许多研究人员的长期目标是创建 通用AI(AGI或强AI)。虽然狭窄的人工智能在任何特定任务中都可能胜过人类,比如下棋或解决方程式,但AGI在几乎所有认知任务中都会胜过人类。

为何研究AI安全性?

在短期内,保持AI对社会影响的目标有助于研究许多领域的研究,从经济学和法律到技术主题,如验证,有效性,安全性和控制。如果你的笔记本电脑崩溃或遭到黑客攻击,它可能只是一个小麻烦,如果它控制你的汽车,你的飞机,你的心脏起搏器,你的自动交易,人工智能系统做你想要它做的事情变得更加重要系统或您的电网。另一个短期挑战是防止在致命的自主武器中进行毁灭性的军备竞赛。

从长远来看,一个重要的问题是如果追求强大的AI成功并且AI系统在所有认知任务中变得比人类更好,会发生什么。正如IJ Good在1965年指出的那样,设计更智能的AI系统本身就是一项认知任务。这样的系统可能会经历递归的自我改善,引发智能爆炸,使人类的智力远远落后。通过发明革命性的新技术,这种超级智能可以帮助我们 消除战争,疾病和贫困,因此创建强大的人工智能可能是人类历史上最大的事件。然而,一些专家表示担心,它可能也是最后一个,除非我们在成为超级智能之前学会将人工智能的目标与我们的目标保持一致。

有人质疑是否会实现强大的人工智能,而其他人则坚持认为创造超智能人工智能是有益的。在FLI,我们认识到这两种可能性,但也认识到人工智能系统有意或无意地造成巨大伤害的可能性。我们相信今天的研究将有助于我们更好地准备和预防未来可能产生的负面影响,从而在避免陷阱的同时享受人工智能带来的好处。

人工智能如何危险?

大多数研究人员认为,超级智能人工智能不太可能表现出像爱情或仇恨这样的人类情感,并且没有理由期望人工智能成为故意的仁慈或恶意。 相反,在考虑人工智能如何成为风险时,专家认为最有可能出现两种情况:

人工智能被编程为做一些毁灭性的事情: 自主武器是人工智能系统,可编程杀死。在错误的人手中,这些武器很容易造成大规模伤亡。此外,人工智能军备竞赛可能无意中导致人工智能战争,也导致大规模伤亡。为了避免被敌人挫败,这些武器的设计极难“简单地”关闭,因此人类可能会失去对这种情况的控制。即使人工智能狭窄,这种风险也会出现,但随着人工智能和自主性水平的提高而增加。AI被编程为做一些有益的事情,但它开发了一种实现其目标的破坏性方法: 只要我们未能完全将AI的目标与我们的目标完全一致,就会发生这种情况,这非常困难。如果你要求一辆听话的智能汽车尽可能快地带你去机场,它可能会让你在那里被直升机追赶并被呕吐物覆盖,不是你想要的,而是字面意思你所要求的。如果一个超级智能系统的任务是一个雄心勃勃的地球工程项目,它可能会对我们的生态系统造成严重破坏,并将人类企图阻止它作为一种威胁来实现。

正如这些例子所示,对高级AI的关注不是恶意,而是能力。 超级聪明的AI将非常善于实现其目标,如果这些目标与我们的目标不一致,我们就会遇到问题。你可能不是一个邪恶的蚂蚁憎恨蚂蚁出于恶意,但如果你负责一个水电绿色能源项目,并且该地区有一个蚁丘被淹,对蚂蚁来说太糟糕了。人工智能安全研究的一个关键目标是永远不要将人类置于这些蚂蚁的位置。

为什么最近对AI安全感兴趣

史蒂芬霍金,伊隆马斯克,史蒂夫沃兹尼亚克,比尔盖茨以及许多其他科技界知名人士最近都在媒体和关于人工智能所带来的风险的公开信中表达了关注,并由许多领先的人工智能研究人员加入。为什么主题突然成为头条新闻?

追求强大的人工智能最终会成功的想法长期被认为是科学小说,几个世纪或更远。然而,由于最近的突破,许多人工智能的里程碑,专家们在五年前就已经看到了几十年之后,现在已经达成,使许多专家认真考虑了我们一生中超级智能的可能性。 虽然一些专家仍然认为人类人工智能已经过了几个世纪,但2015年波多黎各会议上的大多数人工智能研究都猜测它会在2060年之前发生。由于完成所需的安全研究可能需要数十年的时间,因此现在开始审慎。

因为AI有可能变得比任何人都更聪明,我们没有可靠的方法来预测它的表现。我们不能将过去的技术发展作为基础,因为我们从来没有创造出任何有能力,无意或无意地超越我们的能力。我们可能面临的最好例子可能是我们自己的进化。人们现在控制着这个星球,不是因为我们是最强大,最快或最大的星球,而是因为我们是最聪明的。如果我们不再是最聪明的,我们是否有信心保持控制?

FLI的立场是,只要我们赢得不断增长的技术力量和我们管理它的智慧之间的竞争,我们的文明就会蓬勃发展。在人工智能技术的情况下,FLI的立场是,赢得该种族的最佳方式不是阻碍前者,而是通过支持人工智能安全研究来加速后者。

关于高级AI的最高神话

关于人工智能的未来以及它对人类应该/应该意味着什么,正在进行一场引人入胜的对话。世界领先的专家不同意这些引人入胜的争议,例如:AI未来对就业市场的影响; if /何时开发人类AI?这是否会导致情报爆炸; 以及这是否是我们应该欢迎或担心的事情。但是,也有许多由人们误解和相互交谈引起的无聊伪争议的例子。为了帮助我们专注于有趣的争议和悬而未决的问题 - 而不是误解 - 让我们清楚一些最常见的神话。

时间线神话

第一个神话是关于时间表:在机器大大取代人类智能之前需要多长时间?一个常见的误解是我们非常确定地知道答案。

一个流行的神话是,我们知道本世纪我们将获得超人类AI。事实上,历史充满了技术上的过度膨胀。那些聚变发电厂和飞行汽车在哪里我们承诺我们现在已经拥有?人工智能在过去也曾多次被大肆宣传,甚至还有一些该领域的创始人。例如,约翰麦卡锡(创造“人工智能”一词),马文明斯基,纳撒尼尔罗切斯特和克劳德香农写了这个过于乐观的预测,关于在两个月内用石器时代计算机可以完成什么: “我们建议2个月,1956年夏天在达特茅斯学院进行了10人的人工智能研究[...] 将尝试找到如何使机器使用语言,形成抽象和概念,解决现在为人类保留的各种问题,并改进自己。我们认为,如果一个精心挑选的科学家团队在一起度过一个夏天,就可以在一个或多个这些问题上取得重大进展。“

另一方面,一个流行的反神话是我们知道本世纪我们不会得到超人的AI。研究人员已经对我们与超人AI的距离进行了广泛的估计,但鉴于这种技术怀疑预测的惨淡记录,我们当然不能非常自信地说本世纪的概率为零。例如,欧内斯特卢瑟福,可以说是他那个时代最伟大的核物理学家,在1933年 - 在西拉德发明核链反应之前不到24小时 - 说核能是“月光”。天文学家皇家理查德伍利称行星际旅行“完全是这个神话中最极端的形式是超人AI永远不会到来,因为它在身体上是不可能的。然而,

有许多调查要求人工智能研究人员从现在起多少年后他们认为我们将拥有至少50%概率的人类AI。所有这些调查都有相同的结论:世界领先的专家不同意,所以我们根本不知道。例如,在2015年波多黎各人工智能会议的人工智能研究人员调查中,平均(中位数)答案是在2045年,但一些研究人员猜测数百年或更长时间。

还有一个相关的神话,担心人工智能的人认为只有几年之后。事实上,大多数记录在案的超人类人工智能的人都认为它至少还需要几十年的时间。但他们认为,只要我们不能100%确定本世纪不会发生这种情况,现在就开始进行安全研究以准备应对可能性是明智之举。与人类AI相关的许多安全问题非常困难,可能需要数十年才能解决。所以现在开始研究它们是谨慎的,而不是在一些喝红牛的程序员决定开启之前的那个晚上。

争议神话

另一个常见的误解是,唯一关心人工智能和提倡人工智能安全研究的人是对人工智能知之甚少的人。当标准人工智能教科书的作者斯图尔特罗素在他的波多黎各谈话中提到这一点时,观众大声笑了起来。一个相关的误解是,支持人工智能安全研究存在巨大争议。事实上,为了支持对人工智能安全研究的适度投资,人们不需要确信风险很高,只是不可忽视 - 正如家庭保险的适度投资可以通过不可忽视的房屋概率来证明烧毁。

可能是媒体使人工智能安全辩论似乎比实际上更具争议性。毕竟,恐惧销售,使用不合情理的引用来宣告即将到来的厄运的文章可以产生比细微差别和平衡的更多的点击。结果,两个只从媒体报价中了解彼此立场的人可能会认为他们不同意他们的不同意见。例如,一位只阅读比尔盖茨在英国小报中的立场的技术怀疑论者可能错误地认为盖茨认为超级智能即将来临。同样地,除了他关于火星人口过剩的引言之外,有益于人工智能运动的人对安德鲁·吴的立场一无所知可能会错误地认为他并不关心人工智能的安全性,而事实上,他确实如此。问题的关键在于,因为Ng的时间表估计更长,

关于超人AI风险的误区

许多人工智能研究人员在看到这个标题时翻了个白眼:“ 斯蒂芬霍金警告说,机器人的崛起对人类来说可能是灾难性的。”而且许多人已经忘记了他们看过多少类似的文章。通常情况下,这些文章伴随着一个携带武器的邪恶机器人,他们建议我们应该担心机器人上升并杀死我们,因为他们已经变得有意识和/或邪恶。更轻松的是,这些文章实际上相当令人印象深刻,因为它们简洁地总结了AI研究人员不 担心的情景。这种情况结合了多达三种不同的误解:对意识,邪恶和 机器人的关注。

如果你在路上开车,你会有一种主观的色彩,声音等体验。但是自动驾驶汽车是否有主观体验?是否有任何想成为自动驾驶汽车的感觉?虽然这种意识之谜本身就很有趣,但它与AI风险无关。如果你受到无人驾驶汽车的打击,那么它是否主观上是否有意识对你没有任何影响。同样地,影响我们人类的是超智能AI 所做的事情 ,而不是主观感受。

机器变坏的恐惧是另一个红鲱鱼。真正的担忧不是恶意,而是能力。根据定义,超级智能AI非常擅长实现其目标,无论它们是什么,因此我们需要确保其目标与我们的目标一致。人类通常不讨厌蚂蚁,但我们比他们更聪明 - 所以如果我们想要建造一座水电大坝并且那里有一个蚁丘,对蚂蚁来说太糟糕了。有益的人工智能运动希望避免将人类置于那些蚂蚁的位置。

意识误解与机器无法实现目标的神话有关。机器显然可以在狭义上展现出目标导向的行为目标:寻求热量导弹的行为在经济上被解释为达到目标的目标。如果您感觉受到与您的目标不对齐的机器的威胁,那么正是这种狭隘意义上的目标让您感到麻烦,而不是机器是否有意识并且体验到目的感。如果那个寻热导弹追你,你可能不会惊呼:“我并不担心,因为机器没有目标!”

我同情罗德尼布鲁克斯和其他机器人先驱者,他们被恐吓小报感到不公平,因为有些记者似乎过分注重机器人,并用红色闪亮的眼睛用邪恶的金属怪物装饰他们的许多文章。事实上,有益的人工智能运动的主要关注点不在于机器人,而在于智能本身:特别是智力,其目标与我们的目标不一致。为了给我们带来麻烦,这种错位的超人情报不需要机器人的身体,只需要一个互联网连接 - 这可能使智能金融市场超越,发明人类研究人员,操纵人类领导者,开发我们甚至无法理解的武器。即使建造机器人在物理上是不可能的,

机器人误解与机器无法控制人类的神话有关。智能使控制:人类控制老虎不是因为我们更强壮,而是因为我们更聪明。这意味着如果我们在地球上放弃我们最聪明的地位,我们也有可能放弃控制权。