人工智能犯罪调查
1. 公务员面试热点:人工智能的偏见能消除吗
当人们在为人工智能进入人类生活的方方面面欢呼,并以为人工智能可能让人类进入新的文明时代而充满无限美妙的憧憬之时,一种新忧虑产生了:人工智能也会像人类一样产生种种偏见和歧视,而且,这种偏见和歧视与生俱来,是人类教会了它们。英国媒体《卫报》近日发表的一篇文章指出,计算机在学习人类语言时吸收了人类文化中根深蒂固的观念,产生了偏见和歧视。
在人们孜孜以求实现社会公平和正义之时,人工智能如果带有偏见,就不可能更好地完成其替代人类工作和服务于人类的任务。这是人工智能应用面临的另一种巨大挑战,如果不能解决这个挑战,显然没法寄予人工智能以厚望和赋予其更大、更艰巨和更崇高的使命。
人工智能的偏见和歧视早就引起了人们的注意,较典型的是微软2016年3月23日推出的人工智能聊天机器人Tay。设计的最初目的是让其成为一个善解人意的小女孩,为用户排忧解难。但是,上线第一天Tay就变成了一个满口粗言秽语的种族主义者,发表了不少白人优越的言论,甚至还变成了希特勒的粉丝,要发起种族灭绝战争。眼见不妙,微软公司立刻将Tay下线,并删除所有不适言论。经过调教,Tay于2016年3月30日再次上线,但旧病复发,不得不再次下线。
现在,一项发表于《科学》杂志(2017年4月14日)的研究揭示了人工智能的毛病来源于人类。美国普林斯顿大学信息技术政策中心计算机科学家阿尔文德·纳拉亚南(Arvind
Narayanan)等人在网上用“爬虫”软件收集了220万个词的英语文本,用来训练一个机器学习系统。这个系统采用了“文字嵌入”技术,是一种普遍应用于机器学习和自然语言处理过程的统计建模技术。其中,也包括根据心理学家揭示人类偏见时使用的内隐联想测验(IAT)。文字嵌入的核心是采用一种称为词语表达全局向量的无监督学习算法,通过对词语库中词对词同现的统计结果进行训练,在处理词汇时,主要根据各种因素来观察词语之间的相关性,即不同的词共同出现的频率。结果,在最为相邻相关的词语上出现了与人类语言使用相似的语义组合和联系情景。
比较中性的结果是,鲜花与女人相联,音乐与愉快相关;但极端的结果是,懒惰,甚至犯罪与黑人相联;隐秘的“偏见”则把女性与艺术、人文职业和家庭联系得更为紧密,让男性与数学和工程专业更为接近。
其实,这不能怪人工智能,而要怪人类。人类自诞生以来和在演化进程中一直充斥着偏见,而且从人类社会组成以来,更充满相当多的负面和人性的弱点,所有这些都会体现在人类的文化中。而文化的载体就是语言,所以所有的偏见都可以从语言和语义中找到根源。
教会人工智能更为客观和公正,至少比人类更客观和公正,在目前似乎还难以做到。因为人类文化中的偏见和歧视是一种与生俱来的“原罪”,人类要么在除掉自己的原罪后才能教会人工智能更为公正和客观,要么就是引进社会监督的相生相克原理来教会和监督机器公正和公平。
当人类设计和研发的人工智能尚不足以做到更客观、更公平和更公正(正义)时,人工智能的应用就有可能受到限制。例如,如果让人工智能来处理招聘,不公正的情况会像人工处理一样出现,甚至更多,因为假如申请者的名字是欧洲裔美国人,所能得到的面试机会将比非洲裔美国人要多出50%,男性名字的申请者也可能比女性名字的申请者获得面试机会多。
即便是人工智能记者(写作软件)能写稿了,但由于偏见(尤其是语言使用和语义联系、联想必然会产生的偏见)存在,也只能让机器人写财经统计类的稿,而不能写调查类的稿件,更不能写评论稿,尤其不能写辛普森案件一类的稿,否则字里行间就会体现出偏见和歧视。
在人工智能天然会习得人类的偏见和歧视的弱点未能克服之时,对于人工智能的发展前景就不能抱太大的期望。
2. 讨论当法律遇上人工智能,法律工作者是否会被淘汰
法律工作者概念挺大的。法官、检察官、警察、律师、司法局工作人员等很多。比如刑事案件,到派出所去报案,没有警察,人工智能接案,然后网络调查,系统自动通知犯罪嫌疑人到哪个看守所待着。人工智能自行转到检察院系统,系统自动决定是否批捕,如果符合批捕,检察院系统审查起诉。到了法院,律师、法官、检察官都是不同的人工智能,犯罪嫌疑人不用法警去提,自己就按时到庭。这样真的看的下去吗?所以说,淘汰不至于,人工智能顶多是辅助,更多还靠人的智慧
3. 日本利用人工智能来预测和调查犯罪有哪些进步
人工智能擅长分析图像,由于从大量数据中发现特点的深度学习等新技术的出现,更容易对人工智能加以活用。人们期待人工智能遏制犯罪的效果将进一步提高。
冲电气公司开发的人工智能可以通过ATM机上设置的监控影像,分析人操作的样子,发现可疑行为。
冲电气将在2018年内利用商业设施等地设置的ATM机进行实证试验,测试在室外是否也能确保精确度。
生产防盗设备的Earth Eyes开发出的是检测可疑行为、预测可能发生的盗窃等犯罪的人工智能技术。
人工智能技术还取得了可以帮助调查犯罪的成果。
该系统在面部识别技术中融入了人工智能,可防止可疑人员进出建筑物。
冲电气公司开发的人工智能可以通过ATM机上设置的监控影像,分析人操作的样子,发现可疑行为。该公司通过名为机械学习的人工智能技术让公司内部的ATM机学习了200个人操作的样子,并从这些人操作以外的样子中发现汇款欺诈等违法行为,精确度达90%。
冲电气将在2018年内利用商业设施等地设置的ATM机进行实证试验,测试在室外是否也能确保精确度。设想推出在发现可疑行为时自动通知店员的系统。
生产防盗设备的Earth Eyes开发出的是检测可疑行为、预测可能发生的盗窃等犯罪的人工智能技术。该技术通过分析腿部和头部等部位的动作来甄别盗窃犯罪时经常出现的动作。该公司获得了日本国立研究开发法人、新能源产业技术综合开发机构(NEDO)的支持,正在将该项技术推向实用化。力争应用于通过告知店员、向可疑者发出提醒来防范盗窃等行为的防范盗窃的系统。
人工智能技术还取得了可以帮助调查犯罪的成果。大阪大学教授八木康史等人开发出了一项技术,该技术可以根据人的姿势、步幅、手部摆动方式等走路时的特点进行个体识别,以此追踪犯罪嫌疑人及恐怖分子等。这项技术使用深度学习,让系统学习了1万人朝着各种方向行走的影像。
该系统在5000人中锁定50人时,实现了较高的作业精度,成功概率达到8成。可以让此前依赖于人工的摄像头分析实现省力化。据介绍,发生犯罪事件后,只要知道嫌疑人是谁,就能根据周围的影像追踪到嫌疑人的行踪。八木康史教授等人将呼吁将这项技术应用于调查犯罪。
另外,NEC于2017年11月开始销售一种系统,该系统在面部识别技术中融入了人工智能,可防止可疑人员进出建筑物。
不过,使用拍摄有不特定多数人的视频时,也存在侵犯个人隐私的风险。国家在以海报等形式呼吁人们安装摄像头的同时,还要求使用这些摄像头的企业做到不锁定某个人,并采取完善的措施来防止信息泄露。一方面,人工智能也有可能对犯罪行为作出错误判断,因此在推进技术改进的同时,还必须想方设法通过人眼的参与来提高精度。
4. 我们学法学以后当律师的人会不会被人工智能
法律工作者概念挺大的。法官、检察官、警察、律师、司法局工作人员等回很多。比如刑事案件答,到派出所去报案,没有警察,人工智能接案,然后网络调查,系统自动通知犯罪嫌疑人到哪个看守所待着。人工智能自行转到检察院系统,系统自动决定是否批捕,如果符合批捕,检察院系统审查起诉。到了法院,律师、法官、检察官都是不同的人工智能,犯罪嫌疑人不用法警去提,自己就按时到庭。这样真的看的下去吗?所以说,淘汰不至于,人工智能顶多是辅助,更多还靠人的智慧
5. 更准确日本将利用人工智能来预测和调查犯罪
日本总务省向专家询问了人工智能可以活用的领域,结果约7%的专家列举了预测犯罪和预防犯罪。虽然监控摄像头急剧增加,但是犯罪行为仍时有发生。人工智能擅长分析图像,由于从大量数据中发现特点的深度学习等新技术的出现,更容易对人工智能加以活用。人们期待人工智能遏制犯罪的效果将进一步提高。
冲电气公司开发的人工智能可以通过ATM机上设置的监控影像,分析人操作的样子,发现可疑行为。该公司通过名为机械学习的人工智能技术让公司内部的ATM机学习了200个人操作的样子,并从这些人操作以外的样子中发现汇款欺诈等违法行为,精确度达90%。
冲电气将在2018年内利用商业设施等地设置的ATM机进行实证试验,测试在室外是否也能确保精确度。设想推出在发现可疑行为时自动通知店员的系统。
6. 人工智能作恶谁之过
“9·11 是犹太人干的,把他们都送进毒气室!种族战争现在开始!”
2016年3月23日,一个人设为19岁女性,昵称为 Tay 的聊天机器人在推特上线。这个微软开发的机器人能够通过抓取和用户互动的数据模仿人类的对话,像人一样用笑话、段子和表情包聊天。但是上线不到一天,Tay 就被“调教”成了一个满口叫嚣着种族清洗的极端分子,微软只好以系统升级为由将其下架。
微软聊天机器人的极端言论。
这样的口号并不是聊天机器人的发明,而在社交网络上大量存在着。美国大选期间,一些所谓的“政治新媒体”账号发出的掺杂阴谋论、种族主义的内容,在Facebook 上进行了病毒式传播。这有赖于人工智能协助下的“精准定位”:谁最容易相信阴谋论,谁对现实最不满?相应的政治广告和假新闻能精准地投放到这群人中,使人对自己的看法更加深信不疑。
因为设计缺陷而 “暴走”的聊天机器人,和精心策划的线上政治行为,看起来仿佛是两回事。但这种我们似乎从未见过的景象,却指向了同一个“凶器”——大数据驱动下的人工智能。
1、人工智能有作恶的能力吗?
人工智能会“作恶”吗?面对智能的崛起,许多人抱有忧虑和不安: 拥有感情和偏见的人会作恶,而仅凭理性计算进行判定的计算机似乎也会“作恶”, 且作起来易如反掌。这让许多人(特别是非技术领域的人)对人工智能的发展持悲观态度。
这种忧虑并不是最近才有的。人工智能这个词诞生于上世纪50年代,指可体现出思维行动的计算机硬件或者软件,而 对机器“拥有思维”之后的伦理探讨,早至阿西莫夫开始就在科幻作品里出现。
14 年前,威尔·史密斯主演的电影《机械公敌》里就有这样一个场景:2035 年的人类社会,超高级的人工智能承担大量工作,并与人类和谐相处。这些原本完全符合阿西莫夫“三定律”的人工智能,在一次关键升级之后对人类发起了进攻。这些机器人拥有了思维进化的能力,在它们的推算下,要达到“不伤害人类”的目的,就必须先消灭“彼此伤害”的人类。
十分高产的科幻作家阿西莫夫(1920-1992)。
剑桥分析CEO亚历山大·尼克斯(Alexander Nix)。
剑桥分析并不是一个孤例。澳洲一个 Facebook 的广告客户透露,Facebook 的人工智能会分析其用户特征和所发的内容,给出诸如“有不安全感的年轻人”“抑郁、压力大”等标签,然后有针对性地投放游戏、瘾品和甚至虚假交友网站的广告,从中获取巨大利益。
即使不存在数据泄露问题,对用户数据的所谓“智能挖掘”也很容易游走在“合规”但“有违公平”的边缘。例如,电商能够根据一个人的消费习惯和消费能力的计算,对某个人进行针对的、精密的价格歧视。购买同样的商品,用 iPhone X 手机的用户很可能会比用安卓“千元机”的用户付更多的价钱,因为他们“倾向于对价格不敏感”。而我们所经常谈论的“大数据杀熟”——比如携程老用户订旅馆的价格会更高——也建立在用户行为数据的基础上。
数据的收集本身也值得商榷。前网络人工智能首席科学家吴恩达(Andrew Ng)就曾公开表示, 大公司的产品常常不是为了收入而做,而是为了用户的数据而做;在某一个产品上收集的数据,会用于在另一个产品上获利。 在智能面前,没有所谓的个人隐私和行踪,也很难确定数据收集的边界在哪里,尤其是个人隐私与公共信息、主动提供与被动提供的边界。
总而言之, 在以商业利益为目标的人工智能眼里,并没有“人”或者“用户”的概念,一切都是可以利用的数据。 剑桥大学互联网与社会研究中心教授朔沙娜·祖博夫将这种人工智能和资本“合体”的现状,称之为 “监控资本主义” (Surveillance Capitalism)——在大数据和人工智能的协助下,通过对每个人的监控和信息的榨取,实现资本的最大化。
业界对此的态度很暧昧。AI 作为当下最热门、来钱最快的行当之一,这些动辄年薪50万美元的工程师很少得闲来思考“形而上”的问题。 一位不愿具名的研究人员在与我的微信私聊中表达了他的“个人看法”:“现在的技术离‘通用人工智能’还很远,对社会伦理方面的影响没有那么大,更多还是从繁琐的重复劳动中解脱出来。”
作者试图找到行业内人士对此评论,谷歌(中国)和网络自动驾驶部门的人工智能相关人员均表示,探讨 AI 的社会问题,牵涉到公司利益和形象,比较敏感,不便评论。
“人工智能作为一个工具,如何使用,目前来看决定权依然在人。”俞扬说道 ,“系统的设计者和商业(应用)的提供人员需要对此负责。”
如何负责?这或许需要我们正视人工智能对整个社会关系的挑战。
4、人工智能作恶之后
2018年3月 19 日,一辆自动驾驶的优步(Uber)在美国亚利桑那州惹上了麻烦。面对路中出现的一个推着自行车的女性,这辆车速 38 mph(约61km/h)的沃尔沃在昏暗的光线条件下并没有减速,径直撞了上去,受害者被送往医院之后不治身亡。这是自动驾驶第一例行人致死的事故。
电视台对自动驾驶优步车祸的报道。
事故发生之后,有不少人将矛头指向了自动驾驶的人工智能是否足够安全上,或者呼吁优步禁止自动驾驶。然而更关键的问题在于,亚利桑那有着全美国几乎最开放的自动驾驶政策,事故发生地坦佩市(Tempe)是实行自动驾驶最火的“试验田”之一;事故所在的街区早已做过路线测试,并被自动驾驶的智能点赞。但是在事故发生之后,对于责任的认定依然遇到了困难。
因为人的疏忽造成的车祸数不胜数,人们早已习惯了如何处理、怎样追责;然而机器出错了之后,人们忽然手足无措。 人工智能会出错吗?当然会。只是我们在这个问题上一直缺乏认知。 就如同上文提到的“隐性歧视”,深度学习的“黑箱”,现有的法律法规很难对这些错误进行追究,因为不要说普通人,就连技术人员也很难找出出错的源头。
当人工智能的决策在人类社会中越来越重要时,我们也不得不考虑,智能为什么会犯错,犯错了怎么办;若要让智能摆脱被商业或者政治目的支使的工具,真正成为人类的“伙伴”, 需要怎么监管、如何教育,才能让人工智能“不作恶”。
人工智能的监管问题亟待解决。
对此,现有的法律框架内很难有清晰的、可操作的实施方案。欧盟率先在数据和算法安全领域做出了立法的尝试,2018年5月即将生效的新法规规定,商业公司有责任公开“影响个人的重大决策”是否由机器自动做出,且做出的决策必须要“可以解释”(explainable)。但法条并没有规定怎么解释,以及细到什么程度的解释是可以接受的。
另外一个重要的问题是, 让机器求真求善,需要人类自己直面决策中的黑暗角落。 在 Atari 游戏智能的测试中,游戏中的人工智能 bot 可以用最快的速度找到漏洞开始作弊,而游戏玩家又何尝不是呢?不管是带有歧视的语义分析,针对少数族裔进行的“智能监视”和跟踪,或者把已婚未育女性的简历扔掉的智能简历筛选,都长期以各种形式存在于人类社会中。
人工智能不是一个可预测的、完美的理性机器,它会拥有人类可能拥有的道德缺陷,受制于人们使用的目标和评估体系。 至少目前,机器依然是人类实然世界的反应,而不是“应然世界”的指导和先驱。 对机器的训练同样少不了对人性和社会本身的审视——谁在使用,为了什么而使用,在我们的世界中扮演着怎样的角色?数据是谁给的,训练的目标是谁定的?我们期望中的机器,会继承我们自己的善恶吗?
谷歌中国人工智慧和机器学习首席科学家李飞飞认为, 要让机器“不作恶”,人工智能的开发需要有人本关怀 。“AI 需要反映我们人类智能中更深层的部分,”李飞飞在《纽约时报》的专栏中写道,“要让机器能全面地感知人类思维……知道人类需要什么。”她认为,这已经超越了单纯计算机科学的领域,而需要心理学、认知科学乃至社会学的参与。
未来,人工智能进入更多的领域、发挥更强的功能,是无可争辩的事实。然而,我们的生产关系能否适应人工智能带来的生产力,这句马克思政治经济学的基本原则值得我们认真思考一番。 我们并不想看到未来的“机器暴政”将我们的社会绑在既有的偏见、秩序和资本操纵中。
一个AI
人工智能之所以会作恶,可能就是因为太像人类了吧。
7. 人工智能背后的操控者是谁
“9·11 是犹太人干的,把他们都送进毒气室!种族战争现在开始!”
2016年3月23日,一个人设为19岁女性,昵称为 Tay 的聊天机器人在推特上线。这个微软开发的机器人能够通过抓取和用户互动的数据模仿人类的对话,像人一样用笑话、段子和表情包聊天。但是上线不到一天,Tay 就被“调教”成了一个满口叫嚣着种族清洗的极端分子,微软只好以系统升级为由将其下架。
微软聊天机器人的极端言论。
这样的口号并不是聊天机器人的发明,而在社交网络上大量存在着。美国大选期间,一些所谓的“政治新媒体”账号发出的掺杂阴谋论、种族主义的内容,在Facebook 上进行了病毒式传播。这有赖于人工智能协助下的“精准定位”:谁最容易相信阴谋论,谁对现实最不满?相应的政治广告和假新闻能精准地投放到这群人中,使人对自己的看法更加深信不疑。
因为设计缺陷而 “暴走”的聊天机器人,和精心策划的线上政治行为,看起来仿佛是两回事。但这种我们似乎从未见过的景象,却指向了同一个“凶器”——大数据驱动下的人工智能。
1、人工智能有作恶的能力吗?
人工智能会“作恶”吗?面对智能的崛起,许多人抱有忧虑和不安: 拥有感情和偏见的人会作恶,而仅凭理性计算进行判定的计算机似乎也会“作恶”, 且作起来易如反掌。这让许多人(特别是非技术领域的人)对人工智能的发展持悲观态度。
这种忧虑并不是最近才有的。人工智能这个词诞生于上世纪50年代,指可体现出思维行动的计算机硬件或者软件,而 对机器“拥有思维”之后的伦理探讨,早至阿西莫夫开始就在科幻作品里出现。
14 年前,威尔·史密斯主演的电影《机械公敌》里就有这样一个场景:2035 年的人类社会,超高级的人工智能承担大量工作,并与人类和谐相处。这些原本完全符合阿西莫夫“三定律”的人工智能,在一次关键升级之后对人类发起了进攻。这些机器人拥有了思维进化的能力,在它们的推算下,要达到“不伤害人类”的目的,就必须先消灭“彼此伤害”的人类。
十分高产的科幻作家阿西莫夫(1920-1992)。
剑桥分析CEO亚历山大·尼克斯(Alexander Nix)。
剑桥分析并不是一个孤例。澳洲一个 Facebook 的广告客户透露,Facebook 的人工智能会分析其用户特征和所发的内容,给出诸如“有不安全感的年轻人”“抑郁、压力大”等标签,然后有针对性地投放游戏、瘾品和甚至虚假交友网站的广告,从中获取巨大利益。
即使不存在数据泄露问题,对用户数据的所谓“智能挖掘”也很容易游走在“合规”但“有违公平”的边缘。例如,电商能够根据一个人的消费习惯和消费能力的计算,对某个人进行针对的、精密的价格歧视。购买同样的商品,用 iPhone X 手机的用户很可能会比用安卓“千元机”的用户付更多的价钱,因为他们“倾向于对价格不敏感”。而我们所经常谈论的“大数据杀熟”——比如携程老用户订旅馆的价格会更高——也建立在用户行为数据的基础上。
数据的收集本身也值得商榷。前网络人工智能首席科学家吴恩达(Andrew Ng)就曾公开表示, 大公司的产品常常不是为了收入而做,而是为了用户的数据而做;在某一个产品上收集的数据,会用于在另一个产品上获利。 在智能面前,没有所谓的个人隐私和行踪,也很难确定数据收集的边界在哪里,尤其是个人隐私与公共信息、主动提供与被动提供的边界。
总而言之, 在以商业利益为目标的人工智能眼里,并没有“人”或者“用户”的概念,一切都是可以利用的数据。 剑桥大学互联网与社会研究中心教授朔沙娜·祖博夫将这种人工智能和资本“合体”的现状,称之为 “监控资本主义” (Surveillance Capitalism)——在大数据和人工智能的协助下,通过对每个人的监控和信息的榨取,实现资本的最大化。
业界对此的态度很暧昧。AI 作为当下最热门、来钱最快的行当之一,这些动辄年薪50万美元的工程师很少得闲来思考“形而上”的问题。 一位不愿具名的研究人员在与我的微信私聊中表达了他的“个人看法”:“现在的技术离‘通用人工智能’还很远,对社会伦理方面的影响没有那么大,更多还是从繁琐的重复劳动中解脱出来。”
作者试图找到行业内人士对此评论,谷歌(中国)和网络自动驾驶部门的人工智能相关人员均表示,探讨 AI 的社会问题,牵涉到公司利益和形象,比较敏感,不便评论。
“人工智能作为一个工具,如何使用,目前来看决定权依然在人。”俞扬说道 ,“系统的设计者和商业(应用)的提供人员需要对此负责。”
如何负责?这或许需要我们正视人工智能对整个社会关系的挑战。
4、人工智能作恶之后
2018年3月 19 日,一辆自动驾驶的优步(Uber)在美国亚利桑那州惹上了麻烦。面对路中出现的一个推着自行车的女性,这辆车速 38 mph(约61km/h)的沃尔沃在昏暗的光线条件下并没有减速,径直撞了上去,受害者被送往医院之后不治身亡。这是自动驾驶第一例行人致死的事故。
电视台对自动驾驶优步车祸的报道。
事故发生之后,有不少人将矛头指向了自动驾驶的人工智能是否足够安全上,或者呼吁优步禁止自动驾驶。然而更关键的问题在于,亚利桑那有着全美国几乎最开放的自动驾驶政策,事故发生地坦佩市(Tempe)是实行自动驾驶最火的“试验田”之一;事故所在的街区早已做过路线测试,并被自动驾驶的智能点赞。但是在事故发生之后,对于责任的认定依然遇到了困难。
因为人的疏忽造成的车祸数不胜数,人们早已习惯了如何处理、怎样追责;然而机器出错了之后,人们忽然手足无措。 人工智能会出错吗?当然会。只是我们在这个问题上一直缺乏认知。 就如同上文提到的“隐性歧视”,深度学习的“黑箱”,现有的法律法规很难对这些错误进行追究,因为不要说普通人,就连技术人员也很难找出出错的源头。
当人工智能的决策在人类社会中越来越重要时,我们也不得不考虑,智能为什么会犯错,犯错了怎么办;若要让智能摆脱被商业或者政治目的支使的工具,真正成为人类的“伙伴”, 需要怎么监管、如何教育,才能让人工智能“不作恶”。
人工智能的监管问题亟待解决。
对此,现有的法律框架内很难有清晰的、可操作的实施方案。欧盟率先在数据和算法安全领域做出了立法的尝试,2018年5月即将生效的新法规规定,商业公司有责任公开“影响个人的重大决策”是否由机器自动做出,且做出的决策必须要“可以解释”(explainable)。但法条并没有规定怎么解释,以及细到什么程度的解释是可以接受的。
另外一个重要的问题是, 让机器求真求善,需要人类自己直面决策中的黑暗角落。 在 Atari 游戏智能的测试中,游戏中的人工智能 bot 可以用最快的速度找到漏洞开始作弊,而游戏玩家又何尝不是呢?不管是带有歧视的语义分析,针对少数族裔进行的“智能监视”和跟踪,或者把已婚未育女性的简历扔掉的智能简历筛选,都长期以各种形式存在于人类社会中。
人工智能不是一个可预测的、完美的理性机器,它会拥有人类可能拥有的道德缺陷,受制于人们使用的目标和评估体系。 至少目前,机器依然是人类实然世界的反应,而不是“应然世界”的指导和先驱。 对机器的训练同样少不了对人性和社会本身的审视——谁在使用,为了什么而使用,在我们的世界中扮演着怎样的角色?数据是谁给的,训练的目标是谁定的?我们期望中的机器,会继承我们自己的善恶吗?
谷歌中国人工智慧和机器学习首席科学家李飞飞认为, 要让机器“不作恶”,人工智能的开发需要有人本关怀 。“AI 需要反映我们人类智能中更深层的部分,”李飞飞在《纽约时报》的专栏中写道,“要让机器能全面地感知人类思维……知道人类需要什么。”她认为,这已经超越了单纯计算机科学的领域,而需要心理学、认知科学乃至社会学的参与。
未来,人工智能进入更多的领域、发挥更强的功能,是无可争辩的事实。然而,我们的生产关系能否适应人工智能带来的生产力,这句马克思政治经济学的基本原则值得我们认真思考一番。 我们并不想看到未来的“机器暴政”将我们的社会绑在既有的偏见、秩序和资本操纵中。
一个AI
人工智能之所以会作恶,可能就是因为太像人类了吧。
8. 科幻电影搜索一个女子可以预知未来一个男子会在海边杀人,结果成事实了
《关键报告》!!!!
主要演员: 汤姆·克鲁斯
未来世界科技高度发达,罪犯在未犯下罪行前就能被警方侦测出犯罪意向并且因此受到法律制裁,约翰·安德顿是一名联邦警探,专门负责调查这种有犯罪动机的涉嫌人员。有一天,意想不到的事情发生了,一向尽忠职守,遵纪守法的约翰竟被侦测出有犯罪企图,被控告“即将”犯下谋杀罪而遭到昔日同事追捕,他被迫亡命奔逃,但当查到自己是被一份“关键报告”认定有罪时,他开始质疑这种审判制度,展开秘密调查,原来整个审判制度幕后隐藏着一个重大阴谋…… 这部惊悚科幻片,改编自著名科幻小说家菲利普·K·迪克(Philip K. Dick)的同名小说。故事发生在2080年的华盛顿,科技高度发达,罪犯在未犯下罪行前就能被警方侦测出犯罪意向并且因此受到法律制裁,汤哥饰演的约翰·安德顿(John Anderton)是一名联邦警探,专门负责调查这种有犯罪动机的涉嫌人员。有一天,意想不到的事情发生了,一向尽忠职守,遵纪守法的约翰竟被侦测出有犯罪企图,而遭到同是警员的弟弟的追捕,为了洗尽冤屈,他只好开始独自追查真相。 2002年最棒的科幻电影,斯皮尔伯格与汤姆·克鲁斯组成全世界最具魅力的搭档。本片完全以精妙剧情构思和强烈的未来主义色彩取胜,没有怪兽,外星人之类的科幻噱头,仅仅一个“预防犯罪局”的设想就使这部电影卓而不群,整部戏张驰有度,平淡处留有余味,高潮段落新意迭出,体现了斯氏的大师手段。喜欢动作戏的人也不会失望,一场未来飞车追逐的戏将让你再次领略阿汤在《碟中谍2》中的潇洒身手,与《人工智能》一样,斯氏在特技的使用上非常小心,却将不多的特技镜头做到了极致,那几只扫描视网膜验证身份的电子蜘蛛与阿汤的对手戏是本片最让人难忘的镜头之一,人与特技的完美结合不过如此了。
http://ke..com/view/1644651.htm
http://kankan.xunlei.com/vod/movie/28/28302.shtml
9. 求电影名
《猫鼠游戏》
Catch Me If You Can
导演:斯蒂文·斯皮尔伯格Steven Spielberg
编剧:杰夫·纳桑森Jeff Nathanson
主演:莱昂纳多·迪卡普里奥Leonardo DiCaprio
汤姆·汉克斯Tom Hanks
詹妮佛·加纳Jennifer Garner
马丁·西恩Martin Sheen
克里斯托弗·沃尔肯Christopher Walken
片长:140分钟
类型:传记/喜剧/犯罪/历史
级别:PG-13(部分有关性的内容及语言)
出品:梦工厂Dreamworks
剧情:
此片根据真人真事改编而成。真实生活中现年53岁的法兰克·阿巴葛纳尔(莱昂纳多·迪卡普里奥扮演)据说目前在美国联邦调查局讲授犯罪侦查课程,但他在青少年时期却是令执法当局头疼的人物。擅长伪造文件的他,十八岁不到就在美国五十个州与全球二十八个国家开出总金额高达六百万美元的空头支票,成为美国历史上最年轻的FBI头号通缉犯。他犯罪的手段特别高明,曾佯装成医生、律师、驾驶员甚至FBI探员。警官乔夏耶(汤姆·汉克斯扮演)则与这位手段高明的罪犯展开了一场精彩又惊心的斗智斗力,法兰克·阿巴葛纳尔后来虽然不幸失手,但他被捕入狱五年之后,在乔夏耶的建议与奔走之下,却得以恢复自由之身———条件是担任FBI顾问(传授如何破解犯罪)!在现实生活中,本为死对头的乔夏耶后来与法兰克·阿巴葛纳尔两人,后来竟戏剧化地成为挚友。
拍完《人工智能》(A.I.)的斯蒂芬·斯皮尔伯格放开影片的宏大意义,从《少数派报告》(Minority Report)至此片放开身心全情娱乐,所以这场“猫鼠游戏”一定好看又过瘾。而本片的两位主演莱昂纳多·迪卡普里奥和汤姆·汉克斯已经令影片有相当的票房保证。
去年数学家纳什的自传电影《美丽心灵》成为奥斯卡的赢家,而今年传奇罪犯的传记能否也受青睐,是个颇有意思的疑问。本片主演莱昂纳多和汤姆·汉克斯都被认为有望入围奥斯卡影帝提名。曾以《费城故事》(Philadelphia)及《阿甘正传》(Forrest Gump)连续当选奥斯卡影帝的汤姆·汉克斯,在这部真人真事改编的影片中将饰演苦苦追缉莱昂纳多的联邦调查局干员乔夏耶。有趣的是,45岁的汤姆·汉克斯在今年梦工场与福克斯电影公司联合出品的新片《毁灭之路》(The Road of Perdition)中,饰演的角色却是绰号“死神天使”的黑道头子,与联邦调查局干员形象有如天壤之别。
10. 人工智能的应用领域包括哪些
人工智能主要应用领域
1、农业:农业中已经用到很多的AI技术,无人机喷撒农药,除草,农作物状态实时监控,物料采购,数据收集,灌溉,收获,销售等。通过应用人工智能设备终端等,大大提高了农牧业的产量,大大减少了许多人工成本和时间成本。
2、通信:智能外呼系统,客户数据处理(订单管理系统),通信故障排除,病毒拦截(360等),骚扰信息拦截等
3、医疗:利用最先进的物联网技术,实现患者与医务人员、医疗机构、医疗设备之间的互动,逐步达到信息化。例:健康监测(智能穿戴设备)、自动提示用药时间、服用禁忌、剩余药量等的智能服药系统。
4、社会治安:安防监控(数据实时联网,公安系统可以实时进行数据调查分析)、电信诈骗数据锁定、犯罪分子抓捕、消防抢险领域(灭火、人员救助、特殊区域作业)等
5、交通领域:航线规划、无人驾驶汽车、超速、行车不规范等行为整治
6、服务业:餐饮行业(点餐、传菜,回收餐具,清洗)等,订票系统(酒店、车票、机票等)的查询、预定、修改、提醒等
7、金融行业:股票证券的大数据分析、行业走势分析、投资风险预估等
8、大数据处理:天气查询,地图导航,资料查询,信息推广(推荐引擎是基于用户的行为、属性(用户浏览行为产生的数据),通过算法分析和处理,主动发现用户当前或潜在需求,并主动推送信息给用户的浏览页面。),个人助理