人工智慧犯罪調查
1. 公務員面試熱點:人工智慧的偏見能消除嗎
當人們在為人工智慧進入人類生活的方方面面歡呼,並以為人工智慧可能讓人類進入新的文明時代而充滿無限美妙的憧憬之時,一種新憂慮產生了:人工智慧也會像人類一樣產生種種偏見和歧視,而且,這種偏見和歧視與生俱來,是人類教會了它們。英國媒體《衛報》近日發表的一篇文章指出,計算機在學習人類語言時吸收了人類文化中根深蒂固的觀念,產生了偏見和歧視。
在人們孜孜以求實現社會公平和正義之時,人工智慧如果帶有偏見,就不可能更好地完成其替代人類工作和服務於人類的任務。這是人工智慧應用面臨的另一種巨大挑戰,如果不能解決這個挑戰,顯然沒法寄予人工智慧以厚望和賦予其更大、更艱巨和更崇高的使命。
人工智慧的偏見和歧視早就引起了人們的注意,較典型的是微軟2016年3月23日推出的人工智慧聊天機器人Tay。設計的最初目的是讓其成為一個善解人意的小女孩,為用戶排憂解難。但是,上線第一天Tay就變成了一個滿口粗言穢語的種族主義者,發表了不少白人優越的言論,甚至還變成了希特勒的粉絲,要發起種族滅絕戰爭。眼見不妙,微軟公司立刻將Tay下線,並刪除所有不適言論。經過調教,Tay於2016年3月30日再次上線,但舊病復發,不得不再次下線。
現在,一項發表於《科學》雜志(2017年4月14日)的研究揭示了人工智慧的毛病來源於人類。美國普林斯頓大學信息技術政策中心計算機科學家阿爾文德·納拉亞南(Arvind
Narayanan)等人在網上用「爬蟲」軟體收集了220萬個詞的英語文本,用來訓練一個機器學習系統。這個系統採用了「文字嵌入」技術,是一種普遍應用於機器學習和自然語言處理過程的統計建模技術。其中,也包括根據心理學家揭示人類偏見時使用的內隱聯想測驗(IAT)。文字嵌入的核心是採用一種稱為詞語表達全局向量的無監督學習演算法,通過對詞語庫中詞對詞同現的統計結果進行訓練,在處理詞彙時,主要根據各種因素來觀察詞語之間的相關性,即不同的詞共同出現的頻率。結果,在最為相鄰相關的詞語上出現了與人類語言使用相似的語義組合和聯系情景。
比較中性的結果是,鮮花與女人相聯,音樂與愉快相關;但極端的結果是,懶惰,甚至犯罪與黑人相聯;隱秘的「偏見」則把女性與藝術、人文職業和家庭聯系得更為緊密,讓男性與數學和工程專業更為接近。
其實,這不能怪人工智慧,而要怪人類。人類自誕生以來和在演化進程中一直充斥著偏見,而且從人類社會組成以來,更充滿相當多的負面和人性的弱點,所有這些都會體現在人類的文化中。而文化的載體就是語言,所以所有的偏見都可以從語言和語義中找到根源。
教會人工智慧更為客觀和公正,至少比人類更客觀和公正,在目前似乎還難以做到。因為人類文化中的偏見和歧視是一種與生俱來的「原罪」,人類要麼在除掉自己的原罪後才能教會人工智慧更為公正和客觀,要麼就是引進社會監督的相生相剋原理來教會和監督機器公正和公平。
當人類設計和研發的人工智慧尚不足以做到更客觀、更公平和更公正(正義)時,人工智慧的應用就有可能受到限制。例如,如果讓人工智慧來處理招聘,不公正的情況會像人工處理一樣出現,甚至更多,因為假如申請者的名字是歐洲裔美國人,所能得到的面試機會將比非洲裔美國人要多出50%,男性名字的申請者也可能比女性名字的申請者獲得面試機會多。
即便是人工智慧記者(寫作軟體)能寫稿了,但由於偏見(尤其是語言使用和語義聯系、聯想必然會產生的偏見)存在,也只能讓機器人寫財經統計類的稿,而不能寫調查類的稿件,更不能寫評論稿,尤其不能寫辛普森案件一類的稿,否則字里行間就會體現出偏見和歧視。
在人工智慧天然會習得人類的偏見和歧視的弱點未能克服之時,對於人工智慧的發展前景就不能抱太大的期望。
2. 討論當法律遇上人工智慧,法律工作者是否會被淘汰
法律工作者概念挺大的。法官、檢察官、警察、律師、司法局工作人員等很多。比如刑事案件,到派出所去報案,沒有警察,人工智慧接案,然後網路調查,系統自動通知犯罪嫌疑人到哪個看守所待著。人工智慧自行轉到檢察院系統,系統自動決定是否批捕,如果符合批捕,檢察院系統審查起訴。到了法院,律師、法官、檢察官都是不同的人工智慧,犯罪嫌疑人不用法警去提,自己就按時到庭。這樣真的看的下去嗎?所以說,淘汰不至於,人工智慧頂多是輔助,更多還靠人的智慧
3. 日本利用人工智慧來預測和調查犯罪有哪些進步
人工智慧擅長分析圖像,由於從大量數據中發現特點的深度學習等新技術的出現,更容易對人工智慧加以活用。人們期待人工智慧遏制犯罪的效果將進一步提高。
沖電氣公司開發的人工智慧可以通過ATM機上設置的監控影像,分析人操作的樣子,發現可疑行為。
沖電氣將在2018年內利用商業設施等地設置的ATM機進行實證試驗,測試在室外是否也能確保精確度。
生產防盜設備的Earth Eyes開發出的是檢測可疑行為、預測可能發生的盜竊等犯罪的人工智慧技術。
人工智慧技術還取得了可以幫助調查犯罪的成果。
該系統在面部識別技術中融入了人工智慧,可防止可疑人員進出建築物。
沖電氣公司開發的人工智慧可以通過ATM機上設置的監控影像,分析人操作的樣子,發現可疑行為。該公司通過名為機械學習的人工智慧技術讓公司內部的ATM機學習了200個人操作的樣子,並從這些人操作以外的樣子中發現匯款欺詐等違法行為,精確度達90%。
沖電氣將在2018年內利用商業設施等地設置的ATM機進行實證試驗,測試在室外是否也能確保精確度。設想推出在發現可疑行為時自動通知店員的系統。
生產防盜設備的Earth Eyes開發出的是檢測可疑行為、預測可能發生的盜竊等犯罪的人工智慧技術。該技術通過分析腿部和頭部等部位的動作來甄別盜竊犯罪時經常出現的動作。該公司獲得了日本國立研究開發法人、新能源產業技術綜合開發機構(NEDO)的支持,正在將該項技術推向實用化。力爭應用於通過告知店員、向可疑者發出提醒來防範盜竊等行為的防範盜竊的系統。
人工智慧技術還取得了可以幫助調查犯罪的成果。大阪大學教授八木康史等人開發出了一項技術,該技術可以根據人的姿勢、步幅、手部擺動方式等走路時的特點進行個體識別,以此追蹤犯罪嫌疑人及恐怖分子等。這項技術使用深度學習,讓系統學習了1萬人朝著各種方向行走的影像。
該系統在5000人中鎖定50人時,實現了較高的作業精度,成功概率達到8成。可以讓此前依賴於人工的攝像頭分析實現省力化。據介紹,發生犯罪事件後,只要知道嫌疑人是誰,就能根據周圍的影像追蹤到嫌疑人的行蹤。八木康史教授等人將呼籲將這項技術應用於調查犯罪。
另外,NEC於2017年11月開始銷售一種系統,該系統在面部識別技術中融入了人工智慧,可防止可疑人員進出建築物。
不過,使用拍攝有不特定多數人的視頻時,也存在侵犯個人隱私的風險。國家在以海報等形式呼籲人們安裝攝像頭的同時,還要求使用這些攝像頭的企業做到不鎖定某個人,並採取完善的措施來防止信息泄露。一方面,人工智慧也有可能對犯罪行為作出錯誤判斷,因此在推進技術改進的同時,還必須想方設法通過人眼的參與來提高精度。
4. 我們學法學以後當律師的人會不會被人工智慧
法律工作者概念挺大的。法官、檢察官、警察、律師、司法局工作人員等回很多。比如刑事案件答,到派出所去報案,沒有警察,人工智慧接案,然後網路調查,系統自動通知犯罪嫌疑人到哪個看守所待著。人工智慧自行轉到檢察院系統,系統自動決定是否批捕,如果符合批捕,檢察院系統審查起訴。到了法院,律師、法官、檢察官都是不同的人工智慧,犯罪嫌疑人不用法警去提,自己就按時到庭。這樣真的看的下去嗎?所以說,淘汰不至於,人工智慧頂多是輔助,更多還靠人的智慧
5. 更准確日本將利用人工智慧來預測和調查犯罪
日本總務省向專家詢問了人工智慧可以活用的領域,結果約7%的專家列舉了預測犯罪和預防犯罪。雖然監控攝像頭急劇增加,但是犯罪行為仍時有發生。人工智慧擅長分析圖像,由於從大量數據中發現特點的深度學習等新技術的出現,更容易對人工智慧加以活用。人們期待人工智慧遏制犯罪的效果將進一步提高。
沖電氣公司開發的人工智慧可以通過ATM機上設置的監控影像,分析人操作的樣子,發現可疑行為。該公司通過名為機械學習的人工智慧技術讓公司內部的ATM機學習了200個人操作的樣子,並從這些人操作以外的樣子中發現匯款欺詐等違法行為,精確度達90%。
沖電氣將在2018年內利用商業設施等地設置的ATM機進行實證試驗,測試在室外是否也能確保精確度。設想推出在發現可疑行為時自動通知店員的系統。
6. 人工智慧作惡誰之過
「9·11 是猶太人乾的,把他們都送進毒氣室!種族戰爭現在開始!」
2016年3月23日,一個人設為19歲女性,昵稱為 Tay 的聊天機器人在推特上線。這個微軟開發的機器人能夠通過抓取和用戶互動的數據模仿人類的對話,像人一樣用笑話、段子和表情包聊天。但是上線不到一天,Tay 就被「調教」成了一個滿口叫囂著種族清洗的極端分子,微軟只好以系統升級為由將其下架。
微軟聊天機器人的極端言論。
這樣的口號並不是聊天機器人的發明,而在社交網路上大量存在著。美國大選期間,一些所謂的「政治新媒體」賬號發出的摻雜陰謀論、種族主義的內容,在Facebook 上進行了病毒式傳播。這有賴於人工智慧協助下的「精準定位」:誰最容易相信陰謀論,誰對現實最不滿?相應的政治廣告和假新聞能精準地投放到這群人中,使人對自己的看法更加深信不疑。
因為設計缺陷而 「暴走」的聊天機器人,和精心策劃的線上政治行為,看起來彷彿是兩回事。但這種我們似乎從未見過的景象,卻指向了同一個「凶器」——大數據驅動下的人工智慧。
1、人工智慧有作惡的能力嗎?
人工智慧會「作惡」嗎?面對智能的崛起,許多人抱有憂慮和不安: 擁有感情和偏見的人會作惡,而僅憑理性計算進行判定的計算機似乎也會「作惡」, 且作起來易如反掌。這讓許多人(特別是非技術領域的人)對人工智慧的發展持悲觀態度。
這種憂慮並不是最近才有的。人工智慧這個詞誕生於上世紀50年代,指可體現出思維行動的計算機硬體或者軟體,而 對機器「擁有思維」之後的倫理探討,早至阿西莫夫開始就在科幻作品裡出現。
14 年前,威爾·史密斯主演的電影《機械公敵》里就有這樣一個場景:2035 年的人類社會,超高級的人工智慧承擔大量工作,並與人類和諧相處。這些原本完全符合阿西莫夫「三定律」的人工智慧,在一次關鍵升級之後對人類發起了進攻。這些機器人擁有了思維進化的能力,在它們的推算下,要達到「不傷害人類」的目的,就必須先消滅「彼此傷害」的人類。
十分高產的科幻作家阿西莫夫(1920-1992)。
劍橋分析CEO亞歷山大·尼克斯(Alexander Nix)。
劍橋分析並不是一個孤例。澳洲一個 Facebook 的廣告客戶透露,Facebook 的人工智慧會分析其用戶特徵和所發的內容,給出諸如「有不安全感的年輕人」「抑鬱、壓力大」等標簽,然後有針對性地投放游戲、癮品和甚至虛假交友網站的廣告,從中獲取巨大利益。
即使不存在數據泄露問題,對用戶數據的所謂「智能挖掘」也很容易遊走在「合規」但「有違公平」的邊緣。例如,電商能夠根據一個人的消費習慣和消費能力的計算,對某個人進行針對的、精密的價格歧視。購買同樣的商品,用 iPhone X 手機的用戶很可能會比用安卓「千元機」的用戶付更多的價錢,因為他們「傾向於對價格不敏感」。而我們所經常談論的「大數據殺熟」——比如攜程老用戶訂旅館的價格會更高——也建立在用戶行為數據的基礎上。
數據的收集本身也值得商榷。前網路人工智慧首席科學家吳恩達(Andrew Ng)就曾公開表示, 大公司的產品常常不是為了收入而做,而是為了用戶的數據而做;在某一個產品上收集的數據,會用於在另一個產品上獲利。 在智能面前,沒有所謂的個人隱私和行蹤,也很難確定數據收集的邊界在哪裡,尤其是個人隱私與公共信息、主動提供與被動提供的邊界。
總而言之, 在以商業利益為目標的人工智慧眼裡,並沒有「人」或者「用戶」的概念,一切都是可以利用的數據。 劍橋大學互聯網與社會研究中心教授朔沙娜·祖博夫將這種人工智慧和資本「合體」的現狀,稱之為 「監控資本主義」 (Surveillance Capitalism)——在大數據和人工智慧的協助下,通過對每個人的監控和信息的榨取,實現資本的最大化。
業界對此的態度很曖昧。AI 作為當下最熱門、來錢最快的行當之一,這些動輒年薪50萬美元的工程師很少得閑來思考「形而上」的問題。 一位不願具名的研究人員在與我的微信私聊中表達了他的「個人看法」:「現在的技術離『通用人工智慧』還很遠,對社會倫理方面的影響沒有那麼大,更多還是從繁瑣的重復勞動中解脫出來。」
作者試圖找到行業內人士對此評論,谷歌(中國)和網路自動駕駛部門的人工智慧相關人員均表示,探討 AI 的社會問題,牽涉到公司利益和形象,比較敏感,不便評論。
「人工智慧作為一個工具,如何使用,目前來看決定權依然在人。」俞揚說道 ,「系統的設計者和商業(應用)的提供人員需要對此負責。」
如何負責?這或許需要我們正視人工智慧對整個社會關系的挑戰。
4、人工智慧作惡之後
2018年3月 19 日,一輛自動駕駛的優步(Uber)在美國亞利桑那州惹上了麻煩。面對路中出現的一個推著自行車的女性,這輛車速 38 mph(約61km/h)的沃爾沃在昏暗的光線條件下並沒有減速,徑直撞了上去,受害者被送往醫院之後不治身亡。這是自動駕駛第一例行人致死的事故。
電視台對自動駕駛優步車禍的報道。
事故發生之後,有不少人將矛頭指向了自動駕駛的人工智慧是否足夠安全上,或者呼籲優步禁止自動駕駛。然而更關鍵的問題在於,亞利桑那有著全美國幾乎最開放的自動駕駛政策,事故發生地坦佩市(Tempe)是實行自動駕駛最火的「試驗田」之一;事故所在的街區早已做過路線測試,並被自動駕駛的智能點贊。但是在事故發生之後,對於責任的認定依然遇到了困難。
因為人的疏忽造成的車禍數不勝數,人們早已習慣了如何處理、怎樣追責;然而機器出錯了之後,人們忽然手足無措。 人工智慧會出錯嗎?當然會。只是我們在這個問題上一直缺乏認知。 就如同上文提到的「隱性歧視」,深度學習的「黑箱」,現有的法律法規很難對這些錯誤進行追究,因為不要說普通人,就連技術人員也很難找出出錯的源頭。
當人工智慧的決策在人類社會中越來越重要時,我們也不得不考慮,智能為什麼會犯錯,犯錯了怎麼辦;若要讓智能擺脫被商業或者政治目的支使的工具,真正成為人類的「夥伴」, 需要怎麼監管、如何教育,才能讓人工智慧「不作惡」。
人工智慧的監管問題亟待解決。
對此,現有的法律框架內很難有清晰的、可操作的實施方案。歐盟率先在數據和演算法安全領域做出了立法的嘗試,2018年5月即將生效的新法規規定,商業公司有責任公開「影響個人的重大決策」是否由機器自動做出,且做出的決策必須要「可以解釋」(explainable)。但法條並沒有規定怎麼解釋,以及細到什麼程度的解釋是可以接受的。
另外一個重要的問題是, 讓機器求真求善,需要人類自己直面決策中的黑暗角落。 在 Atari 游戲智能的測試中,游戲中的人工智慧 bot 可以用最快的速度找到漏洞開始作弊,而游戲玩家又何嘗不是呢?不管是帶有歧視的語義分析,針對少數族裔進行的「智能監視」和跟蹤,或者把已婚未育女性的簡歷扔掉的智能簡歷篩選,都長期以各種形式存在於人類社會中。
人工智慧不是一個可預測的、完美的理性機器,它會擁有人類可能擁有的道德缺陷,受制於人們使用的目標和評估體系。 至少目前,機器依然是人類實然世界的反應,而不是「應然世界」的指導和先驅。 對機器的訓練同樣少不了對人性和社會本身的審視——誰在使用,為了什麼而使用,在我們的世界中扮演著怎樣的角色?數據是誰給的,訓練的目標是誰定的?我們期望中的機器,會繼承我們自己的善惡嗎?
谷歌中國人工智慧和機器學習首席科學家李飛飛認為, 要讓機器「不作惡」,人工智慧的開發需要有人本關懷 。「AI 需要反映我們人類智能中更深層的部分,」李飛飛在《紐約時報》的專欄中寫道,「要讓機器能全面地感知人類思維……知道人類需要什麼。」她認為,這已經超越了單純計算機科學的領域,而需要心理學、認知科學乃至社會學的參與。
未來,人工智慧進入更多的領域、發揮更強的功能,是無可爭辯的事實。然而,我們的生產關系能否適應人工智慧帶來的生產力,這句馬克思政治經濟學的基本原則值得我們認真思考一番。 我們並不想看到未來的「機器暴政」將我們的社會綁在既有的偏見、秩序和資本操縱中。
一個AI
人工智慧之所以會作惡,可能就是因為太像人類了吧。
7. 人工智慧背後的操控者是誰
「9·11 是猶太人乾的,把他們都送進毒氣室!種族戰爭現在開始!」
2016年3月23日,一個人設為19歲女性,昵稱為 Tay 的聊天機器人在推特上線。這個微軟開發的機器人能夠通過抓取和用戶互動的數據模仿人類的對話,像人一樣用笑話、段子和表情包聊天。但是上線不到一天,Tay 就被「調教」成了一個滿口叫囂著種族清洗的極端分子,微軟只好以系統升級為由將其下架。
微軟聊天機器人的極端言論。
這樣的口號並不是聊天機器人的發明,而在社交網路上大量存在著。美國大選期間,一些所謂的「政治新媒體」賬號發出的摻雜陰謀論、種族主義的內容,在Facebook 上進行了病毒式傳播。這有賴於人工智慧協助下的「精準定位」:誰最容易相信陰謀論,誰對現實最不滿?相應的政治廣告和假新聞能精準地投放到這群人中,使人對自己的看法更加深信不疑。
因為設計缺陷而 「暴走」的聊天機器人,和精心策劃的線上政治行為,看起來彷彿是兩回事。但這種我們似乎從未見過的景象,卻指向了同一個「凶器」——大數據驅動下的人工智慧。
1、人工智慧有作惡的能力嗎?
人工智慧會「作惡」嗎?面對智能的崛起,許多人抱有憂慮和不安: 擁有感情和偏見的人會作惡,而僅憑理性計算進行判定的計算機似乎也會「作惡」, 且作起來易如反掌。這讓許多人(特別是非技術領域的人)對人工智慧的發展持悲觀態度。
這種憂慮並不是最近才有的。人工智慧這個詞誕生於上世紀50年代,指可體現出思維行動的計算機硬體或者軟體,而 對機器「擁有思維」之後的倫理探討,早至阿西莫夫開始就在科幻作品裡出現。
14 年前,威爾·史密斯主演的電影《機械公敵》里就有這樣一個場景:2035 年的人類社會,超高級的人工智慧承擔大量工作,並與人類和諧相處。這些原本完全符合阿西莫夫「三定律」的人工智慧,在一次關鍵升級之後對人類發起了進攻。這些機器人擁有了思維進化的能力,在它們的推算下,要達到「不傷害人類」的目的,就必須先消滅「彼此傷害」的人類。
十分高產的科幻作家阿西莫夫(1920-1992)。
劍橋分析CEO亞歷山大·尼克斯(Alexander Nix)。
劍橋分析並不是一個孤例。澳洲一個 Facebook 的廣告客戶透露,Facebook 的人工智慧會分析其用戶特徵和所發的內容,給出諸如「有不安全感的年輕人」「抑鬱、壓力大」等標簽,然後有針對性地投放游戲、癮品和甚至虛假交友網站的廣告,從中獲取巨大利益。
即使不存在數據泄露問題,對用戶數據的所謂「智能挖掘」也很容易遊走在「合規」但「有違公平」的邊緣。例如,電商能夠根據一個人的消費習慣和消費能力的計算,對某個人進行針對的、精密的價格歧視。購買同樣的商品,用 iPhone X 手機的用戶很可能會比用安卓「千元機」的用戶付更多的價錢,因為他們「傾向於對價格不敏感」。而我們所經常談論的「大數據殺熟」——比如攜程老用戶訂旅館的價格會更高——也建立在用戶行為數據的基礎上。
數據的收集本身也值得商榷。前網路人工智慧首席科學家吳恩達(Andrew Ng)就曾公開表示, 大公司的產品常常不是為了收入而做,而是為了用戶的數據而做;在某一個產品上收集的數據,會用於在另一個產品上獲利。 在智能面前,沒有所謂的個人隱私和行蹤,也很難確定數據收集的邊界在哪裡,尤其是個人隱私與公共信息、主動提供與被動提供的邊界。
總而言之, 在以商業利益為目標的人工智慧眼裡,並沒有「人」或者「用戶」的概念,一切都是可以利用的數據。 劍橋大學互聯網與社會研究中心教授朔沙娜·祖博夫將這種人工智慧和資本「合體」的現狀,稱之為 「監控資本主義」 (Surveillance Capitalism)——在大數據和人工智慧的協助下,通過對每個人的監控和信息的榨取,實現資本的最大化。
業界對此的態度很曖昧。AI 作為當下最熱門、來錢最快的行當之一,這些動輒年薪50萬美元的工程師很少得閑來思考「形而上」的問題。 一位不願具名的研究人員在與我的微信私聊中表達了他的「個人看法」:「現在的技術離『通用人工智慧』還很遠,對社會倫理方面的影響沒有那麼大,更多還是從繁瑣的重復勞動中解脫出來。」
作者試圖找到行業內人士對此評論,谷歌(中國)和網路自動駕駛部門的人工智慧相關人員均表示,探討 AI 的社會問題,牽涉到公司利益和形象,比較敏感,不便評論。
「人工智慧作為一個工具,如何使用,目前來看決定權依然在人。」俞揚說道 ,「系統的設計者和商業(應用)的提供人員需要對此負責。」
如何負責?這或許需要我們正視人工智慧對整個社會關系的挑戰。
4、人工智慧作惡之後
2018年3月 19 日,一輛自動駕駛的優步(Uber)在美國亞利桑那州惹上了麻煩。面對路中出現的一個推著自行車的女性,這輛車速 38 mph(約61km/h)的沃爾沃在昏暗的光線條件下並沒有減速,徑直撞了上去,受害者被送往醫院之後不治身亡。這是自動駕駛第一例行人致死的事故。
電視台對自動駕駛優步車禍的報道。
事故發生之後,有不少人將矛頭指向了自動駕駛的人工智慧是否足夠安全上,或者呼籲優步禁止自動駕駛。然而更關鍵的問題在於,亞利桑那有著全美國幾乎最開放的自動駕駛政策,事故發生地坦佩市(Tempe)是實行自動駕駛最火的「試驗田」之一;事故所在的街區早已做過路線測試,並被自動駕駛的智能點贊。但是在事故發生之後,對於責任的認定依然遇到了困難。
因為人的疏忽造成的車禍數不勝數,人們早已習慣了如何處理、怎樣追責;然而機器出錯了之後,人們忽然手足無措。 人工智慧會出錯嗎?當然會。只是我們在這個問題上一直缺乏認知。 就如同上文提到的「隱性歧視」,深度學習的「黑箱」,現有的法律法規很難對這些錯誤進行追究,因為不要說普通人,就連技術人員也很難找出出錯的源頭。
當人工智慧的決策在人類社會中越來越重要時,我們也不得不考慮,智能為什麼會犯錯,犯錯了怎麼辦;若要讓智能擺脫被商業或者政治目的支使的工具,真正成為人類的「夥伴」, 需要怎麼監管、如何教育,才能讓人工智慧「不作惡」。
人工智慧的監管問題亟待解決。
對此,現有的法律框架內很難有清晰的、可操作的實施方案。歐盟率先在數據和演算法安全領域做出了立法的嘗試,2018年5月即將生效的新法規規定,商業公司有責任公開「影響個人的重大決策」是否由機器自動做出,且做出的決策必須要「可以解釋」(explainable)。但法條並沒有規定怎麼解釋,以及細到什麼程度的解釋是可以接受的。
另外一個重要的問題是, 讓機器求真求善,需要人類自己直面決策中的黑暗角落。 在 Atari 游戲智能的測試中,游戲中的人工智慧 bot 可以用最快的速度找到漏洞開始作弊,而游戲玩家又何嘗不是呢?不管是帶有歧視的語義分析,針對少數族裔進行的「智能監視」和跟蹤,或者把已婚未育女性的簡歷扔掉的智能簡歷篩選,都長期以各種形式存在於人類社會中。
人工智慧不是一個可預測的、完美的理性機器,它會擁有人類可能擁有的道德缺陷,受制於人們使用的目標和評估體系。 至少目前,機器依然是人類實然世界的反應,而不是「應然世界」的指導和先驅。 對機器的訓練同樣少不了對人性和社會本身的審視——誰在使用,為了什麼而使用,在我們的世界中扮演著怎樣的角色?數據是誰給的,訓練的目標是誰定的?我們期望中的機器,會繼承我們自己的善惡嗎?
谷歌中國人工智慧和機器學習首席科學家李飛飛認為, 要讓機器「不作惡」,人工智慧的開發需要有人本關懷 。「AI 需要反映我們人類智能中更深層的部分,」李飛飛在《紐約時報》的專欄中寫道,「要讓機器能全面地感知人類思維……知道人類需要什麼。」她認為,這已經超越了單純計算機科學的領域,而需要心理學、認知科學乃至社會學的參與。
未來,人工智慧進入更多的領域、發揮更強的功能,是無可爭辯的事實。然而,我們的生產關系能否適應人工智慧帶來的生產力,這句馬克思政治經濟學的基本原則值得我們認真思考一番。 我們並不想看到未來的「機器暴政」將我們的社會綁在既有的偏見、秩序和資本操縱中。
一個AI
人工智慧之所以會作惡,可能就是因為太像人類了吧。
8. 科幻電影搜索一個女子可以預知未來一個男子會在海邊殺人,結果成事實了
《關鍵報告》!!!!
主要演員: 湯姆·克魯斯
未來世界科技高度發達,罪犯在未犯下罪行前就能被警方偵測出犯罪意向並且因此受到法律制裁,約翰·安德頓是一名聯邦警探,專門負責調查這種有犯罪動機的涉嫌人員。有一天,意想不到的事情發生了,一向盡忠職守,遵紀守法的約翰竟被偵測出有犯罪企圖,被控告「即將」犯下謀殺罪而遭到昔日同事追捕,他被迫亡命奔逃,但當查到自己是被一份「關鍵報告」認定有罪時,他開始質疑這種審判制度,展開秘密調查,原來整個審判制度幕後隱藏著一個重大陰謀…… 這部驚悚科幻片,改編自著名科幻小說家菲利普·K·迪克(Philip K. Dick)的同名小說。故事發生在2080年的華盛頓,科技高度發達,罪犯在未犯下罪行前就能被警方偵測出犯罪意向並且因此受到法律制裁,湯哥飾演的約翰·安德頓(John Anderton)是一名聯邦警探,專門負責調查這種有犯罪動機的涉嫌人員。有一天,意想不到的事情發生了,一向盡忠職守,遵紀守法的約翰竟被偵測出有犯罪企圖,而遭到同是警員的弟弟的追捕,為了洗盡冤屈,他只好開始獨自追查真相。 2002年最棒的科幻電影,斯皮爾伯格與湯姆·克魯斯組成全世界最具魅力的搭檔。本片完全以精妙劇情構思和強烈的未來主義色彩取勝,沒有怪獸,外星人之類的科幻噱頭,僅僅一個「預防犯罪局」的設想就使這部電影卓而不群,整部戲張馳有度,平淡處留有餘味,高潮段落新意迭出,體現了斯氏的大師手段。喜歡動作戲的人也不會失望,一場未來飛車追逐的戲將讓你再次領略阿湯在《碟中諜2》中的瀟灑身手,與《人工智慧》一樣,斯氏在特技的使用上非常小心,卻將不多的特技鏡頭做到了極致,那幾只掃描視網膜驗證身份的電子蜘蛛與阿湯的對手戲是本片最讓人難忘的鏡頭之一,人與特技的完美結合不過如此了。
http://ke..com/view/1644651.htm
http://kankan.xunlei.com/vod/movie/28/28302.shtml
9. 求電影名
《貓鼠游戲》
Catch Me If You Can
導演:斯蒂文·斯皮爾伯格Steven Spielberg
編劇:傑夫·納桑森Jeff Nathanson
主演:萊昂納多·迪卡普里奧Leonardo DiCaprio
湯姆·漢克斯Tom Hanks
詹妮佛·迦納Jennifer Garner
馬丁·西恩Martin Sheen
克里斯托弗·沃爾肯Christopher Walken
片長:140分鍾
類型:傳記/喜劇/犯罪/歷史
級別:PG-13(部分有關性的內容及語言)
出品:夢工廠Dreamworks
劇情:
此片根據真人真事改編而成。真實生活中現年53歲的法蘭克·阿巴葛納爾(萊昂納多·迪卡普里奧扮演)據說目前在美國聯邦調查局講授犯罪偵查課程,但他在青少年時期卻是令執法當局頭疼的人物。擅長偽造文件的他,十八歲不到就在美國五十個州與全球二十八個國家開出總金額高達六百萬美元的空頭支票,成為美國歷史上最年輕的FBI頭號通緝犯。他犯罪的手段特別高明,曾佯裝成醫生、律師、駕駛員甚至FBI探員。警官喬夏耶(湯姆·漢克斯扮演)則與這位手段高明的罪犯展開了一場精彩又驚心的鬥智鬥力,法蘭克·阿巴葛納爾後來雖然不幸失手,但他被捕入獄五年之後,在喬夏耶的建議與奔走之下,卻得以恢復自由之身———條件是擔任FBI顧問(傳授如何破解犯罪)!在現實生活中,本為死對頭的喬夏耶後來與法蘭克·阿巴葛納爾兩人,後來竟戲劇化地成為摯友。
拍完《人工智慧》(A.I.)的斯蒂芬·斯皮爾伯格放開影片的宏大意義,從《少數派報告》(Minority Report)至此片放開身心全情娛樂,所以這場「貓鼠游戲」一定好看又過癮。而本片的兩位主演萊昂納多·迪卡普里奧和湯姆·漢克斯已經令影片有相當的票房保證。
去年數學家納什的自傳電影《美麗心靈》成為奧斯卡的贏家,而今年傳奇罪犯的傳記能否也受青睞,是個頗有意思的疑問。本片主演萊昂納多和湯姆·漢克斯都被認為有望入圍奧斯卡影帝提名。曾以《費城故事》(Philadelphia)及《阿甘正傳》(Forrest Gump)連續當選奧斯卡影帝的湯姆·漢克斯,在這部真人真事改編的影片中將飾演苦苦追緝萊昂納多的聯邦調查局干員喬夏耶。有趣的是,45歲的湯姆·漢克斯在今年夢工場與福克斯電影公司聯合出品的新片《毀滅之路》(The Road of Perdition)中,飾演的角色卻是綽號「死神天使」的黑道頭子,與聯邦調查局干員形象有如天壤之別。
10. 人工智慧的應用領域包括哪些
人工智慧主要應用領域
1、農業:農業中已經用到很多的AI技術,無人機噴撒農葯,除草,農作物狀態實時監控,物料采購,數據收集,灌溉,收獲,銷售等。通過應用人工智慧設備終端等,大大提高了農牧業的產量,大大減少了許多人工成本和時間成本。
2、通信:智能外呼系統,客戶數據處理(訂單管理系統),通信故障排除,病毒攔截(360等),騷擾信息攔截等
3、醫療:利用最先進的物聯網技術,實現患者與醫務人員、醫療機構、醫療設備之間的互動,逐步達到信息化。例:健康監測(智能穿戴設備)、自動提示用葯時間、服用禁忌、剩餘葯量等的智能服葯系統。
4、社會治安:安防監控(數據實時聯網,公安系統可以實時進行數據調查分析)、電信詐騙數據鎖定、犯罪分子抓捕、消防搶險領域(滅火、人員救助、特殊區域作業)等
5、交通領域:航線規劃、無人駕駛汽車、超速、行車不規范等行為整治
6、服務業:餐飲行業(點餐、傳菜,回收餐具,清洗)等,訂票系統(酒店、車票、機票等)的查詢、預定、修改、提醒等
7、金融行業:股票證券的大數據分析、行業走勢分析、投資風險預估等
8、大數據處理:天氣查詢,地圖導航,資料查詢,信息推廣(推薦引擎是基於用戶的行為、屬性(用戶瀏覽行為產生的數據),通過演算法分析和處理,主動發現用戶當前或潛在需求,並主動推送信息給用戶的瀏覽頁面。),個人助理