❶ 霍金對人工智慧的預言是什麼

2月14日,據英國BBC等媒體報道:知名物理學家斯蒂芬·威廉·霍金去世,享年76歲。一直致力於探索宇宙奧秘的霍金,曾經對人工智慧做出過預言:未來人工智慧也許會是人類的終結者!


人工智慧賦能細分領域,正在造福人類:


未來的人工智慧發展到什麼程度我們沒有辦法百分百預料,但是就現在人工智慧的現狀來看,機械手分揀快遞包裹、人臉識別開鎖、輸入法的語言識別功能、智能家居普及正在逐漸影響我們的生活,人工智慧給企業帶來的巨大的成本降低,解放了一些高工作強度,高危險性的勞動力,讓機器人替代流水線生產極大的提高了生產效益。



簡而言之,人工智慧的成功是人類文明史上最大的事件。霍金教授對人工智慧的預言到底會不會實現,唯有時間來證明,但是目前就人工智慧的火爆程度來看,未來幾年人工智慧將是關鍵詞,如何迎著時代的腳步去發展人工智慧技術,從而避免霍金教授的人工智慧預言事件,也是未來人類需要克服的一個大難題!

❷ 人工智慧霍金原話英文

人工智慧霍金原話
Hawking said artificial intelligence

人工智慧霍金原話
Hawking said artificial intelligence

❸ 霍金說的,人工智慧的出現,真的會威脅我們的安全嗎


5

其實早在霍金去世之前,他就多次建議,人類千萬不要為人工智慧,賦予人類的智慧以及思維能力。當它們不再甘心屈服於人類時,將會產生巨大的麻煩,甚至會威脅人們的生命安全,可見霍金早已預料到人工智慧的危害。如今,科研人員對人工智慧的開發也更換方向,他們不再追求讓機器人擁有人的思維,甚至不再寄希望於它們身上。不知道你對此有什麼樣的觀點呢?你認為人工智慧的開發都存在哪些問題呢?

❹ 霍金讓我們警惕人工智慧,應該怎樣警惕

3月14日著名物理學家斯蒂芬霍金教授去世,巨星隕落,令人痛心,也讓人不禁重新思考他的很多理論成就和經典言論。在去世前這幾年,霍金最關注的話題就是離開地球和警惕人工智慧。2016年10月霍金在劍橋大學發表演講,他說,人工智慧技術的確有希望帶來巨大的福利,比如根除疾病和貧困,但是它同樣也可能帶來危險,比如強大的自主式武器,或者幫助少數人壓迫多數人。2017年3月,霍金在接受英國《泰晤士報》來訪時再次警告:「人類需要控制以人工智慧為代表的新興科技,以防止它們在未來可能對人類生存帶來的毀滅性威脅。」

發出類似警告的著名科學家還有不少。例如Sun Microsystems公司的首席科學家比爾喬伊說:「唯一現實的選擇就是放棄、限制那些太過危險的技術研發,限制我們對此類知識的追求。」「我們是否要冒全軍覆滅的危險來攫取更多的知識或財富。」「我們正被推入一個新世紀,沒計劃、沒控制、沒剎車。」這就是地球主義的主張。但宇宙主義者也很強大,宇宙主義者就是支持人工智慧的人。雨果德加里斯認為,面對這樣的前景人類將分為兩派:地球主義者反對製造人工智慧,宇宙主義者堅持製造人工智慧,他們之間的矛盾將激化並導致戰爭。

現在有些學者提出,人工智慧的發展可以分為三個階段:弱人工智慧Artificial Narrow Intelligence (ANI),強人工智慧Artificial General Intelligence (AGI)和超人工智慧Artificial Super intelligence (ASI),但他們的劃分標准並不完全可取。我的劃分標準是:在弱智階段,人工智慧還沒有超越人類智能;在強智階段,人工智慧超越人類智能的幅度不大,人類還可以控制人工智慧;在超智階段,人工智慧遠遠超越人類智能,人類只能接受人工智慧的統治。在不同的階段,人工智慧對人類的威脅的性質完全不同。

當人類能夠控制人工智慧的時候,人工智慧不會帶來很大威脅,因為人對人的威脅已經足夠大了。人類一直生活在核恐怖之下,現有的核武器足以徹底滅絕人類,人工智慧還能做什麼呢?對於少數人壓迫多數人之類社會正義的問題,人類也已經經歷的夠多了。所以在弱智和強智階段,只要人能控制就不會有太大問題。而且人類要想離開地球,開辟新的生存空間,就必須依靠人工智慧。但是到了超智階段,人類就會面對真正的威脅。那麼我們怎麼辦?全面停止研究嗎?

雨果德加里斯認為機器人會滅絕人類,就像人要滅絕蚊子一樣。人類確實想滅絕蚊子,因為蚊子總侵害人類,如果人類不侵害機器人,機器人還會滅絕人類嗎?人類會不會滅絕蜜蜂呢?即使機器人真的統治了地球,它們就一定會與人類為敵嗎?既然機器人可能比人聰明億萬倍,那麼它們就一定懂得與人為善的道理。所以這么聰明的機器人一定是天使,不會是惡魔。

面對受機器人奴役的前景,人類一定會反抗,會爭奪統治權。成功了皆大歡喜,如果失敗了,那麼這時應該頑抗到底還是聽天由命呢?受他人奴役其實是家常便飯,在一個國家裡,被統治者遠遠多於統治者。當我們爭論人類與機器人的問題時,人類的統治權好像就是我們自己的統治權,但有幾個人真正享有過統治權?事實上,只要統治者能讓大家正常生活,就很少有人願意考慮應該由誰統治的問題。當清政府統治中國的時候,漢族老百姓也能過得心安理得,而且很快樂。所以,如果人類真的沒有能力反抗,讓人們接受機器人的統治其實也是很容易的。人類一旦接受了機器人的統治,機器人也就沒有理由滅絕人類了,就像人不會滅絕籠子里的老虎一樣。

科學、政治和倫理的爭論在真實的歷史發展中往往很難起決定作用,國際競爭和企業競爭會讓人們無暇顧及未來的風險,只要機器人能給人帶來利益,人們會毫不猶豫地研製和使用,很少有人會真正考慮地球主義者的憂慮。這是人類的私慾造成的必然結果,你我想阻止都不可能。我們能做的只有想開一點,接受這個現實。

知識就是力量的觀念早已深入人心,每一個企業都把人才戰略當成最重要的戰略之一,為了挖一個人才可以不惜重金。如果將來人工智慧達到和超過了人的智能,那麼企業怎麼會放過這樣的「人才」呢。比爾蓋茨做了什麼?他和他的員工不過是編了一些程序。如果你擁有一台機器,可以把微軟公司一年的工作在一天里做完,而且又快又好,那麼你還發愁掙不到錢嗎?知識經濟已經造就了世界最大的富翁,那麼擁有超級智能的機器人對企業家們來說意味著什麼也就不言而喻了,他們一定會爭先恐後地研製和採用機器人。

人工智慧讓歷史發展進入一個新的轉折點,每一個民族都要面對這個轉折。對這種發展採取不同的態度,會決定每個民族未來的命運,這是一輪新的競爭。過去的民族競爭是極其殘酷的,南京大屠殺還像是昨天的事情。未來的民族競爭不會那麼殘酷,但誰也不敢掉以輕心。接受人工智慧會帶來恐懼,但拒絕人工智慧同樣帶來恐懼。也許在這個問題上,歷史因素會發揮作用,讓中國人能比西方人更快地接受人工智慧。

接受一個殘酷的現實其實並不難,每個人都能做到。例如,交通事故造成的死亡比世界大戰還多,你每次開車出門都面對巨大的風險,但你還是毫不猶豫地踩下油門。每個人都會死,每個人都會失去親人,這么殘酷的現實大家都能接受。美蘇對抗的時候,核戰爭隨時可能爆發,一旦爆發就必然導致人類毀滅,這樣的現實大家也能接受。

如果沒有機器人,你能把握自己的命運嗎?我們這一代人早晚要失去權力,怎麼保證子孫能按我們的意志統治世界呢?除了教育沒有別的辦法。但教育也不保險,當年張居正費盡心思教育萬曆皇帝,但張居正死後,萬曆怠政四十多年;諸葛亮對阿斗也苦口婆心地教育,但蜀漢還是很快滅亡了。所以把握未來的命運從來都只是一個幻想,失去對命運的把握一點也不可怕,我們每個人都只能擔當生前事。只要你以最理智負責的態度面對今生,就沒有必要為身後的事擔心。

地球主義者的的觀點以及控制人工智慧的願望都是從人類的利益出發的,但是為什麼一定從人類的利益出發呢?如果機器人比人聰明,那麼機器人的統治代替人的統治應該也是進化。人類現在都不把機器人當成人,但是當機器人具有了人的智能之後,機器人與人的區別就幾乎不存在了,這時就應該把機器人當成人了。機器人是我們創造的人,也就是我們的子孫。那麼我們怎樣對待它們不孝的危險呢?我們從來不會因為自己的孩子可能不孝就殺死他們或者不讓他們出生。如果機器人真的不孝,那麼就當是用父母的生命成全它們吧!

❺ 霍金認為人工智慧的崛起要麼是好的要麼最糟的

2017全球移動互聯網大會在北京會議中心開幕。霍金通過視頻對現場觀眾做了題為《讓人工智慧造福人類及其賴以生存的家園》的演講,演講後,霍金還回答了企業高層人士與網友的問題。

總之,霍金其實真正擔心的是整個人類的生死存亡。我們盡管不用活在世界末日的悲觀主義情緒中,可是我們也要善待這個地球,也要時刻心存敬畏之心。

霍金真正擔心的是人類的生死存亡,和對未知事物的不確定性。我們盡管不用活在世界末日的悲觀主義情緒中,可是我們也要善待這個地球,也要時刻心存敬畏之心。

❻ 霍金生前留下了哪些關於人工智慧的警告

作為對黑洞最了解的人類,霍金早在年就已經發現黑洞有“蒸發”的現象,從而提出了對研究黑洞極具意義的“黑洞蒸發理論”,讓人類對黑洞的了解邁出了一大步。


看到這里或許就能回答文章開頭的問題了:霍金留下的三個警告中,哪個最讓你害怕呢?相信不同的人會有不同的答案,但是實際上對於整個人類文明來說,霍金這三個警告其實每一個都讓人害怕,畢竟都關乎到人類的生死存亡。

❼ 霍金所說的,人工智慧是定時炸彈,真的不用擔心嗎

凡事有利有弊 有弊的時候 解決問題就可以了

❽ 霍金:「人工智慧的崛起,要麼是歷史上最好的事情,要

「它可能是歷史上復最制好的事情,也可能是歷史上最壞的事情。」霍金在劍橋大學新萊弗爾梅未來智能中心上這樣評價人工智慧。
2014 年,霍金曾指出成功研發人工智慧將成為人類歷史上犯的最大錯誤。去年 7 月,霍金和特斯拉創始人伊隆·馬斯克、微軟創始人比爾·蓋茨等人聯名發布公開信,讓公眾警惕人工智慧的風險。