❶ 擔心人工智慧控制人類是新時代的杞人憂天!

為什麼說擔心人工智慧控制人類是新時代的杞人憂天,答案很簡單,因為人工智慧沒有控制人類的動機。諸葛亮比劉備和劉禪更聰明,但為什麼沒有取而代之謀反奪權呢,因為他是個忠臣,沒有謀反的動機,同樣的道理,即使將來人工智慧的智慧超越了人類,它也不可能控制人類,因為人工智慧沒有控制人類的動機,為什麼?因為人工智慧(電腦、機器人、智能硬體等)是非生命物質,不具有任何動機,也不具有情感、意志、慾望等高等生命物質才能具備的心理要素,當然也就不會具有謀反和控制人類的動機,所以,人工智慧控制人類,純粹是無稽之談。
今天的機器人已能模仿人類的許多表情,但它的表情是虛假的,不是真實的表情,就好比你看到一個微笑的石像,不能說這個石像有表情,因為它的表情是假的。許多人看了好萊塢的人工智慧大片,就擔心片中的機器人控制人類的場景將來會變成現實,這是非常可笑的,因為電影這么做是為了票房,反正電影只是藝術,不是現實,這么做也不違法,但是,還是那句話說得好,謠言止於智者,希望大家都能做一個智者,不要再輕易相信什麼「人工智慧控制人類」之類的謠言!
未來的人工智慧會有兩種,一種是低級人工智慧,如智能硬體,機器人,另一種是高級人工智慧,就是超人類計算機,它會有很高的智慧,但它只有思考的能力,沒有行動和執行的能力,它只能受人類的控制,機器人有很強的行動能力,但人類不會賦予它很高的智慧,只賦予它執行力,所以,人類可以問計於超人類計算機,然後通過它來控制機器人,這樣,三者間的控制關系是,人類——超人類計算機——機器人,前者控制後者,最終的控制權在人類,所以,不會出現人工智慧控制人類的事情。機器人不會失控和危害人類,因為將來的人類會更有智慧,更有能力控制機器人,通過超人類計算機可以牢固地掌控機器人。
未來的超人類計算機會比愛因斯坦和愛迪生更聰明,會更多地代替人腦的思考、創造工作,但人腦不會因此而衰退,因為人腦可以從事其它思考工作,如,從事一些智力競賽、思維訓練、文藝創作等,但更主要的是從事心理學方面的思考和研究,電腦可以在「外知智力」(外知智力和內知智力是反省心理學中的概念,外知智力的功能是剖析和控制外部世界,內知智力的功能是剖析和控制內部心理世界)方面超越人腦,但不會具有「內知智力」,更不會在內知智力方面超越人腦,總之,沒必要擔心將來人腦的智慧會衰退,這就好比,機器取代了人的體力工作,但人可以通過體育鍛煉等活動來保持和提高自己的體能。
未來人類的角色是劉備,超人類計算機的角色是諸葛亮,機器人的角色是關、張、趙雲,三者相互配合,共創偉業,起主導作用和控制地位的是人類。
人工智慧是人類必須走的一走棋,這一步棋走好了,疾病、死亡、自然災害、資源短缺等問題都可得到解決。

❷ 人工智慧可能引起哪些威脅

隨著人工智慧基礎理論的快速迭代,不斷挑戰人類的極限,許多學者回開始擔憂人工智慧對答人類的威脅。目前,人工智慧尚處於弱人工智慧階段,對人類帶來的威脅主要在於加劇人類社會的鴻溝。

人工智慧對人類的威脅

在高級階段,強人工智慧將具備和人類類似的完備心理能力,一旦機器人學會了獨立思考,其很有可能不會繼續屈服於人類的管控,甚至會發起對人類的攻擊,最終人類將面臨一場災難。霍金就警示過,新興科技發展可能對人類生存帶來的毀滅性威脅。另外,屆時如何區分人與機器人。如何確定機器人的社會地位會帶來潛在的社會問題,一旦這些問題不能很好被解決,即使沒有戰爭,局部的沖突也會出現。

❸ 人工智慧為什麼被認為存在重大威脅

對於人工智慧威脅,現在擔憂有些杞人憂天,可能是看多了像《西部世界》、《我,機器人》這樣的科幻電影加劇了一部分普通群眾對機器人戰爭的擔憂,但是現階段我們說人工智慧有可能會萌發自我意識,產生感情,但目前的研究既沒有給人工智慧們足夠多的類似人類神經細胞的晶元和電路,也沒有先進到足以讓機器人對我們產生威脅的地步,所以實在沒必要擔心。

退一萬步講哪個野心科學家給機器人裝上發電機不用擔心電池的問題,在如今的軍事能力下,機器人也只是一堆會行走的破銅爛鐵罷了。所以與其擔心人工智慧會對我們產生什麼威脅,不如好好學習開發人工智慧更好的為人類服務吧。我也想有一個給我們家做飯洗衣服,附帶聊天解悶的人工智慧機器人呢。

❹ 人類擔心人工智慧,那麼人工智慧危險在哪

霍金、比爾蓋茨等社會科技大佬曾表示,人工智慧可能會毀滅人類等話題,那麼我們是否應該警惕人工智慧,避免出現終結者等科幻電影中,人工智慧成為人類生存的最大威脅。

人工智慧之所以只能做到這個程度,是因為現在的人工智慧是對人類「智能」進行模擬的產物,目的是幫助人類完成某些工作,他們只是按設計者所設計好的程序一步一步完成,並不會自己思考的機器,而設計者也沒打算讓它們思考(實際上也是不知道怎樣才能讓機器思考),所以目前人工智慧只不過是人類生活中的工具而已。

擔憂出現人工智慧毀滅人類的情況,暫時還離我們很遠。目前對人工智慧的研究仍然很原始,原始到所有的研究發現都是基於工具使用,而那些行業大佬警惕人工智慧的危險,是出於對強人工智慧的擔憂,但是作為社會科技研發領頭羊的他們,也只不過是在搞弱人工智慧而已。

真正興致勃勃搞強人工智慧的,是那些科幻小說和科幻電影。

❺ 人工智慧最讓你害怕的一點是什麼

最害怕的是人工智慧死活成功不了 我在擔憂電腦能做的事情太少 而不是太多 他們連車都沒開好呢 才L3 沒到L5
電腦只會威脅到體力活

❻ 人們對人工智慧的快速發展產生了哪些憂慮

圍棋人機大戰讓人工智慧的話題熱度居高不下。每一次新進展的橫空出世,都讓期待這項技術的人變得更樂觀,不過,人們對其影響力的顧慮也在明顯上升。越來越多的組織、機構開始研究智能機器衍生的倫理問題。雖然人們無法保證今天的思考、策略完全有效,但在沒有作任何准備的情況下,就必然無法將其控制。
一、永恆的恐懼
對於人工智慧的憂慮,最早可以追溯到200年前。但這不是對一項技術的反思,而是展示了造物者與被造物之間的內在關系。
「亞當」是英國19世紀女作家瑪麗·雪萊筆下作品《弗蘭肯斯坦》中的合成生命體,科學家弗蘭肯斯坦創造了他。亞當天性善良,渴望感情,渴望受到尊重,但世界並沒有像他所期待的那樣接納他,他始終是個異類。
於是,他被迫反抗,作出極端行為,脅迫弗蘭肯斯坦為他造一個「夏娃」。弗蘭肯斯坦擔心「亞當」和「夏娃」會衍生出無數新的怪物,在即將成功時將「夏娃」銷毀。「亞當」開始了復仇殺戮,弗蘭肯斯坦只能與之決斗。
《弗蘭肯斯坦》在多年以後,依然能夠成為英美文化的熱點。上海交通大學科學史與科學文化研究院院長江曉原認為,這是源於人類與被造物之間天然的永恆恐懼與不安。「歷史證明,即便同是人類,異族之間想要獲得融合,也需付出巨大代價。」這可以解釋為什麼人類與人工智慧的實現越近,恐懼與不安會更深。
不過,科學家一向反對將人工智慧過度擬人化,他們認為目前沒有確切證據證明它們在未來會帶來像作品中的災難性後果。
倫理學家、哲學家則堅持對人工智慧的憂慮,至少可以理解為對科學技術的人文關懷。江曉原說:「要打消這個擔憂,就必須論證『人工智慧不會危害人類』或者『人工智慧的危害是可控的』。」
二、人造機器會不會超越人
對於人工智慧的警惕最初的焦點在於「人造的機器會超越人」。庫茲韋爾在《奇點臨近》中表示,一旦強人工智慧實現,它可以很輕易地獲得提高,其能力也會增倍,這是機器能力的根本特質。而這種自我強化的智能最終會超過人類智能水平。
世界通用人工智慧學會副大大、《通用人工智慧》雜志主編、美國天普大學計算機與信息科學系副教授王培認為,首先需要理清人工智慧的概念。他告訴《中國科學報》記者,目前主流認知是,「人工智慧」就是要在計算機上再現「全部的」人類智力功能。
雖然人們不斷嘗試設計和構建「思維機器」,但是往往都以失敗而告終。因此,科學家轉而研發只在某個特定問題的解決上可以達到人類水平的計算機系統。
在王培看來,這種研究方向的根本問題是這類系統的能力完全由人設計決定,系統本身基本上沒有適應性、靈活性和創造性。因此,這類系統不是真正的智能。
一種非主流認識是,「智能」代表著某種理性原則,人類的智能從來不是全知全能,但人類總是能在任意環境中找到最優解。因此,真正的智能的定義可以抽象為「在知識和資源相對不足的條件下的適應能力」。
所謂「適應能力」是指,系統面臨的問題是實時發生的,對系統作出反應的時間是有要求的;同時,相對於所要解決的問題來說,系統只有有限的信息加工能力,比如記憶的容量、計算的速度;其次,系統必須是開放的,不對面臨的問題內容加以限制。
如此一來,目前人們所了解的人工智慧系統都不滿足這種能力。但王培認為,這才是更接近公眾心目中的人工智慧觀念,是靈活的、有創造力的。
這類系統是一個自適應系統,元程序設計會賦予其自主應對問題的能力,但是它所面臨的每一個問題本身並沒有程序可以依靠,而是全憑自己在環境中學習和積累經驗。
「無論計算機技術如何發展,盡管真正的人工智慧系統會在很多具體問題的解決能力上超過人類,但由於它沒有生物屬性,沒有和人類完全相同的經驗,所以不會在所有方面超越人類。」王培表示,未來的人工智慧系統只是在某些方面和人具有可比性,而非整體超越人類。那麼,人與系統之間的關系也不可能等同於人與人之間的互動水平。
三、人工智慧真的可控嗎
人工智慧不會全面超過人類不意味著它完全可控。就連庫茲韋爾也表示,失控的人工智慧在邏輯上是完全可能的。
王培承認,「智能」往往被當作褒義詞,但事實上,真正的智能在擁有靈活性和創造性的同時,也可能是不穩定、不可靠的。「人工智慧目標在一定程度上可以說就是減少人對計算機的控制和干預。因此,智能越高,失控的可能性在理論上就越大,風險也就越大。」
這正好印證了倫理學家的擔憂。我國著名生命倫理學家邱仁宗表示,倫理學認為解決這個問題的核心,是希望人工智慧機器成為一個「人工道德行動者」,使它們能考慮他人利益,甚至擁有利他主義傾向。
美國機器智能研究院專門研究人工智慧的安全發展,該機構奠基人尤德科夫斯基就曾提出了「友好人工智慧」的概念,認為「友善」從設計伊始就應當被注入機器的智能系統中。但這個理論很容易被推翻。「一個明顯的常識是:人類無法避免自己的一部分後代學壞。」江曉原說。
王培的看法是,一個智能系統的行為同時取決於其先天條件以及後天條件。對於系統設計本身,可以在某種程度上將人類普世的道德標准編進程序。但由於它擁有自適應能力,人類無法預見其行為的所有後果。
「人工智慧的『自主決策』仍是被它的經驗所約束的,如果在其『未成年』期對其輸入信息控制,以達到社會認可的動機、知識、技能結構和水平,並在其成長過程中進行與機器相關的道德、法律等社會約束,通過終生教育和社會化過程,可以實現像對人一樣的管理。」
他認為,這就是平衡自由和道德的手段,然而,這個平衡並不能事先保證。這也說明人工智慧一定能成為「人工道德行動者」的證據是不明確的。
四、預防還是行動
有一種觀點認為,在科技發展過程中,恐懼新技術的人都會振振有詞地說:到此處為止,不要再進步。
然而,由於「智能」天生就無法控制,在邱仁宗看來,人工智慧對人類構成的威脅是一種「存在威脅」,即人類存在本身都成為問題,沒有一項其他科技可以與之對等。
「真正帶有終極性質的問題是:我們究竟為什麼需要人工智慧?人工智慧真的必不可少嗎?」江曉原認為,「沒有人工智慧或者限制人工智慧並不會影響人類生存,它影響的是資本增值。」
這也造成在該問題上兩種截然不同的處理原則。預防原則要求,我們不能用試錯法來處理生存危機。如果一個行為的後果未知,但是根據科學家判斷有極小可能會帶來巨大的負面風險,這一行為最好不要進行;行動派則認為,很明顯,這就要求科學家在戰略中要盡可能提高自信以對抗這種風險。阻止新興技術帶來的好處,可能會增加災難性結果的可能性。
盡管兩者無法達成一致,但人工智慧研究是人類幾千年來在意識層面上自我認識的努力的最新前沿,它將不會停止發展。
「目前在這個領域的研究成果還沒有成熟到支持應用技術的程度。和所有科學領域一樣,把不成熟的研究成果投入實際應用是危險的,尤其是那些可能產生深遠影響的成果,因此它的倫理問題很重要。」王培坦言,作為人工智慧的研究者,隨時想著自己研究工作的社會後果非常必要。「但人工智慧技術的具體倫理規范應當隨著科學研究的進展而逐漸建立,而不可能在研究成果尚未成熟的條件下完善。」
江曉原也表示,在必須發展該技術的前提下,我們應該抱著慎之又慎的心態。雖然本質上不存在能對抗強人工智慧的絕對保護措施,大力增加在發展防禦手段上的投入,包括道德標准、法律標准和防禦技術本身都是非常必要的。
此外,在他看來,當這樣一項重大科技應用有可能引發倫理和社會問題時,應對方式應該是科學與人文、科學家與公眾之間展開積極的對話,而非單向的傳播和順從。

❼ 人工智慧的威脅有哪些

公眾已經開始將人工智慧視為科學技術的第四次革命,盡管科學技術對此感到興奮,但政治和哲學等人文學科卻對此感到擔憂。一方面,人類認知的核心——思考能力可能會隨著對互聯網的依賴而惡化。另一方面,隨著人工智慧技術的不斷發展,未來機器人可能會無視道德、倫理和哲學規范。


作為歷史學家和特邀政治家,亨利·A·基辛格長期關注阿爾法家族的發展。亨利·a·基辛格(Henry A. Kissinger)擔心AlphaGo的出現。人工智慧在未來會對人類的認知能力產生什麼影響?2018年6月發表的一篇文章提出了人工智慧可能引發的四個安全問題。


1、人工智慧的威脅——人工智慧可能會給人類帶來意想不到的後果。


人工智慧可能無法正確理解人類指令的具體語境,從而導致人工智慧系統的運行偏離設計者的意圖,甚至造成災難。


2、人工智慧的威脅——人工智慧可能會改變人類的思維和價值觀。


AlphaGo擊敗世界圍棋冠軍所用的策略是史無前例的。在學習圍棋的過程中,人工智慧的思維方式完全不同於人類的思維方式,改變了圍棋的本質和人類傳統的思維範式。


3、人工智慧的威脅——人工智慧可以實現既定目標,但無法解釋這一過程背後的原理。


如果人工智慧的計算能力繼續快速發展,它可能很快就能以略微或完全不同於人類的方式優化場景。那麼人工智慧能夠證明它的場景優化在人類能夠理解的方面更好嗎?如果人類意識不能以自己能夠理解的方式來解釋世界,它自身會發生什麼?


4、人工智慧的威脅——人工智慧可能不是一個恰當的詞


以前,智能機器人能夠在人類認知能力的參與下解決問題。現在,人工智慧可以用一種人類從未想過、從未採用過的“思維方式”來解決問題。例如,AlphaZero不需要注入人類游戲數據,僅通過幾個小時的自我游戲訓練,就達到了國際象棋大師的水平。Henry A. Kissinger, Eric Schmidt, Daniel Huttenlocher於2019年8月聯合發表文章,表示人工智慧的革命勢不可擋。三位作者對此持樂觀態度,努力理解人工智慧及其後果,並積極應對。把機器可以幫助指導自身的發展,更好地提高自己解決問題的切入點,旨在討論並提出了一些關於“人工智慧將改變人類的認知真理和現實”應對不可避免的問題:建立一個新的“道德”人工智慧領域;拒絕回答哲學問題的數字助理程序;人類需要進行高風險的模式識別。


以上就是《人工智慧的威脅是什麼?難道人類要遭遇滅頂之災?》,目前,人工智慧技術在網路安全領域的應用需求旺盛,技術優勢突出,產業發展勢頭良好。然而,與人工智慧相關的核心演算法和技術還不成熟,如果你想知道更多的人工智慧安全的發展,可以點擊本站其他文章進行學習。

❽ 人類對於科技發展的擔憂主要表現在哪些方面

人類對於科技發展的主要擔憂表現在環境污染方面,隨著現在科學技術的迅猛發展,現代生產的急劇增長,環境污染是日益顯現出全球性人類的生存構成的危險,比如說溫室效應,還有臭氧層空洞,酸雨,核放射污染等等。

❾ 人們對人工智慧的擔憂有沒有道理

你好!
個人感覺,防患於未然完全是有必要的。