尼克·波斯頓說過:“我們對待風(fēng)險,絕對不是"屢敗屢戰(zhàn)"的方式。我們沒有機(jī)會從錯誤中汲取教訓(xùn)……我們應(yīng)該采取預(yù)防的方式。這需要我們預(yù)測到新的危險,并有決心采取行動,將危險阻止。 ” 焦點 智能機(jī)器存在反人類風(fēng)險
“我們必須嚴(yán)肅對待可能演變成"潘多拉之盒"的時刻,人工智能一旦失控,后果可能是災(zāi)難性的。 ”劍橋哲學(xué)家休·普萊斯說出了對人工智能的擔(dān)憂。在其看來,當(dāng)計算機(jī)可以自己寫程序時,可能就會達(dá)到這個臨界點。
目前,人工智能界總是傳來令人振奮的消息,但對其的擔(dān)心也無時不在,失控的機(jī)器并不總是存在于科幻界。
11月,美國一家人權(quán)機(jī)構(gòu)發(fā)表了名為《逝去的人性:殺人機(jī)器人案例》的報告,引發(fā)諸多擔(dān)心。報告稱,全自動武器發(fā)展會給人類文明帶來危險。全自動武器不具備人性,無論是致命的還是非致命的屬性,都可能導(dǎo)致對平民的無情殺戮。
美國國會今年公布的一份報告顯示,短短七年內(nèi),美國增加了7494架無人機(jī)。該報告未提及去年美國內(nèi)華達(dá)空軍基地發(fā)生的無人機(jī)機(jī)器中毒事件。當(dāng)時,計算機(jī)病毒在遠(yuǎn)程控制無人機(jī)的計算機(jī)中擴(kuò)散,不過軍方稱病毒被控制,未發(fā)生事故。此外,該報告也未提及涉及遠(yuǎn)程控制方面的一些倫理問題。 生物技術(shù)可能會“助紂為虐”
針對生物技術(shù)的威脅,劍橋哲學(xué)家休·普萊斯和天文學(xué)家馬丁·里斯都認(rèn)為,如今,制造病毒武器或其他生物恐怖事件的方式已被大大簡化。
去年,兩組獨立的科學(xué)家在實驗室里生產(chǎn)出了H5N1流感病毒,以對其進(jìn)行研究,最終使人類疫情得以控制。不過,當(dāng)他們計劃將在全球最權(quán)威的兩份期刊《自然》和《科學(xué)》發(fā)表此項論文時,卻被美國政府制止,要求不能公開研制過程的關(guān)鍵步驟,以防被生物恐怖主義利用。