久久精品国产色蜜蜜麻豆_日韩精品视频免费观看_91精品在线视频_成人高辣h视频一区二区在线观看

EN
http://www.nakedoat.com/

為人工智能發(fā)展“定規(guī)立矩”

2016-11-22 08:15 來源: 人民日報
字號:默認 超大 | 打印 |

最近,“人機大戰(zhàn)”引起世人關(guān)注,一些人對人工智能可能會對人類造成危害甚至威脅人類生存表示擔(dān)心。對此,英國科學(xué)家霍金和美國微軟公司創(chuàng)始人蓋茨等名人也提出了警告。我對人工智能發(fā)展持樂觀態(tài)度,但前提是人類要制定和遵循設(shè)計與制造機器人的相應(yīng)規(guī)則。

人類制造的智能機器人威脅到人類自身的生存,這被稱為“技術(shù)奇點”問題。技術(shù)奇點是指擁有人類智能的機器人不斷改進自己,并且制造或繁殖越來越聰明、越來越強大的機器人,最終達到人類不可預(yù)測、無法控制的地步。如果制造智能機器人的技術(shù)越過這一奇點,局面將無法收拾,會傷害人類甚至使人類面臨滅亡危險。但人類可以防患于未然,防止機器人制造技術(shù)達到或超越這一技術(shù)奇點完全是有可能的,關(guān)鍵是我們有無能力使設(shè)計、制造機器人的科學(xué)家和制造商遵守人工智能發(fā)展的規(guī)則。

1942年,美國科普作家阿西莫夫提出了“機器人三原則”:一是機器人不能傷害人類;二是機器人要聽從人類指揮,除非違反第一條;三是機器人要保護自己,除非違反第一條或第二條。這些原則是好的,然而現(xiàn)在許多科學(xué)家提出的已不僅是機器人可能傷害人的問題,而是關(guān)系到人類生死存亡的問題,“機器人三原則”已遠遠不能適應(yīng)時代發(fā)展需要。這就迫切需要在“機器人三原則”基礎(chǔ)上,進一步為人工智能發(fā)展制定規(guī)則。

人工智能發(fā)展的新規(guī)則至少應(yīng)包含以下四個方面內(nèi)容。第一,應(yīng)禁止機器人擁有人類所有智能,也就是說,在設(shè)計和制造機器人時應(yīng)留一手。例如,不能讓機器人擁有制造或繁殖自己的能力。第二,應(yīng)建立人工智能研究倫理審查委員會,審查智能機器人研究計劃,對于機器人擁有人類所有智能的研究計劃不予批準,禁止利用任何資金資助這類研究計劃。第三,與立法禁止化學(xué)和生物學(xué)武器類似,設(shè)計和制造智能機器人的國家以及相應(yīng)國際機構(gòu)應(yīng)立法禁止生產(chǎn)與人類一樣聰明甚至比人類更聰明的智能機器人,違反此類法律者要承擔(dān)刑事責(zé)任。第四,要求科學(xué)家和企業(yè)設(shè)計與制造行動合乎道德的機器人。讓機器人與我們一樣自主做出合乎道德的決定,這是一件比較困難的事情。鑒于近幾年應(yīng)用功能性核磁共振技術(shù)研究大腦的成果,人們的道德直覺和道德判斷也可能有神經(jīng)生物學(xué)基礎(chǔ),甚至也可能有基因基礎(chǔ),這就給研發(fā)行動合乎道德的機器人的計劃提供了科學(xué)基礎(chǔ)。

在防止智能機器人危害人類的同時,也應(yīng)考慮如何正確對待它們。如果機器人沒有感知疼痛的能力,那么,它就是沒有道德地位的,只是人類的工具而已。然而,一旦機器人能感知疼痛,就會產(chǎn)生倫理問題。我們不能任意對待能感知疼痛的動物,即使在一定條件下我們需要利用它們進行實驗研究,也要關(guān)心它們的福利,對它們的研究方案要經(jīng)過動物實驗機構(gòu)倫理委員會審查批準。同理,一旦機器人能感知疼痛,我們就應(yīng)像對待能感知疼痛的動物一樣對待它們。機器人一旦有了自我意識,包括理性、情感以及社會互動能力,在某種意義上就應(yīng)被當作具有人格的人或社會的人來對待,享有生命和福利受保護的權(quán)利。邱仁宗 中國社會科學(xué)院哲學(xué)研究所研究員)

【我要糾錯】責(zé)任編輯:杜暢
掃一掃在手機打開當前頁