掌管著四家知名公司(特斯拉、民用航天火箭制造商SpaceX、隧道交通公司The Boring Company和家用太陽(yáng)能板公司Solar City)的伊隆·馬斯克 (Elon Musk)與Facebook的創(chuàng)辦人兼CEO馬克·扎克伯格(Mark Zuckerberg)懟起來了。
馬斯克稱,人工智能是對(duì)人類社會(huì)的“根本性存在威脅”,并且在2015年就與霍金一道預(yù)言,人工智能軍備競(jìng)賽已經(jīng)開打。但是,扎克伯格稱,“人們總說人工智能在未來會(huì)傷害人類。的確,科技可以被好人也可以被壞人利用,人們需要對(duì)怎樣打造和怎樣使用科技非常小心。但有些人以此主張減慢人工智能的研究開發(fā),我覺得這種言論真的非常可疑,我真的無法理解?!?/p>
馬克斯與扎克伯格的互懟并非全是針鋒相對(duì),其中至少還包含了一些相同的東西。例如,兩人都認(rèn)為,技術(shù)的應(yīng)用有好也有壞,關(guān)鍵看人們?nèi)绾螌?duì)待。但是,這種相似還是有區(qū)別的,至少包含兩個(gè)層次。一是,即便二人認(rèn)為技術(shù)具有雙面作用(雙刃劍),在扎克伯格看來,技術(shù)的負(fù)面作用是次要的,但在馬斯克看來,技術(shù)的負(fù)面作用卻是致命的。所以,二者的相似并非是半斤八兩,而是差異較大。
第二個(gè)層次的差異則有些巨大。扎克伯格認(rèn)為,即便人工智能可能有害于人類,也不能減慢對(duì)其研發(fā)和利用。但馬斯克則認(rèn)為,由于人工智能對(duì)人類有極大危害,從現(xiàn)在起就需要對(duì)人工智能的研發(fā)和利用保持警惕。
這種差異可以用英國(guó)技術(shù)哲學(xué)家大衛(wèi)?科林格里奇在其《技術(shù)的社會(huì)控制》一書的一種觀點(diǎn)來解釋和引申,而這個(gè)觀點(diǎn)其實(shí)是被很多科學(xué)哲學(xué)研究人員所認(rèn)同的,即技術(shù)的控制困境或科林格里奇困境。一項(xiàng)技術(shù)的社會(huì)后果不能在技術(shù)生命的早期被預(yù)料到。然而,當(dāng)不希望的后果被發(fā)現(xiàn)時(shí),技術(shù)卻往往已經(jīng)成為整個(gè)經(jīng)濟(jì)和社會(huì)結(jié)構(gòu)的一部分,以至于對(duì)它的控制十分困難。
技術(shù)的控制困境可以用更為通俗的例子來解釋,當(dāng)一件東西或一項(xiàng)技術(shù)在被創(chuàng)造出來時(shí)就像一個(gè)在火塘邊烤出的香噴噴的山芋一樣,當(dāng)有人想要更好地食用和品嘗其美味而將其剝掉外衣時(shí),山芋掉入火塘內(nèi)(無論是不小心,還是因?yàn)闋C手抑或其他原因,山芋都必然會(huì)掉入火塘),全身沾滿灰燼,拍也不是吹也不是??梢韵氲降慕鉀Q辦法要么忍痛丟棄,要么是用刀切掉四周。后者盡管還會(huì)讓山芋有一點(diǎn)灰,卻還可食用,只是可食用的份額已經(jīng)減少。也就是說,如果陷入技術(shù)控制的困境,要么是這項(xiàng)技術(shù)被棄用,要么是改良。
現(xiàn)在,出于擔(dān)心,馬斯克提出要對(duì)人工智能預(yù)以特別警惕,就是考慮到,需要提前對(duì)人工智能置入可控的程序或開關(guān),以便在出現(xiàn)危機(jī)時(shí)能夠管控技術(shù)的危害。但是,扎克伯克卻是另一種想法,人工智能當(dāng)然像其他技術(shù)一樣,可能對(duì)人類有害,但不能因噎廢食,而是要盡快發(fā)展,出了問題,再來考慮解決的辦法。所以,馬斯克可以歸為預(yù)防論者,而扎克伯格屬于事后解決者。
這兩種看問題和解決問題的方式當(dāng)然各有長(zhǎng)短。預(yù)防論者是未雨綢繆,但是難以準(zhǔn)確地發(fā)現(xiàn)和解決問題;事后解決者是不拿未來的問題來束縛自己,前進(jìn)的步子會(huì)走得很大和很快,然而一旦出現(xiàn)問題,要付出的解決問題的成本就會(huì)很大。
如同人類文明的發(fā)展一樣,人類科技的發(fā)展也基本上是出了問題再來解決問題,而不是提前預(yù)計(jì)有什么問題,像諸葛亮那樣提前預(yù)知并想到解決問題的錦囊妙計(jì)的先知是少而又少。所以,二人的爭(zhēng)議似乎無解,只能是對(duì)人工智能的發(fā)展走一步說一步。因此,人工智能的發(fā)展就必然會(huì)遇到一些可能遇到的難題和危機(jī)。具體可以表現(xiàn)為幾個(gè)方面。
一是人工智能是人類智慧的化身,人類所有的優(yōu)點(diǎn)和缺陷人工智能都會(huì)有,如何克服人工智能所必然會(huì)沾染的人的缺陷,如暴力、謊言、歧視、偏激、非理性等,需要有前瞻。
二是,人工智能的不可預(yù)見性。不可預(yù)見性不只是人工智能所需要關(guān)注的,而是所有科技發(fā)展和項(xiàng)目都存在的,是禍兮福所倚,福兮禍所伏的必然體現(xiàn)。正如今天的基因修飾或基因剪刀,利用這樣的技術(shù)當(dāng)然可以修改生命、治療疾病,但也可以創(chuàng)造新的生命甚至超人,也可以制造新的疾病。
三是,人工智能的一些特點(diǎn)具有時(shí)空累積性,到一定時(shí)候才會(huì)顯露出來。正如在種植抗草甘膦(抗農(nóng)達(dá))的轉(zhuǎn)基因大豆田間,可以大量使用草甘膦除草劑以殺滅雜草,但不會(huì)殺死抗草甘膦轉(zhuǎn)基因大豆。這種方法固然減輕了農(nóng)民的勞累程度,但時(shí)間一長(zhǎng),使用草甘膦除草劑的地方反而引發(fā)了大量耐草甘膦除草劑的雜草,并四處蔓延,同時(shí)草甘膦也成為一種致癌物。
當(dāng)然,最重要的是,憑借人類的經(jīng)驗(yàn)和想象,人們最大的擔(dān)心和最不愿看到的是,師從人類的人工智能極有可能青出于藍(lán)而勝于藍(lán),并且還可能有人類的情感,屆時(shí),人類將何去何從!
人工智能可能出現(xiàn)的危機(jī)不止是這些,但是不必因?yàn)橛形:屯V拱l(fā)展,而是要慎重發(fā)展。至于如何慎重,還得像人類基因組計(jì)劃施行之初那樣,要召集各方面的專家,議定全面發(fā)展計(jì)劃,尤其不能缺失科技倫理和法律方面的專家,而不能只是讓技術(shù)專家來決定人工智能的發(fā)展和進(jìn)程。
推薦企業(yè)面向顧客,持續(xù)改進(jìn),實(shí)施品牌戰(zhàn)略,必須是
網(wǎng)址:http://www.wxrb2.com
經(jīng)編未來 無限可能
網(wǎng)址:http://www.run-yuan.com/
云展云舒,龍行天下 并人間品質(zhì),梳天下纖維
網(wǎng)址:http://www.yunlongfj.cn/
印染機(jī)械 首選黃石經(jīng)緯 印花機(jī) 絲光機(jī) 蒸化機(jī)
網(wǎng)址:http://www.hsjwfj.com/
推薦企業(yè)
推薦企業(yè)