標王 熱搜: 化妝培訓  蛋糕  調酒  美妝培訓  企業培訓  成人  小學  針灸推拿正骨培訓網  雙語幼兒園  沈陽建筑大學 
 
當前位置: 首頁 » 資訊 » 幽默笑話 » 正文

《大西洋月刊》:人工智能將如何重塑人類社會秩序?

放大字體  縮小字體 發布日期:2019-03-12 17:15:10  來源:搜藝培訓網

《大西洋月刊》:人工智能將如何重塑人類社會秩序?

圖片來源@視覺中國

鈦媒體注:本文來源于騰訊科技(ID:qqtech),編譯者為長歌,鈦媒體經授權發布。

耶魯大學社會科學與自然科學教授尼古拉斯·克里斯塔基斯(Nicholas Christakis)在即將于4月出版的《大西洋月刊》上撰文稱,人工智能技術不僅會給我們帶來便利,還有可能在悄無聲息間影響人類社會的基本秩序。

以下為文章全文:

數十年來,人們一直在擔心機器人可能會通過何種方式改變我們的生活。這也成為各種科幻小說熱衷的主題。20世紀40年代,人類與人工智能之間的廣泛互動似乎還遙遙無期,但艾薩克·阿西莫夫(Isaac Asimov)卻在那時提出了著名的“機器人三大定律”,旨在防止機器人傷害我們。

第一條是:“機器人不得傷害人類,且應確保人類不受傷害。”它的根源在于,認為機器人會通過直接互動對人類產生影響。

回想一下經典的科幻電影:C-3PO和R2-D2與義軍同盟合作,在《星球大戰》中挫敗帝國;或者《2001太空漫游》里的HAL 9000以及《機械姬》里面的Ava都策劃謀殺它們假意服從的主人。

雖然這些作品都充滿想象力,但卻并沒有把重點放在人工智能更廣泛、更重要的社會影響上——人工智能可以對人類之間的互動方式產生具體影響。

當然,激進的創新之前也曾經徹底改變過人類共同生活的方式。5000到1萬年前,城市的出現導致游牧民族減少,人口密度增加。無論是作為個體還是集體,我們都適應了這種狀況(例如,這些新的環境更有可能引發傳染病,而我們已經進化出相應的抵抗力)。最近,包括印刷機、電話和互聯網在內的技術發明徹底改變了我們存儲和傳播信息的方式。

然而,雖然這些創新十分重要,但卻并未徹底改變人類的基本行為,而這些基本行為也構成了我所謂的“社會套件”:這是我們歷經數十萬年進化出來的一系列關鍵能力,包括愛情、友誼、合作和教學。無論生活在城市還是農村,也無論是否使用現代科技,這些特征的基本輪廓在全世界范圍內都高度一致。

但在我們中間加入人工智能可能會帶來更大的破壞。特別是當機器的外觀和行為與我們相似,并深入地滲透到我們生活時,它們可能會改變我們之間戀愛或交友的方式——不光是影響我們與相關機器之間的直接互動,還會影響我們人類彼此之間的互動。

實驗帶來的啟示

我在耶魯大學的實驗室里做了一些實驗,跟我的同事對這種效應如何發揮作用展開探索。在其中一項實驗中,我們讓一小群人與人形機器人一起在虛擬世界中鋪設鐵軌。每組由三個人組成,他們跟一個藍白兩色組成的小型機器人圍坐在一張方桌四周,使用平板電腦工作。

我們通過程序讓這個機器人偶爾犯一些錯誤,而且會承認自己的錯誤:“對不起,伙計們,我這輪犯了錯誤。”它調皮地說,“我知道這可能很難相信,但機器人也會犯錯。”

事實證明,這個笨拙且懂得懺悔的機器人通過改善人類之間的溝通,幫助團隊提升了表現。他們變得更加放松,也更加健談,不僅會安慰犯錯的同伴,還會經常在一起開懷大笑。與之相比,對照組的機器人只會冷冰冰地闡述信息,在團隊合作方面顯得遜色不少。

在另一個虛擬實驗中,我們將4000個人類受試者分成大約20個組,并在組內為每個人分配“朋友”;這些友誼形成了一個社交網絡。這些小組之后都領到一項任務:每個人必須在三種顏色中選擇一種,但每個人選擇的顏色都不能與其社交網絡中指定的朋友的顏色相同。

受試者不知道的是,一些小組包含的機器人會因為內置的程序而故意偶爾犯錯。與這些機器人直接接觸的人類變得更加靈活,并且會主動避免那些可能對某個人有效,但卻對整個小組無效的解決方案。更重要的是,由此產生的靈活性遍布整個社交網絡,甚至會影響那些與機器人沒有直接聯系的人。

因此,這些容易犯錯的機器人所在的小組,整體表現總是優于不會犯錯的機器人所在的小組。換句話說,機器人能幫助人類來幫助他們自己。

這兩項研究都表明,在我稱之為“混合系統”的地方,也就是人類與機器人展開社交互動的地方,正確地部署人工智能可以改善人類彼此之間的關系。其他研究結果也印證了這一點。例如,政治學家凱文·芒格(Kevin Munger)下令某種機器人在人們通過互聯網向其他人發送種族主義言論之后,對此進行干預。

他發現,在某些情況下,如果機器人只是簡單地提醒肇事者,他們的攻擊目標是一個人,此人的感情可能受到傷害,就可以令這名肇事者在一個多月的時間內減少種族主義言論。

但是,在我們的社交環境中加入人工智能,也會降低我們的行為效率和道德水準。在另一個實驗中,我們希望探索人工智能如何影響“公地悲劇”。這個概念指的是,每個人的自私行為匯總起來可能對我們的共同利益構成破壞。

在實驗中,我們向幾千名受試者提供資金,以供他們在好幾輪網絡游戲中使用。在每一輪中,受試者被告知可以保留他們的錢,也可以將一部分或全部的錢捐贈給鄰居。如果他們捐款,我們會捐出同樣的金額,使他們的鄰居收到的錢增加一倍。

在游戲初期,三分之二的玩家采取了無私的行為。畢竟,他們意識到在一輪游戲中對鄰居慷慨捐贈,就可能促使鄰居在下一輪游戲中對自己慷慨捐贈,從而建立互惠的規范。

但從自私和短視的角度出發,最好的結果其實是留下錢不捐,等著鄰居給自己捐錢。在這個實驗中,我們發現只要添加一些冒充人類玩家的自私機器人,就能推動整個小組采取相似的行為。最終,人類玩家完全停止了合作。于是,機器人把一群慷慨大方的人變成了自私自利的混蛋。

我們來思考一下這項發現的含義。合作是人類這個物種的一項關鍵特征,對社會生活至關重要。信任和慷慨也是成功群體區別于不成功群體的關鍵特征。如果每個人為了幫助自己所在的群體而展開投入和犧牲,大家都會受益。然而,當這種行為模式被打破時,公共物品的概念就會消失,每個人都會受到損害。

人工智能可能會極大地降低我們的合作能力,這是一件非常令人擔憂的事情。

現實生活的例子

事實上,現在已經有一些真實例子讓我們領教了人工智能如何在實驗室之外敗壞人類之間的關系。一項在2016年美國總統大選前針對570萬Twitter用戶進行的研究發現,一些俄羅斯帳號(其中有一些由機器人操縱)經常通過跟非惡意帳號相似的方式轉發信息,對保守派用戶產生的影響尤其明顯。

通過利用人類善于合作和好為人師的特征——這也是社交套件的兩個特征——機器人甚至影響了沒有與之直接互動的人,令美國的選舉出現兩極分化。

簡單的人工智能所產生的其他社會影響每天都在我們周圍發生。父母們看著他們的孩子咆哮著向Alexa或Siri這樣的數字助理發出粗暴的命令,他們開始擔心這種粗魯行為會影響孩子們待人接物的方式,或者擔心孩子與人工智能的關系會干擾甚至取代人際關系。

不久前,麻省理工學院的科技和社會學專家謝里·特克爾(Sherry Turkle),在給他的兒子買了一臺玩具機器人后對《大西洋月刊》說,兒童成長過程中的同伴如果是人工智能,而不是人類,那么他們可能就會缺乏同理心。

隨著數字助理無處不在,我們已經習慣于跟它們交談,就好像它們也有感情一樣。茱蒂絲·舒勒維茨(Judith Shulevitz)去年曾經闡述過我們中的一些人是如何開始將它們視為知己,甚至把它們當做朋友和治療師。

舒勒維茨本人說,她向谷歌助手透露了一些連她的丈夫都不知道的事情。如果我們在與設備密切交談時感覺越來越舒服,那么人類之間的婚姻和友誼會發生什么變化?

由于商業需要,設計師和程序員通常會開發各種能夠讓我們感覺更好的設備,但卻可能無法幫助我們自我反思或思考痛苦的事實。隨著人工智能滲透到我們的生活之中,我們必須面對這樣一種可能性:它會阻礙我們的情緒,抑制人與人之間的深層關系,導致我們不再那么設身處地為別人著想,甚至變得更加膚淺和自戀。

所有這一切,最終可能以我們意想不到的方式改變人類社會,我們甚至需要將它當做一種政體來對待。我們是否希望讓機器影響孩子的善良天性?我們是否希望機器影響成年人的性行為?

英國德蒙福特大學人類學家凱瑟琳·理查森(Kathleen Richardson)更擔心后一個問題。作為“反對性愛機器人運動”的主席——沒錯,性愛機器人已經成為一種初級現象,所以為反對它們而掀起的運動不算杞人憂天——她警告說,這種機器人們將會令人們喪失人性,并可能導致用戶退出真正的親密關系。我們甚至可能不再單純把機器人當成滿足性欲的工具,還會以同樣的態度對待他人。

其他觀察家認為,機器人可以從根本上改善人類之間的性行為。

在2007年出版的《跟機器人談戀愛滾床單》(Love and Sex With Robots)一書中,從反傳統的國際象棋大師變身商人的大衛·萊維(David Levy)考慮了“具有情感吸引力和性誘惑力的機器人”所帶來的積極影響。他認為有些人會更喜歡機器人配偶,而非人類伴侶(事實上,去年已經有一名日本人與人工智能全息影像“結婚”)。

性愛機器人不會傳播性病,也不會意外懷孕。它們可以為寡廉鮮恥的實驗和實踐提供各種機會——從而幫助人類成為“大師級情人”。有基于此,再考慮其他因素的影響,萊維認為與機器人發生性行為是道德的,在某些情況下甚至是理所當然的。

事實上,對于我們大多數人而言,在遭遇這種跟親密關系有關的人工智能難題之前,應該還是會率先遇到更為日常的挑戰。畢竟,無人駕駛汽車的時代已經到來。這些車輛有望大大減少困擾人類駕駛員的疲勞和分心問題,從而防止事故發生。但是它們會對人類產生哪些其他影響呢?

駕駛是一種非常現代的社交互動,需要高水平的合作和社會協調。我擔心的是,無人駕駛汽車會剝奪我們鍛煉這些能力的機會,導致我們的能力萎縮。

這些車輛不僅會通過程序來承擔駕駛職責,從而篡奪人類做出道德判斷的權利(例如,當碰撞不可避免時,哪個行人會被撞擊),還會影響沒有根它們直接接觸的人類。例如,當駕駛員以穩定不變的速度與自動駕駛車輛共同行駛一段時間后,可能會精神松懈,注意力渙散。

因此,當他們駛入只有人類駕駛員的高速公路后,就更有可能發生事故。另外,經驗可能表明,與完全遵守交通法規的自動駕駛車輛一起駕駛,實際上可以提高人類駕駛員的表現。

無論如何,我們都會肆無忌憚地開發各種新型人工智能,而不會首先考慮這些社會溢出效應——我們也經常稱之為外部性。我們在管理人工智能對車外人員產生的漣漪效應時,也投入了足夠的努力和獨創性,就像開發無人駕駛汽車的硬件和軟件一樣。畢竟,剎車燈之所以設計在車尾,主要不是為了你自身的利益,更多地是考慮到你身后其他人的利益。

新的社會契約

1985年,就在阿西莫夫制定“機器人三大定律”40年后,他又增加一條:機器人不可從事任何傷害人性的事情。但他在如何評估這種傷害時卻陷入掙扎。“人類是一個具體的對象,”他后來寫道,“可以估計和判斷一個人的受傷情況。而人性卻是抽象的。”

如果集中精力關注社會溢出效應,或許可以有所幫助。其他領域的溢出效應推動了法律法規的建設和民主監督的健全。無論是涉及污染水源的公司,還是在辦公樓里散布二手煙的煙民,一旦某些人的行為開始影響其他人,社會就可能會介入。

由于人工智能對人與人之間的互動會產生嚴重而深遠的影響,而且速度快、范圍廣,我們必須系統地調查可能出現的二階效應,并討論如何才能代表共同利益對其展開監管。

已經有各種各樣的研究人員和從業人員(包括計算機科學家、工程師、動物學家和社會科學家)開始齊心協力發展“機器行為”學科,希望將我們對人工智能的理解建立在一個更健全的理論和技術基礎之上。這個學科并不僅僅將機器人視做人造物體,而是將其視為一種新的社會行動者。

這方面的研究非常迫切。在不久的將來,內置人工智能的機器可以通過編程或獨立學習(我們將賦予它們這種能力),展示出與在我們看來非常奇怪的智力和行為。

我們需要快速區分哪些只是看上去古怪,哪些是實實在在的威脅。關于人工智能,我們最關心的是它可能影響人類社會生活的核心元素,也就是那些讓我們這個物種得以繁衍生息的特征。

啟蒙運動哲學家托馬斯·霍布斯(Thomas Hobbes)認為,人類需要一份集體契約來阻止我們變得雜亂無章。他錯了。早在我們組建政府之前,進化就為人類提供了一套社會套件,讓我們能夠和平而有效地生活在一起。在人工智能尚未誕生的世界里,通過基因遺傳的愛情、友誼、合作和教學能力不斷幫助我們共同生活。

不幸的是,人類沒有進化出與機器人共同生存的天賦能力。因此,我們必須采取措施,避免它們在與我們共處的過程中造成破壞。隨著人工智能更深入地影響我們的生活,我們可能還需要建立一種新的社會契約——只不過,這次的契約對象是機器,而不是其他人類。

 
 
[ 資訊搜索 ]  [ 加入收藏 ]  [ 告訴好友 ]  [ 打印本文 ]  [ 違規舉報 ]  [ 關閉窗口 ]

 

 
推薦圖文
最新資訊
點擊排行
?
 
網站首頁 | 城市列表 | 關于我們 | 聯系方式 | 使用協議 | 版權隱私 | 網站地圖 | 排名推廣 | 廣告服務 | 積分換禮 | 網站留言| 科技助手 | RSS訂閱
 
熊猫APP