郵件系統(tǒng):
用戶名: 密碼:
2024年10月23日 星期三
位置: 首頁(yè) 》法學(xué)人物 》法界資訊 》學(xué)者觀點(diǎn)
吳漢東:人工智能時(shí)代的制度安排與法律規(guī)制

時(shí)間:2017-12-08   來(lái)源:《法律科學(xué)》2017年第5期  責(zé)任編輯:att2014

  在人工智能技術(shù)日新月異的時(shí)代變革中,人類/機(jī)器人關(guān)系所引發(fā)的各種法律、政策和倫理問(wèn)題緊迫地?cái)[在我們的面前。如何調(diào)整“促進(jìn)”與“規(guī)制”人工智能發(fā)展的法律價(jià)值目標(biāo)?如何應(yīng)對(duì)人工智能技術(shù)帶來(lái)的社會(huì)風(fēng)險(xiǎn)?如何設(shè)計(jì)人工智能時(shí)代的調(diào)控規(guī)范體系?這些問(wèn)題不僅涉及對(duì)傳統(tǒng)法律制度的深刻反思,更是以“未來(lái)法學(xué)”問(wèn)題為主旨的有益探索。

  一、智能革命圖景:“最后的發(fā)明”抑或最大的風(fēng)險(xiǎn)

  進(jìn)入新世紀(jì)以來(lái),人類社會(huì)的文明演化呈現(xiàn)出加速發(fā)展的態(tài)勢(shì)。21世紀(jì)的最初十年,以互聯(lián)網(wǎng)的普及使用為紐帶,社會(huì)結(jié)構(gòu)得以重新組織,人類社會(huì)與物理社會(huì)廣泛連接,自此開(kāi)啟了與以往有別的網(wǎng)絡(luò)社會(huì)時(shí)代;時(shí)至2010年左右,基于廣泛分布的傳感技術(shù)、大規(guī)模數(shù)據(jù)存儲(chǔ)和通信技術(shù)的應(yīng)用,數(shù)據(jù)規(guī)模呈現(xiàn)指數(shù)型上升,地球村由此步入大數(shù)據(jù)時(shí)代;進(jìn)入新世紀(jì)第二個(gè)十年的下半段,伴隨著數(shù)據(jù)處理能力的飛速提高,人工智能對(duì)社會(huì)開(kāi)始深度介入,世界正在走向人工智能時(shí)代。

  整體而論,“人類在進(jìn)入到21世紀(jì)的三個(gè)關(guān)鍵時(shí)間點(diǎn),相繼出現(xiàn)了三個(gè)互相聯(lián)系又略有區(qū)別的新時(shí)代,即網(wǎng)絡(luò)社會(huì)時(shí)代、大數(shù)據(jù)時(shí)代、人工智能時(shí)代,三者共同構(gòu)成了新的社會(huì)時(shí)代?!?/span>

  智能時(shí)代是以人工智能(Artificial Intelligence,簡(jiǎn)稱AI)來(lái)命名的,作為研究、開(kāi)發(fā)用于模擬、延伸和擴(kuò)展人的智能的理論、方法、技術(shù)及應(yīng)用系統(tǒng)的一門(mén)新的技術(shù)科學(xué),旨在了解智能的實(shí)質(zhì),并生產(chǎn)出一種新的能以人類智能相似方式做出反應(yīng)的智能機(jī)器,其研究領(lǐng)域包括機(jī)器人、語(yǔ)音識(shí)別、圖像識(shí)別、自然語(yǔ)言處理和專家系統(tǒng)等。這一技術(shù)科學(xué)將改變甚至顛覆人類現(xiàn)存生產(chǎn)工作和交往方式,由此出現(xiàn)一個(gè)以新的技術(shù)結(jié)構(gòu)支撐新的社會(huì)結(jié)構(gòu)的人類新時(shí)代。

  “這是最好的時(shí)代,也是最壞的時(shí)代”,英國(guó)文學(xué)巨匠狄更斯在其名著《雙城記》中的開(kāi)篇話語(yǔ),一百多年來(lái)不斷地被人引用。在這里,我們?cè)俅我源藖?lái)描繪人工智能時(shí)代的未來(lái)圖景。一方面,智能革命無(wú)疑將給我們帶來(lái)一個(gè)更美好的社會(huì),它是智能的、精細(xì)化和人性化的“最好時(shí)代”。

  在云計(jì)算、大數(shù)據(jù)、深度學(xué)習(xí)算法、人腦芯片的催化下,人工智能模擬和表現(xiàn)了人類的智慧動(dòng)力,并以高于人類的工作速度、優(yōu)于人類的工作精度、勝于人類的工作態(tài)度,協(xié)助人類解決各種各樣的問(wèn)題,包括危險(xiǎn)場(chǎng)合和極端環(huán)境的難題,從而形成人類智慧的創(chuàng)造力優(yōu)勢(shì)與人工智能的操作性優(yōu)勢(shì)之間的強(qiáng)強(qiáng)合作。人工智能現(xiàn)已成為全球新一輪科技革命和產(chǎn)業(yè)變革的著力點(diǎn),在人類智慧能力無(wú)窮增大的“科學(xué)夢(mèng)”背后,是一片蘊(yùn)藏?zé)o限生機(jī)的產(chǎn)業(yè)“新藍(lán)?!?。

  社會(huì)正在從“互聯(lián)網(wǎng)+”向“人工智能+”轉(zhuǎn)型,舊領(lǐng)域生發(fā)出新的產(chǎn)業(yè)形態(tài),多領(lǐng)域催生了新興的細(xì)分行業(yè),由此創(chuàng)造出巨大的經(jīng)濟(jì)價(jià)值和社會(huì)財(cái)富。在谷歌、臉譜、IBM等領(lǐng)軍企業(yè)的帶領(lǐng)下,全球?qū)θ斯ぶ悄艿年P(guān)注度不斷提升。截至2015年,人工智能國(guó)際市場(chǎng)的規(guī)模為1683億元,預(yù)計(jì)到2018年將增至2697億元,增長(zhǎng)率達(dá)到17%。在投資規(guī)模方面,2015年為484億元,預(yù)計(jì)到2020年,投資總量將達(dá)到1190億元。

  可以認(rèn)為,人工智能將從專業(yè)性較強(qiáng)的領(lǐng)域逐步拓展到社會(huì)生活的各個(gè)方面,人類未來(lái)會(huì)在“萬(wàn)物皆互聯(lián)、無(wú)處不計(jì)算”的環(huán)境下精準(zhǔn)生活。但另一方面,智能革命也將給我們帶來(lái)諸多麻煩,也許我們面臨著一個(gè)社會(huì)問(wèn)題叢生和安全隱患不斷的“最壞時(shí)代”。

  到目前為止,人工智能已在全球范圍內(nèi)逐步建立起自己的生態(tài)格局,并開(kāi)始深度介入人類的社會(huì)生活。2016年,距離麥卡錫、明斯基、香農(nóng)等人提出人工智能的概念正好過(guò)去60年。在過(guò)去的一年,人們看到了許多存在于科幻小說(shuō)的內(nèi)容成為現(xiàn)實(shí):人工智能擊敗了人類頂尖棋手,自動(dòng)駕駛汽車技術(shù)日趨成熟,生產(chǎn)線上活躍著“機(jī)器人”群體…… “智能時(shí)代,未來(lái)已來(lái)”。人們?cè)跒槿斯ぶ悄艿膹?qiáng)大能力感到驚嘆的同時(shí),也激發(fā)了對(duì)人工智能安全問(wèn)題的普遍憂慮,人工智能是否成為人類“最后的發(fā)明”?我們應(yīng)該如何看待人工智能的潛在風(fēng)險(xiǎn)?

  人工智能對(duì)人類社會(huì)的潛在風(fēng)險(xiǎn),聚焦于威脅人類自身安全的可能性,涉及人類基本權(quán)益的生命與健康、尊嚴(yán)與隱私、安全與自由。科學(xué)家認(rèn)為,人工智能存在著威脅人類存續(xù)的可能性,但這種風(fēng)險(xiǎn)不是由于自發(fā)的惡意所引起,而應(yīng)來(lái)自人工智能發(fā)展過(guò)程中出現(xiàn)的不可預(yù)測(cè)性和潛在的不可逆性。

  質(zhì)言之,人類有智慧能力創(chuàng)造出人工智能,也應(yīng)有能力和理智來(lái)控制人工智能。因此,“最好是期待人類的聰明才智,而非低估它;最好是承認(rèn)風(fēng)險(xiǎn)的存在,而非否認(rèn)它?!蔽覀儜?yīng)當(dāng)思考的不是消滅客觀危險(xiǎn),而是在這些潛在的威脅和挑戰(zhàn)面前,增強(qiáng)風(fēng)險(xiǎn)認(rèn)識(shí)能力,提高制度風(fēng)險(xiǎn)意識(shí),通過(guò)法律和其他社會(huì)規(guī)范來(lái)預(yù)防規(guī)避風(fēng)險(xiǎn),引導(dǎo)規(guī)范人工智能技術(shù)健康發(fā)展,這即是法學(xué)家、法律家的任務(wù)。

  人工智能的首要問(wèn)題是安全問(wèn)題,可以置于風(fēng)險(xiǎn)社會(huì)理論的研究范疇之中。德國(guó)學(xué)者貝克認(rèn)為,人類面臨著威脅其生存的由社會(huì)所制造的風(fēng)險(xiǎn)。現(xiàn)代化正在成為它自身的主題和問(wèn)題,因此變得具有反思性。風(fēng)險(xiǎn)概念表明人們創(chuàng)造了一種文明,以便使自己的決定將會(huì)造成的不可預(yù)見(jiàn)的后果具備可預(yù)見(jiàn)性,從而控制不可控制的事情。

  在風(fēng)險(xiǎn)理論中,人工智能存在著現(xiàn)代性的負(fù)面影響,因此有必要采取風(fēng)險(xiǎn)措施,即預(yù)防性行為和因應(yīng)性的制度。對(duì)風(fēng)險(xiǎn)社會(huì)問(wèn)題的法學(xué)研究,其重點(diǎn)是法律制度與法律秩序。“法律制度的價(jià)值和意義就在于規(guī)范和追尋技術(shù)上的可以管理的哪怕是可能性很小或影響范圍很小的風(fēng)險(xiǎn)和災(zāi)難的每一個(gè)細(xì)節(jié)。”而法律秩序則是法律制度實(shí)行和實(shí)現(xiàn)的效果,即社會(huì)生活基本方面的法律和制度化。現(xiàn)代社會(huì)是法治社會(huì),制度風(fēng)險(xiǎn)及風(fēng)險(xiǎn)法律控制是風(fēng)險(xiǎn)社會(huì)法學(xué)研究理論的基本內(nèi)涵。

  人工智能既是人類文明,亦有社會(huì)風(fēng)險(xiǎn)。它或是“技術(shù)—經(jīng)濟(jì)”決策導(dǎo)致的風(fēng)險(xiǎn),也可能是法律所保護(hù)的科技文明本身所帶來(lái)的風(fēng)險(xiǎn)。換言之,知識(shí)問(wèn)題是現(xiàn)代性風(fēng)險(xiǎn)的根本成因,制度以至法律選擇的實(shí)質(zhì)應(yīng)是基于風(fēng)險(xiǎn)的決策。正是在這個(gè)意義上,貝克提出知識(shí)經(jīng)濟(jì)就是“風(fēng)險(xiǎn)經(jīng)濟(jì)”,“風(fēng)險(xiǎn)就是知識(shí)中的風(fēng)險(xiǎn)”。具體說(shuō)來(lái),人工智能時(shí)代的社會(huì)風(fēng)險(xiǎn)具有以下特點(diǎn):

  一是風(fēng)險(xiǎn)的共生性。風(fēng)險(xiǎn)社會(huì)的內(nèi)在風(fēng)險(xiǎn),基于技術(shù)性風(fēng)險(xiǎn)和制度化風(fēng)險(xiǎn)而形成,且存在共生狀態(tài)。人工智能時(shí)代是一個(gè)高度技術(shù)化的社會(huì),科學(xué)技術(shù)的高度發(fā)展既是風(fēng)險(xiǎn)社會(huì)的特征,也是風(fēng)險(xiǎn)社會(huì)的成因?,F(xiàn)代社會(huì)中的風(fēng)險(xiǎn)是“被制造出來(lái)的風(fēng)險(xiǎn)”,是由我們不斷發(fā)展的知識(shí)對(duì)這個(gè)世界的影響所產(chǎn)生的風(fēng)險(xiǎn)。

  馬克斯?韋伯形象地指出,人類在不久的將來(lái)注定會(huì)生活在“技術(shù)知識(shí)的囚室”。人工智能是知識(shí)革命中最具代表性和影響力的時(shí)代技術(shù)。“對(duì)知識(shí)體系和技術(shù)性知識(shí)的信任,是人們?cè)陲L(fēng)險(xiǎn)社會(huì)中獲得和持有本體性安全的基礎(chǔ)和保證?!睆摹胺此嫉默F(xiàn)代性出發(fā),對(duì)法律及其保護(hù)的先進(jìn)技術(shù)僅為信任是不夠的,人工智能在其發(fā)展過(guò)程中出現(xiàn)的不可預(yù)測(cè)性和潛在的不可逆性”,其本身就是一種風(fēng)險(xiǎn)。

  同時(shí),人工智能時(shí)代的風(fēng)險(xiǎn)含義,還依賴于這樣的一個(gè)事實(shí),即文明的決策可能觸發(fā)全球化進(jìn)程中的一系列問(wèn)題和一連串的風(fēng)險(xiǎn),直言之,“風(fēng)險(xiǎn)以決策為先決條件”。制度風(fēng)險(xiǎn)可能來(lái)自我們的工業(yè)制度、科技政策乃至法律規(guī)則,或是表現(xiàn)為對(duì)新技術(shù)無(wú)措的“制度缺失”,或是表現(xiàn)為對(duì)新技術(shù)錯(cuò)判的“制度失敗”。這些即是規(guī)則運(yùn)轉(zhuǎn)失靈的風(fēng)險(xiǎn),其結(jié)果形成制度化風(fēng)險(xiǎn)。

  二是風(fēng)險(xiǎn)的時(shí)代性。在風(fēng)險(xiǎn)社會(huì)理論中,風(fēng)險(xiǎn)社會(huì)這一概念并不是社會(huì)發(fā)展類型的某一歷史分期,也不是某個(gè)具體社會(huì)和國(guó)家的現(xiàn)實(shí)發(fā)展階段,而是對(duì)當(dāng)今人類時(shí)代問(wèn)題的理論概括與形象描述。智能革命是時(shí)代的產(chǎn)物,其特點(diǎn)是人類智力與人工智力的結(jié)合,智能技術(shù)導(dǎo)致智力物質(zhì)化、社會(huì)智能化,最終出現(xiàn)智能社會(huì)。

  智能社會(huì)的形成將是一個(gè)長(zhǎng)期的過(guò)程,或者說(shuō)是一個(gè)時(shí)代變遷。以人類思維能力和意識(shí)的遷移為表征,以智能機(jī)器人的活動(dòng)為中心,人工智能的發(fā)展將會(huì)遞進(jìn)呈現(xiàn)出不同階段。如何應(yīng)對(duì)智能時(shí)代中現(xiàn)實(shí)世界與理念世界的分離,如何防范病毒、黑客對(duì)人工智能產(chǎn)品的侵蝕,這種高科技所引發(fā)的高風(fēng)險(xiǎn)會(huì)持續(xù)整個(gè)智能革命的時(shí)代過(guò)程,它是現(xiàn)實(shí)的風(fēng)險(xiǎn),也是未來(lái)潛在的風(fēng)險(xiǎn)。

  三是風(fēng)險(xiǎn)的全球性。經(jīng)濟(jì)全球化、科技全球化、信息全球化乃至治理機(jī)制的全球化,不可避免地帶來(lái)風(fēng)險(xiǎn)的全球性。反全球化主義者認(rèn)為,全球化正在催生另一種形態(tài)的帝國(guó)體制:互聯(lián)網(wǎng)是“信息帝國(guó)主義”,世界貿(mào)易組織是“市場(chǎng)帝國(guó)主義”,國(guó)際貨幣基金組織是“金融帝國(guó)主義”,而聯(lián)合國(guó)是“政治外交的帝國(guó)主義”。貝克對(duì)此作出了自己的判斷:全世界面臨著社會(huì)認(rèn)同解體、價(jià)值利益沖突、主體組織對(duì)立、國(guó)家立場(chǎng)對(duì)峙、生態(tài)環(huán)境破壞等不確定因素,這些危機(jī)與發(fā)展遍布全球,形成對(duì)人類生存的新威脅。

  可以認(rèn)為,風(fēng)險(xiǎn)社會(huì)是一種“全球風(fēng)險(xiǎn)社會(huì)”,風(fēng)險(xiǎn)的空間影響超越了地理邊界和社會(huì)文化的邊界。正如吉登斯所言,“在全球化的時(shí)代里,風(fēng)險(xiǎn)的影響被普遍化了?!痹谌斯ぶ悄茱L(fēng)險(xiǎn)的國(guó)際應(yīng)對(duì)方面,2016年聯(lián)合國(guó)發(fā)布《人工智能政策報(bào)告》,表達(dá)了對(duì)人工智能的關(guān)注,并針對(duì)人工智能技術(shù)發(fā)展帶來(lái)的各種問(wèn)題,提出了新的思考方式和解決途徑。報(bào)告呼吁世界各國(guó)加強(qiáng)在人工智能技術(shù)研究與開(kāi)發(fā)領(lǐng)域的合作,共同應(yīng)對(duì)智能機(jī)器人在就業(yè)、倫理道德以及法律層面帶來(lái)的挑戰(zhàn)。

  科學(xué)技術(shù)在人類的文明進(jìn)步中總是扮演著最活躍、最革命的角色。面對(duì)智能革命,我們不能逃避它、否定它和阻止它。上述判斷依賴于以下兩點(diǎn)事實(shí):

  第一,人工智能技術(shù)在造福人類的同時(shí)也加大了人類危害自身的可能性,這即是技術(shù)的負(fù)面性與風(fēng)險(xiǎn)的不確定性的聯(lián)系。

  第二,傳統(tǒng)社會(huì)治理體系無(wú)力解決工業(yè)社會(huì)過(guò)度發(fā)展而產(chǎn)生的社會(huì)問(wèn)題,這即是法律的確定性與風(fēng)險(xiǎn)的不確定性的背離。對(duì)于現(xiàn)代各國(guó)而言,人工智能發(fā)展的政策考量,其實(shí)是基于風(fēng)險(xiǎn)的制度選擇和法律安排,我們應(yīng)“通過(guò)法律化解風(fēng)險(xiǎn)”,“通過(guò)法律吸納風(fēng)險(xiǎn)”,“將風(fēng)險(xiǎn)社會(huì)置于法治社會(huì)的背景之中”,即對(duì)智能革命時(shí)代的法律制度乃至整個(gè)社會(huì)規(guī)范進(jìn)行新的建構(gòu)。

  二、人工智能技術(shù)在挑戰(zhàn)我們的法律

  智能革命的出現(xiàn),對(duì)當(dāng)下的倫理標(biāo)準(zhǔn)、法律規(guī)則、社會(huì)秩序及公共管理體制帶來(lái)一場(chǎng)前所未有的危機(jī)和挑戰(zhàn)。它不僅與已有法律秩序形成沖突,凸顯現(xiàn)存法律制度產(chǎn)品供給的缺陷,甚至?xí)嵏参覀儤I(yè)已構(gòu)成的法律認(rèn)知。就調(diào)整人工智能相關(guān)社會(huì)關(guān)系的法律制度而言,人們的擔(dān)憂多于期待、疑慮甚于創(chuàng)制。現(xiàn)擇其主要問(wèn)題分析如下:

  (一)機(jī)器人法律資格的民事主體問(wèn)題

  隨著人工智能技術(shù)的快速發(fā)展,機(jī)器人擁有越來(lái)越強(qiáng)大的智能,機(jī)器人與人類的差別有可能逐漸縮小。未來(lái)出現(xiàn)的機(jī)器人將擁有生物大腦,甚至可以與人腦的神經(jīng)元數(shù)量相媲美。美國(guó)未來(lái)學(xué)家甚至預(yù)測(cè):在本世紀(jì)中葉,非生物智能將會(huì)10億倍于今天所有人的智慧。

  是否賦予機(jī)器人以虛擬的“法律主體資格”,在過(guò)去的一段時(shí)期,美英等國(guó)的哲學(xué)家、科學(xué)家包括法律家都為此開(kāi)展過(guò)激烈的爭(zhēng)論。2016年,歐盟委員會(huì)法律事務(wù)委員會(huì)向歐盟委員會(huì)提交動(dòng)議,要求將最先進(jìn)的自動(dòng)化機(jī)器人的身份定位為“電子人”(electronic persons),除賦予其“特定的權(quán)利和義務(wù)”外,還建議為智能自動(dòng)化機(jī)器人進(jìn)行登記,以便為其進(jìn)行納稅、繳費(fèi)、領(lǐng)取養(yǎng)老金的資金賬號(hào)。該項(xiàng)法律動(dòng)議如獲通過(guò),無(wú)疑使得傳統(tǒng)的民事主體制度產(chǎn)生動(dòng)搖。

  機(jī)器人是機(jī)器還是人,在法理上涉及到主客體二分法的基本問(wèn)題。在民法體系中,主體(人)與客體(物)是民法總則的兩大基本制度。主體與客體、人與物之間有著嚴(yán)格的區(qū)別。凡是人以外的不具有精神、意思的生物歸屬于物,是為權(quán)利的客體。主客體之間這種不可逾越的鴻溝現(xiàn)在正發(fā)生動(dòng)搖。

  從基因時(shí)代到智能時(shí)代的一個(gè)重要變化是,傳統(tǒng)民法的主、客體框架已然打破:人的遺傳基因物質(zhì)不能簡(jiǎn)單作為客體物看待,而沒(méi)有生命但具有人工智能的機(jī)器人也有可能被賦予法律資格。將機(jī)器人視為“人”,賦予其相應(yīng)的主體資格,難以在現(xiàn)有的民法理論中得到合理的解釋。民法意義上的人,須具有獨(dú)立之人格(權(quán)利能力),該主體既包括具有自然屬性的人(自然人),也包括法律擬制的人(法人)。日本學(xué)者北川善太郎認(rèn)為,在民法上,“法的人格者等于權(quán)利能力者”,關(guān)于人或法人的規(guī)定,“表現(xiàn)了最抽象化層次的抽象的法人格”。

  法人格概念的意義在于揭示民事主體的內(nèi)在統(tǒng)一性和其實(shí)質(zhì),界定主體與客體的關(guān)系?!懊袷履芰Ω拍畹囊饬x在于揭示民事主體的差異性,具體刻畫(huà)民事主體存在與活動(dòng)的狀態(tài)與特征?!?/span>

  從法律技術(shù)邏輯層面看,《德國(guó)民法典》以權(quán)利能力核心概念為中心,進(jìn)行主體人格的制度設(shè)計(jì)。在財(cái)產(chǎn)權(quán)領(lǐng)域,這種構(gòu)架中的邏輯關(guān)系就是“經(jīng)濟(jì)人—權(quán)利能力—法律人”。在自然人人格場(chǎng)合,“法律人”的成立是以倫理價(jià)值為依據(jù),將倫理價(jià)值從人的范疇中抽去之后,即通過(guò)權(quán)利能力將“生物人”自然本性與“法律人”的法律屬性直接連接的。而在法人人格場(chǎng)合,由于權(quán)利能力扮演“團(tuán)體人格”的角色,從而形成“團(tuán)體—權(quán)利能力—法律人”的邏輯關(guān)系,從而使得法人與同為“法律人”的自然人一樣在某些方面享有人格利益成為可能。

  基于上述分析,可以認(rèn)為:機(jī)器人不是具有生命的自然人,也區(qū)別于具有自己獨(dú)立意志并作為自然人集合體的法人,將其作為擬制之人以享有法律主體資格,在法理上尚有斟榷之處。據(jù)多數(shù)科技專家研究,由于人造機(jī)器沒(méi)有自身的目的,其工作目的非常特定,且為人類設(shè)計(jì)者所設(shè)計(jì)。質(zhì)言之,機(jī)器人生成的目的行為,與人類有目的、有意識(shí)的行為性質(zhì)完全不同;同時(shí),機(jī)器人沒(méi)有自身積累的知識(shí),其機(jī)器知識(shí)庫(kù)的知識(shí)都是特定領(lǐng)域的,并且都是人類輸入的。

  在這種情況下,模擬和擴(kuò)展“人類智能”機(jī)器人雖具有相當(dāng)智性,但不具備人之心性和靈性,與具有“人類智慧”的自然人和自然人集合體是不能簡(jiǎn)單等同的。換言之,受自然人、自然人集合體——民事主體控制的機(jī)器人,尚不足以取得獨(dú)立的主體地位。

  (二)人工智能生成作品的著作權(quán)問(wèn)題

  人工智能的實(shí)質(zhì),是“讓機(jī)器從事需要人的智能工作”,包括下棋、解題、從事數(shù)學(xué)發(fā)現(xiàn)、學(xué)習(xí)新的概念、解釋視覺(jué)場(chǎng)景、診斷疾病、推理?xiàng)l件等?;诖?,文學(xué)、藝術(shù)和科學(xué)作品的創(chuàng)作也在機(jī)器人的智能范圍之內(nèi)。從計(jì)算機(jī)到機(jī)器人的發(fā)展,在作品創(chuàng)作方面即是一個(gè)從閱讀到寫(xiě)作的跨越。

  在機(jī)器人時(shí)代,某些作品就是人工智能的生成內(nèi)容。據(jù)美國(guó)Narrative Science的預(yù)測(cè),未來(lái)15年將有90%的新聞稿件由機(jī)器人完成,大量的美術(shù)、音樂(lè)等藝術(shù)作品也將出自人工智能創(chuàng)作。機(jī)器人的寫(xiě)作方式,采取“信息→知識(shí)→智能”的技術(shù)路徑,基于“人機(jī)合作”系統(tǒng)而導(dǎo)致內(nèi)容生成。該行為是否構(gòu)成法律意義上的“獨(dú)創(chuàng)性”或“主觀能動(dòng)性”,一些國(guó)家和地區(qū)的法學(xué)家試圖作出正面回應(yīng)。

  有消息稱,日本準(zhǔn)備立法保障人工智能的著作權(quán)作品,以防止機(jī)器人創(chuàng)作中的抄襲之風(fēng);歐盟法律事務(wù)委員會(huì)提出動(dòng)議,擬賦予機(jī)器人以著作權(quán)。

  關(guān)于人工智能的生成作品,著作權(quán)法有兩個(gè)問(wèn)題需要解決,即機(jī)器人設(shè)計(jì)的作品是否享有權(quán)利?該項(xiàng)權(quán)利應(yīng)歸屬于機(jī)器還是創(chuàng)制機(jī)器的人?據(jù)專家研究,人工智能生成的作品,目前還處于在特定的格式和寫(xiě)作模板下傳達(dá)信息、表達(dá)意思的階段,尚不能無(wú)限定格式地寫(xiě)作內(nèi)容。盡管機(jī)器人稿件的表達(dá)技巧有限,但仍可以視為著作權(quán)法意義上的作品。依世界知識(shí)產(chǎn)權(quán)組織的權(quán)威解釋,作品須具獨(dú)創(chuàng)性,即“作品是作者自己的創(chuàng)作,完全不是或基本上不是從另一作品抄襲來(lái)的?!?/span>

  這就是說(shuō),人工智能生成之內(nèi)容,只要由機(jī)器人獨(dú)立完成,即構(gòu)成受著作權(quán)保護(hù)的作品,至于其用途、價(jià)值和社會(huì)評(píng)價(jià)則在所不問(wèn)。機(jī)器人作品享有著作權(quán),但機(jī)器人并不能像自然人作者或法人作者那樣去行使權(quán)利,換言之,該項(xiàng)著作權(quán)應(yīng)歸屬于機(jī)器人的創(chuàng)造人或所有人。

  這是因?yàn)?,機(jī)器人是機(jī)器而不是“人”,它是依靠數(shù)據(jù)和算法而完成寫(xiě)作,該機(jī)器人以及其寫(xiě)作的技術(shù)路徑無(wú)一不是人類創(chuàng)制。在這種情況下,法律可以通過(guò)保護(hù)機(jī)器人作品以達(dá)到保護(hù)機(jī)器人的創(chuàng)造人和所有人的目的。具言之,可參照著作權(quán)法關(guān)于職務(wù)作品或雇傭作品的規(guī)定,由創(chuàng)制機(jī)器的“人”而不是機(jī)器人去享有和行使權(quán)利。

  (三)智能系統(tǒng)致人損害的侵權(quán)法問(wèn)題

  智能型“新一代機(jī)器人”,與傳統(tǒng)的執(zhí)行重復(fù)任務(wù)的工業(yè)機(jī)器人不同,它擁有相對(duì)的自主權(quán)和更高的人工智能水平,且將廣泛而深入地參與人類社會(huì)的生活?!爸悄苄蜋C(jī)器人”的廣泛使用,在帶來(lái)高效和便捷的同時(shí)也不可避免對(duì)人類帶來(lái)傷害。

  機(jī)器人致人損害有兩種情形:

  一是侵權(quán)人對(duì)智能系統(tǒng)進(jìn)行非法控制而造成的損害。例如,黑客、病毒等人為因素侵入互聯(lián)網(wǎng),進(jìn)而控制人類家庭的兒童看護(hù)機(jī)器人、助老機(jī)器人、護(hù)士機(jī)器人或其他智能系統(tǒng),由此導(dǎo)致危及人類的后果。在這種情況下,發(fā)動(dòng)黑客攻擊或傳輸病毒的侵權(quán)人應(yīng)該承擔(dān)法律責(zé)任自不待言,這些不是本文研究的主要話題;

  二是智能系統(tǒng)自身的產(chǎn)品瑕疵而造成的損害。據(jù)報(bào)道,早在上個(gè)世紀(jì)80年代,日本即發(fā)生過(guò)工業(yè)機(jī)器在作業(yè)現(xiàn)場(chǎng)將工人置入機(jī)器壓死的事件;2007年,美國(guó)食品藥品監(jiān)督管理局收到200多份投訴,指控醫(yī)療外科手術(shù)機(jī)器人對(duì)病人造成燒傷、切割傷以及感染,其中包含89例導(dǎo)致病患死亡。

  上述致人損害的事由,究竟是機(jī)器人創(chuàng)制者的技術(shù)漏洞,抑或智能機(jī)器管理人的不當(dāng)使用?甚至可能是人工智能系統(tǒng)超越原控制方案的“自身行為”?在這種情況下,就必須對(duì)機(jī)器人的過(guò)錯(cuò)行為原因進(jìn)行分析,以查找侵權(quán)主體構(gòu)成并分擔(dān)賠償責(zé)任。

  關(guān)于智能系統(tǒng)致人損害責(zé)任的認(rèn)定,有兩種責(zé)任方式可供選擇:

  一是基于行為人過(guò)失所產(chǎn)生的產(chǎn)品責(zé)任。在侵權(quán)責(zé)任法中,產(chǎn)品責(zé)任是指產(chǎn)品生產(chǎn)者、銷售者因生產(chǎn)、銷售缺陷產(chǎn)品致使他人遭受人身?yè)p害、財(cái)產(chǎn)損失或有致使他人遭受人身、財(cái)產(chǎn)損害之虞而應(yīng)承擔(dān)的特殊侵權(quán)責(zé)任。致人損害的產(chǎn)品,必須存在缺陷,它包括制造缺陷、設(shè)計(jì)缺陷、警示缺陷、跟蹤觀察缺陷。

  上述情形符合智能系統(tǒng)致人損害責(zé)任的一般特征。2016年,聯(lián)合國(guó)教科文組織會(huì)同世界科學(xué)知識(shí)與技術(shù)倫理委員會(huì)發(fā)布報(bào)告指出,由于機(jī)器人一般被視為通常意義上的科技產(chǎn)品,機(jī)器人以及機(jī)器人技術(shù)造成的損害,可由民法中產(chǎn)品責(zé)任的相關(guān)規(guī)定進(jìn)行調(diào)整。從產(chǎn)品責(zé)任的認(rèn)定條件來(lái)看,機(jī)器人造成的損害可歸類于機(jī)器人制造者和銷售者的過(guò)失,包括產(chǎn)品制造的過(guò)失、產(chǎn)品設(shè)計(jì)的過(guò)失、產(chǎn)品警告的過(guò)失以及沒(méi)有盡到合理的注意義務(wù)。

  二是基于技術(shù)中立原則所產(chǎn)生的替代責(zé)任。關(guān)于技術(shù)產(chǎn)品致人損害,技術(shù)中立原則可提供責(zé)任規(guī)避。所謂技術(shù)中立原則,是指任何技術(shù)本身原則上都不產(chǎn)生責(zé)任承擔(dān),但是一項(xiàng)特定技術(shù)的主要商業(yè)用途是用來(lái)從事侵權(quán)或其他違法行為的,那么該項(xiàng)技術(shù)即不適用“技術(shù)中立”原則。在這種情況下,適用替代責(zé)任較為適宜。替代責(zé)任又稱為轉(zhuǎn)承責(zé)任,最初出現(xiàn)在代理關(guān)系與雇傭關(guān)系中,即被代理人對(duì)代理人實(shí)施的,得到被代理人“授權(quán)”或“批準(zhǔn)”的侵權(quán)行為承擔(dān)責(zé)任;雇主對(duì)其雇員在“雇傭期間”實(shí)施的侵權(quán)行為承擔(dān)責(zé)任,概稱為“為他人侵權(quán)行為承擔(dān)責(zé)任”。

  在替代責(zé)任情形中,機(jī)器人本無(wú)瑕疵,符合技術(shù)中立原則要求,但機(jī)器人的所有人或使用人,或不盡善良管理人之義務(wù),或放任機(jī)器人的侵權(quán)行為,則不能以技術(shù)中立原則免除責(zé)任。

  (四)人類隱私保護(hù)的人格權(quán)問(wèn)題

  網(wǎng)絡(luò)空間是一個(gè)真實(shí)的虛擬存在,是一個(gè)沒(méi)有物理空間的獨(dú)立世界。在這里,人類實(shí)現(xiàn)了與肉體分離的“數(shù)字化生存”,擁有了“數(shù)字化人格”。所謂數(shù)字化人格就是“通過(guò)個(gè)人信息的收集和處理勾畫(huà)一個(gè)在網(wǎng)絡(luò)空間的個(gè)人形象”——即憑借數(shù)字化信息而建立起來(lái)的人格。

  個(gè)人信息包括了當(dāng)事人不愿他人知道或他人不便知道的隱私信息,主要類別有:個(gè)人登錄的身份和健康狀況、個(gè)人的信用和財(cái)產(chǎn)狀況、電子郵箱地址、網(wǎng)絡(luò)活動(dòng)蹤跡等。在信息化社會(huì),這些零散的和廣泛的個(gè)人信息有可能被收集,并進(jìn)行數(shù)據(jù)處理,從而拼合成所謂數(shù)字化人格——在很大程度上是被迫建立的人格,個(gè)人毫不知情的人格。在今天和未來(lái),當(dāng)移動(dòng)互聯(lián)網(wǎng)、大數(shù)據(jù)和機(jī)器智能三者疊加后,我們生活在一個(gè)“無(wú)隱私的社會(huì)”。

  面對(duì)大數(shù)據(jù)對(duì)個(gè)人隱私潛在的威脅,我們必須重視智能革命時(shí)代隱私權(quán)的保護(hù),有三點(diǎn)舉措可供采用:

  一是增強(qiáng)自我保護(hù)意識(shí)。在當(dāng)下的移動(dòng)互聯(lián)和今后的萬(wàn)物聯(lián)網(wǎng)的時(shí)代,我們本身就是隱私的泄密者:智能手機(jī)安裝了太多而不甚使用的APP,社交網(wǎng)絡(luò)講了太多而不適宜公開(kāi)發(fā)表的言論,都可能造成隱私泄露;還有各種電子產(chǎn)品,從帶有GPS的照相機(jī)到與WIFE相連的智能電器,都精細(xì)地記錄私人的行蹤和生活信息。在人工智能時(shí)代,挖掘個(gè)人隱私是由機(jī)器完成的,因此保護(hù)隱私,須從自己做起,對(duì)智能電器有防范之心;

  二是強(qiáng)化企業(yè)保護(hù)用戶隱私的責(zé)任。企業(yè)須負(fù)有保護(hù)用戶隱私的意愿和責(zé)任,“這將是用戶隱私是否得到有效保護(hù)的關(guān)鍵”。在當(dāng)下,用戶數(shù)據(jù)日益聚集在大型互聯(lián)網(wǎng)或數(shù)據(jù)處理的企業(yè)手中,對(duì)其進(jìn)行保護(hù)個(gè)人隱私的責(zé)任約束就顯得非常重要。在歐盟和美國(guó),根據(jù)政府要求,也出于用戶主張,服務(wù)條款應(yīng)特別聲明從用戶獲得的數(shù)據(jù)屬于用戶本人,如對(duì)個(gè)人數(shù)據(jù)有不當(dāng)處置,應(yīng)承擔(dān)責(zé)任。這不僅是合同規(guī)定的違約責(zé)任,也是違反法律的侵權(quán)責(zé)任。

  三是加強(qiáng)網(wǎng)絡(luò)、電訊隱私保護(hù)的專門(mén)立法。隱私權(quán)的保護(hù)應(yīng)以民法保護(hù)為基礎(chǔ),明確隱私權(quán)的權(quán)利屬性、權(quán)能內(nèi)容、保護(hù)方式等;同時(shí)以專門(mén)法律保護(hù)為補(bǔ)充,規(guī)定特定領(lǐng)域的特定主體隱私保護(hù)的原則和辦法。

  例如,美國(guó)1974年制定《聯(lián)邦隱私權(quán)法》,是為隱私權(quán)保護(hù)的基本法,后又于1986年通過(guò)《聯(lián)邦電子通訊隱私法案》,2000年出臺(tái)《兒童網(wǎng)上隱私保護(hù)法》,此外還頒布了《公民網(wǎng)絡(luò)隱私權(quán)保護(hù)暫行條例》、《個(gè)人隱私與國(guó)家信息基礎(chǔ)設(shè)施》等法律。

  歐盟則在1997年通過(guò)《電信事業(yè)個(gè)人數(shù)據(jù)處理及隱私保護(hù)指令》之后,又先后制定了《網(wǎng)上個(gè)人隱私權(quán)保護(hù)的一般原則》、《信息公路上個(gè)人數(shù)據(jù)收集處理過(guò)程中個(gè)人權(quán)利保護(hù)指南》等相關(guān)法規(guī)。隱私權(quán)的保護(hù),是信息時(shí)代特別是人工智能時(shí)代的法律難題。智能革命不斷深入發(fā)展的過(guò)程,亦是隱私安全風(fēng)險(xiǎn)增大與法律保護(hù)強(qiáng)化的過(guò)程。

  (五)智能駕駛系統(tǒng)的交通法問(wèn)題

  人工智能在交通領(lǐng)域的重要應(yīng)用是網(wǎng)聯(lián)自動(dòng)駕駛。智能駕駛通過(guò)導(dǎo)航系統(tǒng)、傳感器系統(tǒng)、智能感知算法、車輛控制系統(tǒng)等智能技術(shù),實(shí)現(xiàn)了“人工智能+無(wú)人駕駛”,顛覆了以往的人車關(guān)系、車車關(guān)系。為推動(dòng)智能駕駛產(chǎn)業(yè)的發(fā)展,美、德、日等國(guó)都在探索,甚至出臺(tái)了有關(guān)交通責(zé)任分配的法律規(guī)范和安全檢測(cè)市場(chǎng)準(zhǔn)入的監(jiān)管政策。

  無(wú)人駕駛汽車可能帶來(lái)的法律問(wèn)題,主要有:

  一是法律規(guī)制對(duì)象的轉(zhuǎn)變。無(wú)人駕駛意味著交通領(lǐng)域的準(zhǔn)入資格,不再是駕駛?cè)说鸟{駛技術(shù),而是無(wú)人駕駛汽車的智能化水平。換言之,隨著無(wú)人駕駛中駕駛?cè)烁拍畹南?,法律?guī)制的對(duì)象不再是車輛的駕駛?cè)藛T,而將是智能駕駛系統(tǒng)的開(kāi)發(fā)者、制造者;

  二是法律責(zé)任體系的重構(gòu)。以過(guò)錯(cuò)責(zé)任為基礎(chǔ)而建立的“風(fēng)險(xiǎn)分配”責(zé)任體系,在未來(lái)的交通法規(guī)中將不復(fù)存在。對(duì)于道路交通事故的認(rèn)定,其歸責(zé)事由只有結(jié)果的“對(duì)與錯(cuò)”,而無(wú)主觀上的“故意”或“過(guò)失”。

  三是交通監(jiān)管重心的變化。以交通安全為目標(biāo),以往交通管理部門(mén)監(jiān)管的重點(diǎn)是汽車裝置的安全性能和駕駛?cè)税踩{駛技能;而在智能駕駛中,避險(xiǎn)保障和精確駕駛的軟硬件體系,是道路交通檢測(cè)、準(zhǔn)入的重點(diǎn)。

  (六)機(jī)器“工人群體”的勞動(dòng)法問(wèn)題

  人工智能技術(shù)發(fā)展的基本面向,是對(duì)人-機(jī)關(guān)系的改變。智能機(jī)器人的大規(guī)模應(yīng)用,一方面推動(dòng)了社會(huì)生產(chǎn)力的發(fā)展,大大提高了生產(chǎn)效率;另一方面也帶來(lái)了社會(huì)結(jié)構(gòu)的變化,使得人與機(jī)器人的關(guān)系成為社會(huì)生活的重要方面。以保護(hù)勞動(dòng)者利益為宗旨的勞動(dòng)法,面臨著前所未有的兩個(gè)難題:

  一是傳統(tǒng)勞動(dòng)法的調(diào)整功能消減。據(jù)牛津大學(xué)的調(diào)研報(bào)告,未來(lái)將有1000萬(wàn)非技術(shù)工種被機(jī)器人取代,其中包括文秘、工人、中介、司機(jī)等一大批崗位。報(bào)告特別指出,目前軟件工程師所做的工作將會(huì)被智能機(jī)器人所代替,即創(chuàng)造者被其創(chuàng)造的技術(shù)產(chǎn)品所代替。這些都對(duì)現(xiàn)有勞動(dòng)者的權(quán)利帶來(lái)沖擊。大批勞動(dòng)者離開(kāi)傳統(tǒng)崗位,其權(quán)益救濟(jì)更多是尋求社會(huì)保障法,那么“勞動(dòng)法是否面臨消亡的命運(yùn)?”

  二是未來(lái)勞動(dòng)法將面臨新的調(diào)整對(duì)象。機(jī)器人搶掉人類的飯碗,人工智能“工人群體”正在形成。對(duì)機(jī)器人權(quán)利保護(hù)或者說(shuō)禁止對(duì)機(jī)器人濫用,在當(dāng)下尚是一個(gè)社會(huì)倫理問(wèn)題,而在未來(lái)就成為勞動(dòng)立法問(wèn)題。

  歐盟法律事務(wù)委員會(huì)動(dòng)議,主張人工智能具有“工人”身份,并賦予其勞動(dòng)權(quán)等“特定權(quán)利與義務(wù)”;韓國(guó)政府起草了《機(jī)器人倫理憲章》,其要點(diǎn)包括:保證人類能夠控制機(jī)器人、保護(hù)機(jī)器人獲得的數(shù)據(jù)、禁止人類違法使用機(jī)器人、防止人類虐待機(jī)器人,應(yīng)該認(rèn)識(shí)到:智能機(jī)器人本質(zhì)是為機(jī)器,但亦有人的屬性,對(duì)智能機(jī)器人的尊重就是對(duì)人類自身的尊重??梢灶A(yù)見(jiàn),上述倫理規(guī)范將成為未來(lái)立法的組成部分。

  法律制度總是滯后的,但關(guān)于法律問(wèn)題思考應(yīng)該是前瞻的。面向智能革命時(shí)代,我們應(yīng)在認(rèn)識(shí)和分析現(xiàn)行法律困境的基礎(chǔ)上,探索與科學(xué)文明相伴而生的制度文明,創(chuàng)制出有利于人工智能健康、有序發(fā)展的社會(huì)規(guī)范體系。

  三、面向未來(lái)時(shí)代的制度構(gòu)成:法律、政策與倫理

  法律制度的發(fā)展與變革,每一過(guò)程的路徑選擇和規(guī)則設(shè)計(jì),其法律思維一般都是客觀事實(shí)分析與主觀價(jià)值判斷的綜合。就法律制度建設(shè)而言,如果總是基于技術(shù)及其效應(yīng)的充分顯現(xiàn),以此形成以技術(shù)事實(shí)為基礎(chǔ)的社會(huì)規(guī)范,那么法律制度的滯后現(xiàn)象將會(huì)十分嚴(yán)重,最終導(dǎo)致技術(shù)法律對(duì)技術(shù)“匡正”的失效和無(wú)力。

  “我們所體驗(yàn)到的那種無(wú)能為力并不是個(gè)人失敗的標(biāo)志,而是反映出我們的制度無(wú)能為力。我們需要重構(gòu)我們?cè)?jīng)有過(guò)的這些制度,或者建立新的制度。”面向未來(lái)時(shí)代的制度構(gòu)成,應(yīng)以人工智能的技術(shù)發(fā)展與規(guī)制為主題,形成包含法律規(guī)則、政策規(guī)定和倫理規(guī)范的社會(huì)治理體系。關(guān)于理念、規(guī)范、體制與機(jī)制的制度設(shè)計(jì),筆者擬提出如下構(gòu)想:

  (一)以安全為核心的多元價(jià)值目標(biāo)

  人工智能法律的價(jià)值分析,源于法律理想與現(xiàn)實(shí),應(yīng)然與實(shí)然的對(duì)立。人工智能時(shí)代的法價(jià)值即是人類法律理想價(jià)值觀的追求,是價(jià)值這一哲學(xué)范疇的法律化表現(xiàn)。法律的理想價(jià)值總是高于法律現(xiàn)實(shí)價(jià)值,可以為法律制度的演進(jìn)提供目標(biāo)指引和持續(xù)動(dòng)力。

  人工智能法律既具有一般法價(jià)值的構(gòu)成要素,又有著其特殊法的價(jià)值內(nèi)容,從而形成自身的法價(jià)值體系。其中,“正義是社會(huì)制度的首要價(jià)值”,也是作為一般法的普適價(jià)值,其蘊(yùn)含的人格正義、分配正義、秩序正義構(gòu)成了人工智能法律構(gòu)建的正當(dāng)性基礎(chǔ)。在最高法價(jià)值指引之下,人工智能法律還存在著專門(mén)法的特別價(jià)值,這主要是安全、創(chuàng)新和和諧。

  安全是人工智能時(shí)代的核心法價(jià)值。安全價(jià)值是對(duì)整個(gè)社會(huì)秩序穩(wěn)定的維護(hù)。對(duì)此,法哲學(xué)家雷加森斯·西克斯言道:“如果法律秩序不代表一種安全的秩序,那么就不是一種法律” 。安全價(jià)值是許多法律部門(mén)共同追求的目標(biāo),且通過(guò)不同的制度或調(diào)整方法來(lái)實(shí)現(xiàn)。例如,刑法、行政法通過(guò)刑事責(zé)任或行政責(zé)任方式來(lái)實(shí)現(xiàn)社會(huì)秩序安全,民法通過(guò)侵權(quán)法來(lái)保護(hù)交易安全和財(cái)產(chǎn)秩序。人工智能作為未來(lái)時(shí)代技術(shù)尚在深入發(fā)展之中,但在當(dāng)下已引發(fā)人們對(duì)其安全問(wèn)題的普遍擔(dān)憂。

  人工智能超越人類智能的可能性,人工智能產(chǎn)生危害后果的嚴(yán)重性,以及人工智能技術(shù)本身內(nèi)在的不確定性,這些因素足以構(gòu)成法律以及其他規(guī)范防止風(fēng)險(xiǎn)的必要性。關(guān)于風(fēng)險(xiǎn)規(guī)制的安全規(guī)范,包括人工智能產(chǎn)品的倫理規(guī)范、人工智能技術(shù)的應(yīng)用規(guī)范、人工智能安全的監(jiān)測(cè)規(guī)范等,都是相關(guān)法律制度設(shè)計(jì)和安排需要考量的問(wèn)題。

  創(chuàng)新是人工智能法律的價(jià)值靈魂。在特定的時(shí)代背景下,特定的法律制度會(huì)包含若干不同的價(jià)值項(xiàng),而且其各自的價(jià)值側(cè)重點(diǎn)也有著不同。當(dāng)代經(jīng)濟(jì)的發(fā)展著重依靠知識(shí)和信息的生產(chǎn)、分配和利用,創(chuàng)新業(yè)已成為知識(shí)經(jīng)濟(jì)時(shí)代的主要特征。面向人工智能革命,創(chuàng)新不僅反映了人與自然的關(guān)系,而且反映了人與人的關(guān)系、個(gè)人與社會(huì)的關(guān)系,成為一個(gè)具有普遍意義的關(guān)系范疇。創(chuàng)新價(jià)值體現(xiàn)在人工智能發(fā)展政策制定與立法活動(dòng)之中,其主要制度設(shè)計(jì)是:

  1.謀化國(guó)家發(fā)展戰(zhàn)略。在整體性、全局性的政策層面,對(duì)人工智能技術(shù)和相關(guān)社會(huì)變革作出相應(yīng)的戰(zhàn)略部署;

  2.制定產(chǎn)業(yè)促進(jìn)與監(jiān)管的政策法律。在立法和政策層面,推進(jìn)智能駕駛系統(tǒng)、智能機(jī)器人、精確醫(yī)療、語(yǔ)言識(shí)別、人腦芯片等核心技術(shù)的研發(fā)和應(yīng)用,同時(shí)明確準(zhǔn)入規(guī)范,制定安全標(biāo)準(zhǔn),完善配套設(shè)施,營(yíng)造健康、有序的監(jiān)管環(huán)境;

  3.完善知識(shí)產(chǎn)權(quán)創(chuàng)新激勵(lì)機(jī)制。通過(guò)權(quán)利保護(hù)、權(quán)利交易和權(quán)利限制等制度,促進(jìn)技術(shù)創(chuàng)新和新興產(chǎn)業(yè)發(fā)展??偟谜f(shuō)來(lái),國(guó)家通過(guò)戰(zhàn)略指引、法律規(guī)范和政策安排,將創(chuàng)新這一行為上升為“規(guī)劃理性”的法價(jià)值,體現(xiàn)了人在價(jià)值發(fā)現(xiàn)中的能動(dòng)性干預(yù)和控制。

  和諧是人工智能時(shí)代的終極價(jià)值追求。所謂和諧發(fā)展,是一種配合適當(dāng)、協(xié)調(diào)有序的理想動(dòng)態(tài),這是一種涵蓋周延的目標(biāo)系統(tǒng),包括人的和諧、社會(huì)的和諧、自然的和諧,以及人與社會(huì)、自然的和平共存與進(jìn)步。和諧價(jià)值實(shí)現(xiàn)的理想狀態(tài),即是人工智能社會(huì)的良性健康和有序。

  在智能機(jī)器人的發(fā)展過(guò)程中,和諧價(jià)值具有引導(dǎo)性功能。為保證人類社會(huì)的和諧穩(wěn)定,對(duì)人工智能產(chǎn)品進(jìn)行倫理設(shè)計(jì)、限制人工智能技術(shù)應(yīng)用范圍、控制人工智能的自主程度和智能水平等,都應(yīng)以和諧價(jià)值作為指引方向和評(píng)價(jià)準(zhǔn)則。

  (二)以倫理為先導(dǎo)的社會(huì)規(guī)范調(diào)控體系

  人工智能時(shí)代的文明,需要相應(yīng)的行為規(guī)范作為社會(huì)關(guān)系的調(diào)整器。就整體而言,文明要求社會(huì)對(duì)自身內(nèi)部錯(cuò)綜復(fù)雜的關(guān)系進(jìn)行自覺(jué)的協(xié)調(diào),以不斷完善自身的組織和管理,達(dá)到各種社會(huì)關(guān)系的有序與和諧。

  從人類文明創(chuàng)始到現(xiàn)今人工智能時(shí)代開(kāi)啟,社會(huì)行為規(guī)范已然成為一種制度體系。社會(huì)規(guī)范調(diào)控體系或系統(tǒng),是指在一定的國(guó)家、地區(qū)、領(lǐng)域內(nèi)存在的,由一定的社會(huì)經(jīng)濟(jì)關(guān)系所決定的社會(huì)規(guī)范而構(gòu)成的相互聯(lián)系、相互制約的統(tǒng)一體。在社會(huì)規(guī)范體系中,法律與道德作為兩種重要的調(diào)整手段,從不同方面、以不同方式、通過(guò)不同機(jī)制對(duì)社會(huì)生活的不同領(lǐng)域發(fā)揮不同的影響和作用。

  對(duì)于人工智能社會(huì)關(guān)系的調(diào)整,倫理規(guī)范具有一種先導(dǎo)性的作用。這是因?yàn)榉梢?guī)范基于現(xiàn)實(shí)生活而生成,且立法過(guò)程繁瑣,因而總是處于滯后境地;而倫理規(guī)范可以先行和預(yù)設(shè),對(duì)已變化或可能變化的社會(huì)關(guān)系作出反映。

  在發(fā)達(dá)國(guó)家,對(duì)人工智能的倫理研究早于立法研究。近年來(lái),歐洲機(jī)器人研究網(wǎng)絡(luò)(EURON)發(fā)布《機(jī)器人倫理學(xué)路線圖》,韓國(guó)工商能源部頒布《機(jī)器人倫理憲章》,日本組織專家團(tuán)隊(duì)起草《下一代機(jī)器人安全問(wèn)題指引方針》,美國(guó)國(guó)家科學(xué)基金會(huì)和美國(guó)航天局設(shè)立專項(xiàng)基金對(duì)“機(jī)器人倫理學(xué)”進(jìn)行研究。

  此外,一些行業(yè)組織、公司企業(yè)也在倫理規(guī)范方面強(qiáng)化人工智能專家的專業(yè)責(zé)任。例如日本人工智能學(xué)會(huì)內(nèi)部設(shè)置了倫理委員會(huì),谷歌設(shè)立了“人工智能研究倫理委員會(huì)”,旨在強(qiáng)調(diào)科研人員的社會(huì)責(zé)任,并對(duì)合理研發(fā)人工智能提供指導(dǎo)。

  概言之,倫理規(guī)范的調(diào)整功能非常獨(dú)到且為重要,例如:對(duì)智能機(jī)器人預(yù)設(shè)道德準(zhǔn)則,為人工智能產(chǎn)品本身進(jìn)行倫理指引;規(guī)定人工智能技術(shù)研發(fā)及應(yīng)用的道德標(biāo)準(zhǔn),對(duì)科研人員進(jìn)行倫理約束。上述倫理規(guī)范,為后續(xù)法治建設(shè)提供了重要法源,即在一定時(shí)候,倫理規(guī)范亦可轉(zhuǎn)化為法律規(guī)范,實(shí)現(xiàn)道德的法律化。

  (三)以技術(shù)和法律為主導(dǎo)的風(fēng)險(xiǎn)控制機(jī)制

  人工智能技術(shù)不僅是高技術(shù),而且是高技術(shù)的核心,可稱之為高技術(shù)核。智能技術(shù)的“核爆炸”,既對(duì)社會(huì)經(jīng)濟(jì)帶來(lái)變革性的影響,也會(huì)產(chǎn)生技術(shù)性風(fēng)險(xiǎn),即“人類在利用技術(shù)時(shí)違背技術(shù)自身規(guī)律而產(chǎn)生的社會(huì)風(fēng)險(xiǎn)”。人工智能時(shí)代的風(fēng)險(xiǎn)防范和治理,可采取技術(shù)控制與法律控制的綜合治理機(jī)制。

  法律控制是風(fēng)險(xiǎn)治理機(jī)制的重要手段。立法者必須重視控制風(fēng)險(xiǎn)功能的法治化。例如,專利法具有激勵(lì)科技創(chuàng)新的制度功能,其授權(quán)客體的擴(kuò)充及其權(quán)益保護(hù),即是激勵(lì)人工智能發(fā)展機(jī)制的法律表現(xiàn)。與此同時(shí),專利法也要注重權(quán)利客體的排除領(lǐng)域,以及禁止權(quán)利濫用,限制權(quán)利行使等制度規(guī)則的適用,限制和排除人工智能的潛在危害。此外,還應(yīng)輔之于相關(guān)科技法律、法規(guī),對(duì)人工智能的研發(fā)、使用和傳播建立限制機(jī)制、禁止機(jī)制以及懲戒機(jī)制。

  技術(shù)控制是風(fēng)險(xiǎn)治理機(jī)制的重要措施。技術(shù)規(guī)制表現(xiàn)為法律規(guī)范、政策規(guī)定和倫理規(guī)則等。風(fēng)險(xiǎn)社會(huì)理論指引下的技術(shù)規(guī)則有以下特點(diǎn):風(fēng)險(xiǎn)規(guī)避的主要路徑,是事先預(yù)防而不是事后補(bǔ)救(即從技術(shù)研究開(kāi)始規(guī)制,以預(yù)防技術(shù)產(chǎn)生的負(fù)面效應(yīng)或副作用);風(fēng)險(xiǎn)規(guī)避的基礎(chǔ)范式,是從技術(shù)研發(fā)到應(yīng)用過(guò)程的責(zé)任制度(包括社會(huì)道義責(zé)任、科學(xué)倫理責(zé)任和法責(zé)任);風(fēng)險(xiǎn)規(guī)避的重要措施,是奉行技術(shù)民主原則(包括技術(shù)信息適度公開(kāi)和公眾參與、公眾決策)。

  防范人工智能的技術(shù)性風(fēng)險(xiǎn),不僅涉及強(qiáng)化法律規(guī)制的傳統(tǒng)制度改造,而且要求建立以社會(huì)監(jiān)管為重要內(nèi)容的政策體系,同時(shí)形成以全面理性(包括社會(huì)理性和科學(xué)理性)為基本內(nèi)涵的風(fēng)險(xiǎn)控制機(jī)制。

  中國(guó)正在走向人工智能時(shí)代。世界新一輪科學(xué)革命、產(chǎn)業(yè)變革與我國(guó)轉(zhuǎn)變經(jīng)濟(jì)發(fā)展方式形成歷史性交匯。對(duì)人工智能的發(fā)展和規(guī)制進(jìn)行制度安排,是時(shí)代新潮流,也是國(guó)際大趨勢(shì),更是本土創(chuàng)新發(fā)展的內(nèi)在要求。筆者認(rèn)為,在制度構(gòu)建方面,目前有三項(xiàng)重點(diǎn)任務(wù):

  一是盡快出臺(tái)國(guó)家發(fā)展戰(zhàn)略,以此作為人工智能政策體系的支撐。從國(guó)際層面看,美、德、英、日等國(guó)加快人工智能頂層戰(zhàn)略設(shè)計(jì),從國(guó)家層面統(tǒng)籌人工智能發(fā)展。在我國(guó),《“十三五”國(guó)家科技創(chuàng)新規(guī)劃》和《“十三五”國(guó)家戰(zhàn)略性新興產(chǎn)業(yè)發(fā)展規(guī)劃》,對(duì)人工智能發(fā)展做出重要表述。但總體而言,我國(guó)人工智能政策還沒(méi)有上升到國(guó)家戰(zhàn)略高度,人工智能的戰(zhàn)略地位凸顯不足,人工智能發(fā)展的統(tǒng)籌協(xié)調(diào)部門(mén)未予明確,政府、社會(huì)以及企業(yè)的責(zé)任分工尚未厘清。

  國(guó)家發(fā)展戰(zhàn)略應(yīng)是關(guān)于人工智能問(wèn)題的整體性謀略和全局性安排,它是一個(gè)涉及戰(zhàn)略目標(biāo)、戰(zhàn)略任務(wù)、戰(zhàn)略措施的政策制度體系。中國(guó)必須高度關(guān)注智能革命發(fā)展前景以及引發(fā)的相關(guān)社會(huì)變革,盡快作出相應(yīng)的戰(zhàn)略政策部署;

  二是及時(shí)制定《機(jī)器人倫理章程》,以此作為人工智能研發(fā)、應(yīng)用的道德基礎(chǔ)。在一些發(fā)達(dá)國(guó)家,對(duì)人工智能的倫理研究早于法律研究,諸如《機(jī)器人倫理憲章》、《機(jī)器人倫理學(xué)路線圖》等,都是將安全評(píng)估和風(fēng)險(xiǎn)防范作為人工智能倫理規(guī)范的重要內(nèi)容。

  我國(guó)似可組織政治家、科學(xué)家、企業(yè)家、法學(xué)家參加的專家小組,編寫(xiě)機(jī)器人倫理章程,構(gòu)建人工智能倫理規(guī)范,其要義包括:設(shè)計(jì)倫理框架,為機(jī)器人預(yù)設(shè)道德準(zhǔn)則;強(qiáng)化科技專家的社會(huì)責(zé)任,為人工智能研發(fā)、應(yīng)用提供道德指引;引導(dǎo)公眾接納人工智能,為調(diào)整人—機(jī)關(guān)系規(guī)定道德模式;

  三是適時(shí)進(jìn)行機(jī)器人專門(mén)立法,以此作為人工智能法律的基本規(guī)范。人工智能技術(shù)對(duì)傳統(tǒng)法律制度帶來(lái)巨大挑戰(zhàn),以至現(xiàn)有的法律理念與規(guī)則在“高技術(shù)核”面前幾乎無(wú)所適從。在這種情況下,法律制度需要?jiǎng)?chuàng)新變革自不待言,而尋求一個(gè)調(diào)整人類與智能機(jī)器相互關(guān)系的專門(mén)法將是一個(gè)最終的選擇。

  對(duì)此,歐盟的立法行動(dòng)最快。據(jù)報(bào)道,歐洲議會(huì)已正式向委員會(huì)提出議案,擬制定“人類與人工智能/機(jī)器人互動(dòng)的全面規(guī)則”,這或?qū)⑹鞘讉€(gè)涉及機(jī)器人的立法草案。我國(guó)在人工智能領(lǐng)域發(fā)展相對(duì)滯后,但相關(guān)立法活動(dòng)應(yīng)未雨綢繆,組建專家團(tuán)隊(duì)對(duì)機(jī)器人專門(mén)法律開(kāi)展研究,其重點(diǎn)包括:人工智能的法律地位、人工智能生成內(nèi)容的權(quán)利歸屬、人工智能損害后果的責(zé)任分擔(dān)、人工智能風(fēng)險(xiǎn)的法律控制等。

  結(jié)語(yǔ)

  未來(lái)時(shí)代已經(jīng)到來(lái)。這是一個(gè)創(chuàng)新的時(shí)代,創(chuàng)新不僅反映了人與自然的關(guān)系,而且反映了人與人的關(guān)系、個(gè)人與社會(huì)的關(guān)系,已成為一個(gè)具有普遍意義的關(guān)系范疇。人們?cè)谏a(chǎn)力、生產(chǎn)關(guān)系和上層建筑所有領(lǐng)域中進(jìn)行的創(chuàng)造性活動(dòng),即技術(shù)進(jìn)步和制度變革都是一種創(chuàng)新過(guò)程。智能革命引發(fā)的法律、政策和倫理話題剛剛開(kāi)始,伴隨人類社會(huì)的知識(shí)創(chuàng)新,我們需要跟進(jìn)理論創(chuàng)新和制度創(chuàng)新。法學(xué)家和法律改革家們需要秉持理性主義精神,去發(fā)現(xiàn)和探索一個(gè)理想的法律制度體系。我們有理由相信,科學(xué)技術(shù)的智慧之光與法律制度的理性之光,將在人工智能時(shí)代交相輝映。

?

  本文原題為《人工智能時(shí)代的制度安排與法律規(guī)制》,文章首發(fā)于《法律科學(xué)》2017年第5期,為閱讀方便,刪去腳注。

全文
搜索

關(guān)注
微信

關(guān)注官方微信

關(guān)注
微博

關(guān)注官方微博

網(wǎng)絡(luò)
信箱