人工智慧的發展對民法的挑戰
作者:□ 王利明 (中國人民大學常務副校長、教授)
2016年3月9日,全球矚目的圍棋“人機大戰”在韓國首爾上演,對決雙方是人工智慧機器人阿法狗(AlphaGo)與世界冠軍、韓國職業九段選手李世石。經過幾天的拼殺,比賽最終的結果是阿法狗獲勝。對這場比賽,有各種評論,一些專業棋手認為,比賽本身是不公平的,因為李世石會受到體能、情緒波動等各方面因素的影響,而阿法狗作為人工智慧機器人,並不會受到上述因素的影響,因此,似乎勝之不武。其實,勝負結果並不重要,關鍵是這場比賽引發了人們普遍的疑問,即智能機器人與人類相比,誰更勝一籌?這一事件也引發了人們對人工智慧相關法律問題的思考。
人工智慧的發展應當說只有幾十年的時間,1956年夏,以麥卡賽、明斯基、羅切斯特和申農等為首的一批年輕科學家在聚會時,就機器模擬智能的相關問題展開討論,並首次提出了“人工智慧”這一術語。之後,人工智慧作為一門新興學科發展迅速,並與基因工程、納米科學並稱為21世紀的三大尖端技術,同時將迎來一場新的技術革命。
人工智慧的發展,首先提出了一個重大的法律問題,即智能機器人究竟屬於物?還是屬於人?人工智慧研究的創始人之一的明斯基(Marvin Minsky)指出:人工智慧是“讓機器從事需要人的智能的工作的科學”。2016年,世界機器人大會在北京召開,一些機器人公司展示出了各種智能機器人,智能機器人能夠識別人的面孔、表情、年齡、性別,並且能夠表達與人類相似的情緒和麵部表情。智能機器人的智力雖然還不能和人類相比,但也具有了獨立處理相關資訊的能力和智力。有的機器人甚至已經基本達到了人類智慧的水準。這些聰明的人工智慧機器人,讓人類感到恐懼。儘管大家都知道智能機器人是人製造的,並受人控制,但仍然有不少人懷疑,它是不是物?是不是機器?智能機器人是否會代替人類,超越人類?如果是這樣的話,那麼,就不應當把智能機器人當作單純的物。
人工智慧的發展涉及侵權責任的承擔。現代機器人的發展也是日新月異,機器人既可以接受人類指揮,又可以運行預先編排的程式,也可以根據以人工智慧技術制定的原則綱領行動。機器人致人損害的案例已經發生,2015年7月,德國大眾汽車製造廠一名21歲的工人在安裝和調製機器人時,被機器人“出手”擊中胸部,並被碾壓在金屬板上。無獨有偶,2016年,Google無人駕駛汽車在美國加州山景城測試時,與一輛公交大巴相撞,後經法院認定,Google公司在此次事故中負有責任。我國也出現了人工智慧機器人傷人的事件,2016年11月,在深圳舉辦的第十八屆中國國際高新技術成果交易會上,一臺名為小胖的機器人突然發生故障,在沒有指令的情況下,自行打砸展臺玻璃,砸壞了部分展臺,並導致一人受傷。毫無疑問,機器人是人製造的,其程式也是製造者控制的,因此,在造成損害時,誰研製的機器人,就應當由誰負責,似乎在法律上沒有爭議,人工智慧就是人的手臂的延長,在人工智慧造成他人損害時,當然應當適用產品責任的相關規則。其實不然,機器人與人類一樣,是用“腦子”來思考的,機器人的腦子就是程式。我們都知道一個產品可以追蹤屬於哪個廠家,但程式是不一定的,有可能是由眾多的人共同開發的,程式的產生可能無法追蹤到某個具體的個人或組織。尤其是,智能機器人也會思考,如果有人故意挑逗,惹怒了它,它有可能會主動攻擊人類,此時是否都要由研製者負責,就不好說了。智能機器人的發展也涉及人格權的問題。一方面,由於智能機器人必須要模仿他人的聲音、形體動作,才能夠像人一樣表達,並與人進行交流。但如果未經他人的許可而模仿他人的聲音等人格特徵,就有可能構成對他人人格權的侵害。例如,現在很多機器人的體內設置了一些系統,把一些人的聲音、表情、肢體動作等植入機器人的程式系統中。這對權利人究竟會產生怎樣的危害後果,現在還不好預料。但毫無疑問,它可能會模仿他人的聲音、肢體動作,從而造成對這些人人格利益的侵害。隨著聲控技術的發展,個人的聲音、容貌等,都可能受到侵害。尤其是一些智能機器人大規模地收集個人資訊,並將其植入程式之中,也會對個人隱私權構成重大威脅。
人工智慧的發展也可能引發知識產權的爭議。智能機器人要通過一定的程式進行“深度學習”(deep learning)、“深度思維”(deep mind),在這個過程中有可能收集、儲存大量的他人已享有著作權的資訊,這就有可能構成非法複製他人的作品,從而構成對他人著作權的侵害。如果人工智慧機器人利用獲取的他人享有著作權的知識和資訊創作作品(例如,創作的歌曲中包含他人歌曲的音節、曲調),就有可能構成剽竊。人工智慧,實際上就是一種機器模仿人的智力活動的技術。在一些地方電腦幫助人進行原來只屬於人類的工作,智能機器人可能把大量的資訊複製並儲存下來,而按照一些國家的規定,存儲資訊本身就構成對他人著作權的侵害。
隨著人工智慧的發展,其所引發的糾紛也將日益複雜,有觀點認為,人工智慧機器人本質上是一種產品,適用產品品質的相關法律規則已經足以應對相關糾紛。但我認為,人工智慧機器人與其他的產品不同,其所引發的糾紛要更為複雜和多樣化,需要法律專門予以應對。具體而言,一是要對人工智慧機器人的設計進行規範,尤其要對其所包含的程式進行一種事先的審查,防止其被植入惡意程式,這就需要對參與人工智慧機器人的身份進行必要的管理;二是要對人工智慧機器人的生產和銷售行為進行特別規範,以有效控制人工智慧可能引發的負面影響。
隨著人工智慧的發展,法律領域也產生了一門新的學科,即法律資訊學,它是研究如何在法律上應對人工智慧現象的學科。該領域主要是以人工智慧和法律為核心從事法律、社會科學、資訊學、智能技術、邏輯和哲學領域等跨學科的研究。有的國家已經開始利用人工智慧從事簡單的案例分析、資料歸類以及表格製作等工作。例如,2015年5月,英國博聞律師事務所(BLP)向其研發的合同機器人發出了指令,並很快得到了一些分析資料。美國有的律師事務所也開始研發所謂的“人工智慧律師”(ROSS)系統,它能夠自動檢索法律文檔資料庫,找出與人提出的問題相匹配的答案。在識別自然語言提出的問題後,從龐大的法律和案例資料庫中進行搜索,找到可能的答案,對所有答案進行評估後,最終獲得一個解決方案。該系統會根據用戶的回饋進行自我學習,演算法也會不斷地調整優化。有不少人認為,隨著人工智慧的發展,未來可能出現人工智慧法官,就像馬克斯·韋伯當年提到的猶如自動售貨機一般的理想的司法模式:一端輸入案件事實,另一端吐出司法裁判,這也類似於孟德斯鳩所描述的法律的“傳聲筒”。它的記憶和檢索的功能非常強大,能夠為司法審判提供相對統一的推理和評價標準,從而輔助法官做出具有一貫性的判決。
美國電影《終結者》已預測到了人工智慧機器人超級戰士擊敗人類的結果。霍金認為,人工智慧的發明,可能是人類歷史上最大的災難。如果管理不善,會思考的機器人可能會為人類文明畫上句號。上述論斷現在看來並非危言聳聽,因此,如何將人工智慧可能對人類造成的損害控制在提前預測的範圍內,是法律工作者應當提前應對的重要課題。
(來源:法制網)