〔摘 要〕 高新科技的進步必將會帶來相應風險的產生,當人工智能初露風險,我國刑法學界已經開始對其刑事主體地位、行為能力和所處刑罰進行了討論。文章將對人工智能產品在性能和刑事主體方面進行界分,并在此基礎上對人工智能產品觸及刑法風險時的管理與防控進行論述,以期對我國人工智能的規范研發和正確使用帶來一些啟發和思考。
本文源自山西省政法管理干部學院學報 發表時間:2021-03-02《山西省政法管理干部學院學報》雜志,季刊,于1988年經國家新聞出版總署批準正式創刊,由山西省司法廳主管,山西省政法管理干部學院主辦的學術性刊物,本刊在國內外有廣泛的覆蓋面,題材新穎,信息量大、時效性強的特點,其中主要欄目有:法學縱橫、本期關注、檢察建設等。
〔關鍵詞〕 人工智能產品; 刑法風險; 刑事主體
人工智能( Artificial Intelligence) 最早在 1956 年美國的達特茅斯大學舉辦的研討會上由麥卡錫提出,標志著人工智能的誕生。人工智能問世以來,利用人工智能技術研發出的一系列產品相繼投入到醫學、軍事、教育、司法、衛生等多個領域,給人類帶來便捷、高效、節約勞動力、降低成本等多種益處。隨著人工智能技術的不斷完善,人工智能產品逐漸變得更加機器智能化、思維獨立化、行為自控化,這無疑會給我們的生產生活帶來質的飛躍和前所未有的變化,但我們應警惕人工智能產品將會給我們帶來的風險甚至是刑法層面上的潛在犯罪。由人工智能所組成的人造世界是否會具有很強的適應性、創造性替代自然世界? 人工智能產品是否會被諸如恐怖活動、危害公共安全犯罪的不法分子加以利用而成為他們手中違法犯罪的“利器”? 甚至人類是否會過度依賴人工智能產品而惰性越來越強,最終落入被動局面?
一、人工智能產品的界分
( 一) 性能界分
根據人工智能產品性能和智能化程度分為弱人工智能產品、強人工智能產品和超強人工智能產品。[1]弱人工智能產品,是指不具有獨立思辨意識和控制能力,只是單純的對指令進行操作,不具有深度學習和神經網絡功能。[2]如擊敗了當時世界排名第一的國際象棋大師加里·卡斯帕羅夫的 “深藍”機器人,依靠其蠻力“強記”,根據“固定”程序邏輯決策,窮極各種可能性進行篩選,選擇其中最佳的策略,若卡斯帕羅夫可以預判 10 步,則“深藍”可以預判 12 步。這些方法就目前來看雖然略顯落后,但對于 1997 年的制造者許雄峰來說可謂是窮盡心血。
強人工智能產品,可以在程序范圍內獨立思考獨立學習,根據程序的編碼和計算獨立的對事物具有辨別性、選擇性,如戰勝了韓國圍棋大師李世石的 AlphaGo 機器人。[3]圍棋與象棋不同,變數更多難度更大,每一步的可能性都無法窮極的列舉,一回合有 250 種可能,而一盤棋可以長達 150 回合,甚至有很多圍棋問題與現實生活中存在的問題都是緊密相通,中國文化甚至將圍棋的對弈過程看作領悟人生的過程,要想在圍棋對戰中取勝,靠單純地大數據分析然后篩選最優策略是行不通的,它對機器人提出了更高等級的要求,不僅要具有超強的記憶能力、邏輯思維能力,更重要的是要具有創造性和靈活多變性。在 AlphaGo 和李世石的對戰過程中,聶衛平甚至表示在某些步數都想對 AlphaGo 的創世之舉脫帽致敬,因為其“用不可思議的下法辟立了圍棋常識之外的新天地”,這就充分證明 AlphaGo 的下棋模式需要深思熟慮,而不是單純地靠數據復制或者生搬硬套,這也是人工智能在深度學習和神經網絡方向邁進的跨越性一步。
超強人工智能產品已經超出設計和編制的程序,能夠自主決策所實施的行為,最大程度地達到“人智模式”。[4]如果有一天超強人工智能與人類進行某種對弈或者活動的話,那么它完全有可能故意輸給人類,這樣的結果不禁會讓人“毛骨悚然”。
二) 刑法主體界分
把人工智能產品作為像自然人或法人這種單獨個體來討論其刑事主體地位和刑事責任能力不是沒有道理的。首先,它具有像人一樣實行行為的能力。人工智能如果與人一樣在具有思維意識和辨識能力的基礎上實行行為,其與人最大的區別也只是人工智能不具有生命體征而已,但這并不影響其行為在法律中的定性,人工智能的出現不僅僅在生活工作領域給我們帶來巨大變革,甚至很有可能讓我們對它的認識上升一個層面。其次,就主觀罪過的表現形式,可以分為故意與過失。故意是指明知自己的行為會發生危害社會的結果,而依然希望或者放任這種結果的發生; 過失是指行為人在實行行為時應當預見自己的行為可能會發生危害社會的結果,由于其盲目自信或疏忽大意而致使這種結果的發生。人工智能產品因其獨有的辨識能力和控制能力很可能會使其具有故意或過失的可能,所以人工智能的刑事主體地位和刑事責任能力的探討并不是空穴來風,一味的將人工智能犯罪歸結為意外事件欠缺妥當。我們不僅把人工智能當作一種工具來看待,還要逐漸認識到它在發展開發過程中的變化,認清其地位,甚至很有可能不斷突破我們對現有事物的認知,就像“行為”有時不僅僅是人的專屬動作,意識和思維也很有可能跨越人與動物的分界,因人工智能而對其產生新的定義,讓我們產生新層面的認識。
人工智能產品根據其性能和所實施的行為是否具有自主性可以將其分為具有刑事主體地位和不具有刑事主體地位。[5]人工智能產品的刑事主體地位大多都與其智能化程度緊密聯系,在弱人工智能和強人工智能產品中,由于其設計編制的相對弱智能化決定了其只能在指令和編制程序范圍內從事相關活動與任務,雖然強人工智能產品相對于弱人工智能產品來說更加智能化,能夠進行獨立的深度學習和思考,但依舊是在程序范圍內進行,就像 AlphaGo 機器人,自主學習能力再強,單位計算量再大,也只能在圍棋領域天下無敵,隨便換個領域,比如撲克牌、象棋、麻將,它就只是一堆廢鐵。弱人工智能產品和強人工智能產品只能是通過被研發者可以輸入特定的程序讓其從事非法活動或使用者更改其程序而達到自己違法的目的,所以這時的人工智能產品就不具有刑事主體地位,而應由其研發者或使用者承擔相應責任,此時的人工智能產品更像是人類用來達到自己犯罪目的的工具與手段。
超強人工智能產品的超強智能化和在編制程序之外的獨立意識讓它具有更高的智商和多方位多角度的思辨能力,此時若人工智能產品具有了自主意識,不在應有的領域正常工作而滋生出其他違法犯罪目的,則由其本身承擔相應的刑事責任,它就相應的具有獨立的刑事主體地位。
二、對人工智能產品觸及刑法風險的“管”
汽車等交通工具的產生,相應地道路交通法規應運而生; 飛機的發明,相應地航空管理規定逐漸完善。人工智能產品的不斷普及,需要相應的管理方法來對其加以約束和規制,使其在為人類服務、提供便利的道路上越走越遠,盡量避免像霍金的科學預言那樣給人類帶來前所未有的困擾和災難。這就需要對人工智能產品的管理上逐漸重視,建立相應的管理機制甚至是法律體系來對人工智能產品的研發者和使用者甚至是人工智能產品本身進行指導、教育和約束,并且要隨著人工智能的發展與進步不斷完善和健全管理方法和法律體系,即使人工智能時代,也要安全有序,在可控范圍內不斷良性發展。
弱人工智能產品和強人工智能產品由于其不具有刑法主體地位,不承擔相應的法律責任,其智能化程度和獨立思維程度也使其在進行某些行為和執行任務時具有一定的局限性。[6]歸根到底還是研發者和使用者的問題,就像現代化武器再怎么先進再怎么自動,最終控制它的依舊是人。在這些領域中需要我們分清哪些是犯罪主體,哪些是行為手段,武器再先進也是由人來操控,最終也是給人定罪而不可能給殺人武器定一個罪名,必要時還可以在刑法分則中增加相應的罪名,來應對這種新型的犯罪方式或犯罪狀態。
超強人工智能產品,其獨立的思考能力和程序設計以外的思辨水平造就了其可能獨立承擔刑事責任,具有獨立的刑事主體地位,這時的超強人工智能很有可能脫離人類對其的控制和束縛,學會獨立深度學習,具有更發達的神經網絡,這對超強人工智能產品的研發者和使用者提出了更高的法律要求和道德要求。在對它的研發初期就需要把現行的一些法律法規編制進其內部系統,使其能做到有法可依,而不是活在自己的世界里為所欲為,而且還要根據法律制度的不斷完善相應的不斷更新其系統,使人工智能產品與現代社會保持一致發展,落后或者脫軌都有可能使超強人工智能產品存在潛在的風險。對超強人工智能本身,隨著科技進步應出臺相應的法律法規來規定對其的定罪量刑。現在普遍存在的刑罰觀點是刪除數據、修改程序和永久銷毀,我個人認為既然超強人工智能具有獨立思辨能力,那么是否也應該像對人類一樣科處刑罰來對其和其他人工智能產品產生預防、改正、教育作用,充分發揮它的獨立思考能力,使其知道有所為,有所不為,達到懲罰為輔,教育為主的目的。人工智能產品其漫長的研發過程和昂貴的研發經費使其具有相對較高的價值功用,如果處以刑罰可以使其改正并達到很好的警示教育結果,那么依舊可以使其正常發揮作用,為人類造福,使我們的生活更加便捷、高效、智能。這就相當于我們肯定了超強人工智能的刑事主體地位,并把它當作人來看待,給予相應的懲戒和科處相應的刑罰,甚至在不遠的未來,當超強人工智能問世并得到一定推廣的時候,專門用來懲戒教育觸犯刑法的超強人工智能產品的看守所或者監獄也會應運而生,通過專門針對超強人工智能的弱點進行處罰,使其能夠 “改邪歸正”,重新步入正軌。
三、對人工智能產品觸及刑法風險的“防”
在超強人工智能還沒有真正給我們造成很大威脅的今天,我們提前準備、未雨綢繆,將屆時可能發生的危險系數降到最低,是非常有前瞻性也是非常有必要的。如果將人工智能產品用于犯罪,那么會在危害國家安全、危害公共安全、擾亂社會秩序和危害他人人身安全等方面成為犯罪分子非常 “得力”的幫兇。如果使用人工智能實施恐怖活動犯罪,無疑會給恐怖分子本身減少危險性,增加隱蔽性和秘密操縱性; 若使用人工智能產品危害他人人身安全,則犯罪分子可以隨意坐在地下車庫、餐廳大堂甚至大學自習室里通過遠程終端的控制達到其犯罪目的,凡此種種都是非常可怕而且會造成非常嚴重后果和惡劣影響的犯罪,更重要的是還會給偵查工作帶來極大的難度,使犯罪分子很有可能在很長一段時間內逍遙法外甚至繼續作案,危害社會。“君子以思患而豫防之”,與其等待結果的發生再去想辦法解決,不如提早預防將其扼殺在萌芽里。在管理上對其規范,使其形成規則意識,約束自己的行為,在此基礎上如果再從源頭開始防控,將可能發生的犯罪形態扼殺在萌芽里,也許會起到事半功倍、錦上添花的效果。對于不具有刑事主體地位的弱人工智能產品和強人工智能產品,要相應的加強對研發者和使用者的管理力度,健全規范其行為的法律體系。人工智能產品本是無罪的,是為人類服務和帶來便利的,不能讓其成為某些不法分子違法犯罪的工具,因其高智能性而給偵查人員的偵查工作帶來前所未有的困擾。讓人工智能產品在合法有序的環境下研發、使用,不能帶著“罪惡的使命”出生,如果將人工智能產品當作危害國家安全或危害公共安全的實行工具,那么其相比于人類實行的危害行為會給人類和社會帶來更大的災難,再加上其程序的提前編制和遠程遙控,更加增強了真正的“幕后黑手”的隱蔽性,使現場取證、調查犯罪嫌疑人變得更加困難和復雜。
超強人工智能產品對于防范需要在原有的司法體系的基礎上建立相應的規范管理人工智能產品的法律體系,對于具有獨立刑事主體地位的超強人工智能產品,在研發初期就需要研發者和設計者在編制程序中加入現行法律法規,使其即使獨立思辨獨立選擇,也能有法律意識,而且加以遵守,否則當超強人工智能產品犯罪時研發者和設計者可能承擔過失責任。超強人工智能產品一旦具有獨立學習獨立思考甚至具有人類的智慧和靈性的時候,從某些角度來說是非常可怕的,它在單位時間內比人的計算量更大,擁有比人更強的力量和韌性,造成的危害比人類更巨大,對其嚴加防控,定期更新檢查,如果前期發現其有違法犯罪趨勢,可以提前更改程序或者修正數據,使其走上正軌,發揮其真正價值和作用。
四、思考與展望
人工智能是把雙刃劍。人工智能產品自從問世以來為人類帶來了諸多便利,時代在不斷進步,人類文明也在不斷發展。人工智能產品從面世到現在只有幾十年的時間,對于一個領域來說只是處在前期的萌芽階段,誰也不敢否定它會引起智能革命的爆發。前些年的無人機、無人駕駛汽車、機器人餐廳服務員的相繼面世,到近些年智能冰箱、智能衣柜的出現,人工智能產品不僅所涉領域越來越廣,而且與人們的生活越來越貼近,相信有一天它會像汽車、摩托車一樣走進千家萬戶,發揮著不同的作用。在人工智能技術尚處于起步階段時做好準備,謀劃應對措施,若管控及時、使用得當,它將是我們人類的好幫手,甚至是人類文明發展進步的助推器; 若不加防范,過度開發,人工智能可能是人類發展甚至生存的“攔路虎”。人工智能已經被開發利用多年并且其水平和智能化程度越來越高,它為人類所造之福是不可磨滅也是不可逆轉的,既然已經存在,即使有潛在風險,我們應及時預防,從立法、司法、管理的多維角度來對其進行規制,使其按照人類的發展規律一直為人類所用。只要我們前期預防及時得當,使用過程中嚴加管理控制,完善現有司法體系,健全與人工智能產品相關的定罪量刑制度,使人工智能產品在良好有序的秩序下發展,就能避免很多不必要的麻煩和風險,打開人類司法文明和科技文明的新紀元。
論文指導 >
SCI期刊推薦 >
論文常見問題 >
SCI常見問題 >