摘 要: [目的/意義] 探索圖情學科對人工智能倫理問題研究現狀,推動信息管理技術在同步發展的倫理研究中健康發展。[方法/過程] 收集 2015—2019 年 Web of Science 核心合集圖書情報學科類目 SSCI 期刊中,探討人工智能倫理的學術論文 39 篇。利用內容分析法從問題層次、應用領域、對策等角度進行編碼和分析。[結果/ 結論] 結果表明,圖情學科 SSCI 期刊論文對人工智能倫理問題的關注整體上與人工智能倫理研究領域具有較高一致性。研究視角覆蓋人本主義觀和技術主義觀,研究內容較為全面地涵蓋了數據、算法及人工智能系統不同層次,涉及醫藥衛生、文化教育、軍事、政治等多個領域。并且,從社會、技術角度開展對策研究。圖情領域未來可以進一步加強倫理問題層次和領域研究的多樣性,深化人工智能倫理倡導規范與準則等問題的研究。
本文源自黃崑; 徐曉婷; 黎安潤澤; 徐峰, 現代情報 發表時間:2021-06-01《現代情報》(月刊)創刊于1980年,是由中國科技情報學會與吉林省科技信息研究所主辦全國公開發行的大型軟科學綜合性期刊,是中國學術期刊綜合評價數據庫來源期刊,中國人文社會科學引文數據庫來源期刊,中國期刊網上網期刊;是集情報科學理論與情報實踐研究及圖書館學研究于一體的學術陣地。情報學理論刊物。旨在宣傳普及情報學知識,增強情報意識、情報觀念和進一步提高全民族情報素質。榮獲中文核心期刊(2004)。
關鍵詞: 人工智能; 倫理; 圖書情報; 內容分析
1 問題提出
人工智能( Artificial Intelligence,簡稱 AI) 興起于 20 世紀 50 年代,研究和制造能夠模擬人類智能活動的智能機器或智能系統,用來延伸和擴展人類的智能[1]。人工智能技術發展驅動了新一輪產業變革和第四次科技革命[2]。美國、日本、英國等國家( 地區) 都已出臺相關政策對人工智能技術的發展予以支持,我國政府也高度重視,相繼出臺 《新一代人工智能發展規劃》( 2017 年 7 月) [3]、 《促進新一代人工智能產業發展三年行動計劃 ( 2018— 2020) 》( 2017 年 12 月) [4]、 《關于促進人工智能和實體經濟深度融合的指導意見》( 2019 年 3 月) [5]等多項戰略規劃和行動計劃。然而,技術的健康發展離不開倫理研究的同步發展。2018 年,習近平同志在主持中共中央政治局第九次集體學習時,指出 “要整合多學科力量,加強人工智能相關法律、倫理、社會問題研究”[6]。在國務院印發的 《新一代人工智能發展規劃》中,提出到 2025 年 “初步建立人工智能法律法規、倫理規范和政策體系,形成人工智能安全評估和管控能力”[3]。可見,在人工智能技術發展過程中,倫理研究至關重要。倫理泛指 “道德”,狹義上常用來表示某一特定傳統、群體或個人的道德原則[7],表現為人與社會、人與自然和人與人關系的思想與行為準則。在人工智能時代倫理的內涵,指在一定社會歷史條件下,通過制定相關原則、規范和標準,促進人、社會、自然和人工智能機器的和諧共處[8]。
新技術的發展及其社會影響是圖情學科重要的內容之一。人工智能是一個新興的交叉學科,應用領域廣泛。圖情學科現有的情報分析方法,可能在處理人工智能倫理問題研究上,還需要結合新的理論視角和研究手段,這也有助于推進圖情學科在處理交叉學科問題上研究方法的探索。不僅如此,圖情學科對信息生命周期的管理研究,各類信息系統、信息技術的創新研究,都存在著道德倫理的風險,也需要對倫理問題進行思考并應對。洞察國際圖情領域所關注的倫理風險情境和應對,不僅可以用于分析與計算機、哲學等不同學科關注的聯系和差異,也可以為我國圖情學科研究者進入這一領域提供參考和借鑒。
根據對國內圖情 CSSCI 期刊的論文調研可以看到,研究者們已經從隱私保護、數據安全等問題角度進行探討,還有研究者從國際角度,對人工智能倫理問題研究進行分析,如劉鴻宇等[9]、汪玉蘭等[10]都運用 CiteSpace 工具,對人工智能倫理領域文獻研究論文研究的主題、經典文獻與重要作者等進行了分析。王晰巍等[11]則利用 CiteSpace 工具,對國內外圖情領域在人工智能問題上的研究論文進行分析,指出國內外研究者主要圍繞人工智能在信息檢索、社交媒體內容分類、情感分析、知識問答、網絡輿情分析等方面。雖然倫理問題研究并非當下圖情領域在人工智能方面研究關注的熱點,但是,人工智能技術對隱私與安全的影響等相關倫理問題被認為是未來研究趨勢中重要的方向之一[11]。
可見,國內圖情領域已經開始關注人工智能倫理問題,為了進一步推動圖情領域的研究關注和力度,本研究選取了近 5 年圖情學科 SSCI 期刊發表的相關論文,利用內容分析法對這些研究探討的倫理風險問題情境、應對策略進行編碼和分析,力圖為我國圖情領域同行開展研究提供參考和借鑒。
2 研究設計
2. 1 研究問題
本研究通過分析國際圖書情報領域人工智能倫理研究文獻,探究圖書情報領域人工智能倫理研究現狀,具體研究問題如下:
1) 研究了哪些主題的人工智能倫理問題?
2) 提出了哪些倫理風險應對的策略?
2. 2 編碼設計
本研究采取內容分析法,從問題層次、應用領域、對策 3 個方面,對收集到的論文進行編碼。其中,問題層次又分為數據、算法和人工智能系統 3 類[12-13]。應用領域根據 《中國圖書館分類法》中的 21 個大類 ( 去掉 Z 綜合性) 進行編碼[14]。在對策層面,借鑒 Hagendorff T 提出的社會方法和技術方法分類方式[15],如表 1 所示。編碼過程由兩位編碼員進行,在編碼分歧時進行討論,最終取得一致后完成編碼工作。
2. 3 數據收集
為了收集圖情領域相關論文,根據 Web of Science ( WOS) 數據庫圖書情報學科類目下進行檢索。一方面,綜合兩種策略檢索人工智能主題,如表 2 所示。第一,使用 “人工智能”或人工智能系統載體的 “機器人”為主題詞[9,17-18]; 第二,根據人工智能相關發展報告,將人工智能領域的相關技術作為主題詞[11]。
另一方面,確定 “倫理”或 “道德”作為倫理主題的檢索詞[9-10,19]。
因此,最終確定的檢索式為 TS =( “Artificial Intelligen* ”OR AI OR Robot* OR “Machine Learning” OR “Deep Learning” OR “Natural Language Processing ” OR “Image Recognition ” OR “Face Recognition” OR “Computer Vision” OR “Virtual Assistant”OR “Visual Search”OR “Text Analysis” OR “Semantic Search” OR “Predictive Analysis” OR “Intelligent System ” OR “Semantic Web ”) AND TS = ( Ethic* OR Moral* ) ,并限定 WOS 類別為圖書情報 ( INFORMATION SCIENCE LIBRARY SCIENCE) ,文獻類型為學術論文 ( Article,Review,Proceedings Paper) ,在 2015 年 1 月 1 日— 2019 年 12 月 31 日期間發表,檢索到 43 篇論文。其中 4 篇無法獲得全文,最終分析的論文數為 39 篇。自 2015 年起,逐年發表論文數為 4、7、3、 10 和 15,整體呈現上升趨勢。
對文獻來源出版物進行統計,共有 14 個來源期刊。發表在期刊 《Ethics and Information Technology》的論文占 61%,如表 3 所示,該期刊是圖書情報學科類目下發表人工智能倫理研究文獻的主要刊物。該期刊的出版商為 Springer Nature,出版年份可追溯到 1999 年,出版頻率為每年出版 4 期, 2019 年期刊影響因子為 2. 06。根據 WOS 的學科分類,該期刊同時歸類在圖書情報學和倫理學學科,辦刊宗旨是推動道德哲學與信息通信技術領域之間的對話。
從論文作者機構來看,這 39 篇論文共計涉及 83 位作者,來自 18 個國家 ( 地區) ,其中,美國、英國和荷蘭的作者發表文獻最多,分別有 11 篇、8 篇和 6 篇研究文獻; 意大利和丹麥研究者分別發表了 3 篇文獻。我國研究者發表了 1 篇相關研究。
3 數據分析
3. 1 基本情況
根據編碼結果,39 篇論文分為兩類,一類在論文標題中就出現 “倫理或道德”,主要探究或解決某一類倫理問題,如無人機在人道主義領域應用中的道德反思[20]、人工智能產品與人權問題[21]、機器人、生物特征識別等數字化應用帶來的社會倫理問題[22]。第二類在關鍵詞或摘要內容中出現 “倫理或道德”,通常將倫理作為研究分析或討論的視角之一。如探討人工智能在公共部門服務領域的應用和發展問題時涉及了將人工智能政策和倫理納入應用各層面的觀點[23]。在訪談圖書館館長、圖書館評論員等人員探究人工智能對高校圖書館潛在影響時提及,人工智能應用的倫理問題是圖書館面臨的挑戰之一[24]。
在應用領域上,共計出現 9 類領域,醫藥衛生領域出現最多,如圖 1 所示。
在問題層次上,數據、算法和人工智能系統層面倫理問題研究各有 14 篇、11 篇和 31 篇。可見,對人工智能系統層面的關注度更高。下面,結合問題層次、應用領域進行分析。
3. 2 數據層面
數據層面倫理問題研究涉及的應用領域如圖 2 所示。
關于醫藥衛生領域,主要探討護理和醫療中的數據采集、共享中的倫理風險。針對護理數據的采集,護理機器人 24 小時監視、記錄并傳遞護理對象的身體狀況,這些數據包含護理對象日常行動的大量信息,如洗澡或尚未穿好衣服等時刻被監視或記錄,這些信息如果在未征得護理對象許可情況下被收集、觀看甚至利用,會威脅到護理對象的隱私[22]。針對醫療數據的共享,不同醫療機構之間的共享數據有助于增加數據樣本的容量和多樣性[15,25],大量訓練數據可以促進醫療記錄監測和醫學治療改善,但是共享過程容易因為數據保護不當而侵犯患者的健康隱私[26]。
關于政治領域,主要探討公共服務中公民數據利用產生的倫理風險。Sousa W G 等[23]提出公共部門應用人工智能技術時要避免數據被一些追求個人利益 的 人 破 壞 和 利 用。 針對公民數據利用, Lindgren I 等[27]指出應用人工智能技術生成或分析大量公民數據時,結果可能用于監視公民線上或線下行為而限制其行為活動,對公民數據隱私造成影響。
關于地球科學領域,主要探討地理文本分析的數據標注可能引發的倫理問題。McDonough K 等[28]分析了跨越歷史的地理文本給地理信息檢索帶來的挑戰,認為常用地名詞典由于缺少鏈接到歷史地名形式的時間元數據,造成地名歷史被遺忘、殖民時期地名永久化,從而引發殖民時期地名歷史延續、當地命名歷史文化遭破壞等一系列社會倫理問題。
關于工業技術領域,主要探討家居產品應用中的倫理風險。如智能家居產品收集用戶個人信息和產品使用等數據,雖然智能產品提供了隱私協議,但人們通常不能完全理解協議內容,或者由于產品的使用限制和隱私協議的閱讀時間過長而習慣性選擇 “同意”,這給隱私安全帶來威脅[22]。
在經濟、軍事、交通運輸等領域,數據層面的問題也主要集中在數據生命周期的不同階段,如在數據組織階段,Iliadis A[29]提出應用本體對軍事情報、社會計劃和經濟學等領域的數據進行組織分析時,需要關注錯誤識別社會實體可能產生的倫理道德風險。
此外,表情數據采集問題也受到關注。表情數據采集不僅存在常見的數據泄露的隱患,還會帶來精神層面的隱私侵犯形式。如面部識別軟件可以自動發現人們不自覺的面部微表情,揭示人們視為隱私的情緒[15]。又如機器人教師可以通過情緒探測器和傳感器識別學生的情緒,然而這些個人情緒識別信息在存儲和傳輸過程中可能會侵犯到學生的隱私,帶來新的隱患[30]。情緒識別技術通過檢查人們在無意識發出的非語言信息 ( 如面部表情、走路方式) ,可能因為泄露人們原本希望隱藏的心理狀態或情緒而侵犯人的 “精神隱私”[22]。
3. 3 算法層面
算法層面倫理問題研究涉及的應用領域如圖 3 所示。
關于經濟領域,主要探討區域經濟分析、社會就業、金融信貸和商業銷售等應用情境中應用人工智能算法產生的倫理問題。具體包括: ①在區域經濟分析中,運用卷積神經網絡識別高分辨率衛星圖像的特征,據此分析地方經濟發展,進而確定各地區的經濟水平,但這可能造成因地區經濟水平差異產生的差別對待[15]; ②在就業機會分配時,由于現有的工作數據中男性和女性的工作情況存在差異,基于這些數據進行算法模型訓練,容易延續數據中的性別歧視給男性提供更具經濟優勢的工作機會[22,31]; ③在金融信貸中,運用人工智能技術幫助金融機構決定提供貸款的對象,算法運行結果可能產生地域、種族和性別上的偏見[31]。此外,金融機構根據信用預測算法的結果確定提供貸款的對象雖然有助于規避貸款風險,但同時也可能加大良好信用群體與信用有風險群體之間信用評分的差距,加劇不平等現象[22,32]; ④在商業銷售中,Ienca M[33]提到面部識別算法識別非裔美國人始終比白種人效果差,產生諸如面部識別等技術應用的社會受益不平等問題。
關于政治領域,主要探討在競選活動和公共部門服務中使用算法可能會引發的倫理問題。在競選活動中,人工智能算法根據選民搜索行為預測選擇偏好,通過改變搜索結果順序影響選民偏好,對選舉的民主造成威脅[20]。同時,信息技術創造的更智慧算法會有意或無意地 “懲罰”某些群體或減少他們獲得某種機會的可能性,破壞低水平的消費者享有某些服務的公平機會[34]。這些算法偏見或歧視會進一步侵犯人類原有的自我決策權,公共部門在應對算法偏見帶來的不利影響時,存在法律問責的困難[23]。
關于法律領域,主要探討犯罪預測中算法應用產生的倫理問題。Vetro A 等[31]提到法官用來評估被告再犯概率以防止累犯行為的算法存在對黑人被告的偏見,該算法使他們普遍呈現更高的犯罪風險,加劇現實社會的種族歧視,帶來社會不安定因素。Rahwan I[35]也提到警務預測中使用 AI 會使得一些人很難擺脫遭受歧視的惡性循環。
在文化科學領域,主要討論新聞傳播中使用人工智能算法可能引起的倫理問題。運用機器學習算法,通過用戶的瀏覽和點擊等行為預測他們的偏好選擇,并據此推薦新聞內容,在用戶對推薦算法不知情或不理解的情況下,將他們閱讀的新聞內容朝著算法預測的方向引導,這可能限制了用戶對新聞內容的自主選擇權利[15,22,24]。
3. 4 人工智能系統層面
人工智能系統層面倫理問題研究涉及的應用領域如圖 4 所示。
在社會科學領域,主要討論機器人在人類社會活動中引發的倫理問題。如聊天、陪伴等社交機器人通過模仿人類行為觸發用戶的情緒反應,可能讓用戶投入情感并建立一種新的社會關系[36]。對于認知水平有限的用戶,可能會降低他們參與真正社會互動的意愿,造成道德傷害[36-37]。又如機器人擁有的道德能力引發的倫理問題,包括機器人是否應該有自主性、是否應該總是聽從人類的命令、是否應該被允許在一定情境下殺害人類、是否應該享有被保護權利等[38]。人們很容易將機器人使用中產生的問題歸咎于機器人本身或對機器人負有責任的代理人,但機器人往往不滿足被追責的條件或者不適合成為被追責的責任主體,由此可能導致道德替罪羊的出現,削弱公眾對法治的信心[39]。
在醫藥衛生領域,主要探討護理機器人引發的倫理問題。機器人在喂食、搬運等行為時不能像人一樣對照料對象提供關愛,因而被照料者可能會感覺自己被當作物體來對待,個人尊嚴受到傷害[22]。 Draper H 等[40]提到使用機器人為老年人提供家庭護理服務時,機器人的監視可能干擾老人的行動,剝奪他們自主選擇權。Tuisku O 等[41]也指出機器人無法代替人類的聲音和手,機器人的使用會減少護理中的人際接觸,造成人類關懷的喪失。Rodogno R[42]探究陪伴型機器人與老年人的關系時指出,為了獲得護理機器人的積極情感交流,老年人可能夸大悲傷經歷而變得更加多愁善感。Wynsberghe A V[43] 也指出,設計護理機器人應重視 “關懷倫理”,其核心元素為關系、角色和責任,強調護理機器人的道德水平不只是關注照顧效率和隱私保護,還需要考慮對被照料者的道德品格的影響。
在軍事領域,主要討論軍用武器系統應用人工智能技術的倫理問題,包括對人的尊嚴的影響和武器系統自主決策的道德責任問題。自主武器系統使用傳感器獲取目標,會在人類難以直接干預決策情況下進行自主攻擊[44-45]。Sharkey A[46]認為目前自主武器系統無法理解或尊重生命的價值,使用武器系統做出殺人的決定是對生命不負責任的行為。因此,自主武器系統或軍用機器人的使用需要在最大限度減少間接傷害和實現軍事優勢間進行權衡。然而,一旦發生不必要的平民傷亡,明確追責或進行懲罰都變得相當困難[22,46-47]。
在政治領域,主要關注在人道主義援助和國家安全中應用人工智能技術產生的倫理問題。在人道主義援助方面,針對政治避難和移民的臨時收容所,利用無人機收集收容中心場地數據,盡管可以檢查中心的生活條件,但也減少了人與人之間的互動,如果未考慮無人機使用的潛在危害,可能傷害到受援助對象的尊嚴[20]。在國家安全方面,相關研究中提到國家安全機構或其他政府機構部署監視系統用于控制和約束公民,引發了侵犯公民自由權利的爭論[27,33]。
在文化科學領域,主要關注在文化服務、教育中使用機器人產生的倫理問題。如機器人可以代替圖書館工作人員進行書籍訂購、分類以及咨詢等工作,使相關人員感受到就業環境威脅,甚至產生心理健康問題[24,48]。機器人教師、同伴在兒童教育中的應用,可能因為長時間陪伴和相處讓學生產生情感依戀,減少與人的相處,影響他們社交能力的發展[30]。
在交通運輸領域,主要對自動駕駛汽車應用產生的倫理困境進行探討。自動駕駛汽車在即將發生交通事故時需要做出決策,在駕駛員、乘客、行人安全以及其他相關因素之間進行權衡,面臨類似于人類社會的 “電車難題”,自動駕駛汽車做出決定會使交通事故的責任歸屬變得更加復雜,引起道德責任主體與承擔方式的爭議[33,47]。此外,自動化使得人們高度依賴技術,一旦自動化生產機器不能正常工作,工人缺乏替代機器進行生產工作的能力,主管作為管理者同樣缺乏相關的專業知識和手工技能,使生產鏈的脆弱性增加[49-50]。
3. 5 對策層面
研究中針對人工智能技術應用的倫理問題提出的解決方法,根據借助的工具類型不同,將其分為社會方法和技術方法[15]。
3. 5. 1 社會方法
社會方法倡導,將道德原則、法律法規等有助于規避倫理風險的社會規范融入人工智能技術設計與應用場景,使個人或組織在社會環境中更負責任地使用人工智能技術。
一方面,根據道德原則建立技術規范要求,盡可能降低人工智能技術應用中的倫理道德風險。例如,針對機器學習可能產生的偏見風險,可以通過強調公正和尊重的道德原則來構建公平、非歧視的社會[22],通過社會數據處理前的倫理分析或道德審查規避風險[29]。同時,人工智能程序設計需要兼顧人工智能的 “理性代理”與 “對社會負責的代理”角色,設計高效且尊重人類社會的人工智能應用[30]。針對人工智能技術可能破壞人類社會的民主、自由和公平,可以構建一種介于嚴格監管和自由放任之間的、積極主動的技術民主化方法[33],對技術設計和應用進行規范化。此外,還可以建立適用于自主機器人開發的公司或組織的道德責任規范體系,通過安全協議事先明確責任歸屬[39]。更多推廣 “以關懷為中心的價值敏感設計”方法,將倫理維度納入機器人設計和實現框架,這種方法目前主要應用于醫療保健領域,通過設計過程的價值觀反思性評價,規范機器人的護理實踐步驟[43]。
另一方面,使用約束力更強的法律法規應對人工智能技術應用的倫理問題。例如,為了確保公共價值觀和人的基本權利在人工智能技術應用中得到保障,Royakkers L 等[22]提出設計人員需要認識并遵循國際條約中大數據監管和算法透明度的有關規定。Vamplew P 等[47]提到設計自主軍事系統時應保證機器的行動符合 《戰爭法》和 《交戰規則》的有關規定。Ransbotham S 等[34]提到針對算法偏見和歧視問題,應參考國家法院 《民權法案》中相應的法律原則,在美國 《民權法》第七章中就提到了有關的歧視案件的法律條文。
3. 5. 2 技術方法
技術方法是從技術操作層面思考解決方法,以降低人工智能技術應用的倫理風險。
在數據操作方面,根據數據生命周期探討不同階段的倫理風險規避。例如,從數據采集來看, Robinson L 等[48]提出對機器人收集的信息進行分類,建立各類信息合法獲取和使用的標準,可以保護個人隱私信息。從數據處理來看,Hagendorff T[15]提到通過刪除敏感、受保護屬性,或者修正訓練集消除倫理隱患。但是,非敏感屬性同樣存在產生歧視的可能,而且對訓練數據集的修正可能降低數據分析的質量和有用性。從數據組織來看,McDonough K 等[28]提出使用擴展命名實體標注具有歷史跨越的地理文本,綜合考慮地理空間位置和非地理空間或時間的多樣性信息,提高對空間歷史的解釋力度。從數據共享來看,Kuo T T 等[26]提出將隱私保護的學習模型與區塊鏈技術結合起來開發通用的保護隱私的預測模型共享框架,為機構間數據共享時的隱私保護提供幫助。
在算法模型方面,Ananny M[16]提到開發 “非監督式學習”算法來識別數據集中可能導致歧視的模式或結構,避免總是基于一種假設而扭曲數據集。Marlies V D V 等[51]構建了一個道德決策模型,針對不同的人機關系進行不同道德模式的響應,輔助人工智能系統做出恰當的道德決策。
在智能系統結構方面,Arnold T 等[52]提出通過倫理核心應對人工智能系統的道德威脅,倫理核心在智能系統的體系結構中,位于硬件 ( 或最小操作系統層) 與虛擬機層之間,由場景生成,仿真引擎以及最小關閉 3 種機制組成。Malle B F[38]提出通過賦予機器人道德能力來解決倫理問題,包括強化對道德詞匯的監測、編寫道德規范和道德事件評估的程序、建立道德推理和溝通的能力。
4 討 論
綜前所述,圖情 SSCI 期刊有關人工智能倫理問題的研究在研究內容的廣泛性、領域的結合性上主要體現了如下特點:
第一,研究內容涉及醫藥衛生、文化教育、軍事、政治等多個領域,較為全面地涵蓋了從數據、算法到人工智能系統的不同層次,并以人工智能系統層面的問題研究數量最多。
數據層面研究主要圍繞數據生命周期,探討采集、加工、組織、共享等過程中的隱私侵犯隱患和風險。如數據采集、傳播時采集原則解釋說明缺失或者不充分[22,26]、數據標注的不當都可能帶來侵犯數據采集對象的隱私,給相關社會實體帶來傷害,引發社會倫理問題。此外,數據的二次使用或再利用也會加大數據知情同意的實施和數據保護的困難而引發倫理問題[30]。
算法層面的研究結合算法的特性,探討人工智能算法在具體應用中引發的歧視、偏見、影響人類自主權等問題。過度依賴人工智能算法結果會影響人的自主選擇[22]。同時,根據算法的統計結果進行決策可能導致某些歧視性的決定,從而延續甚至加深人類社會的偏見[30,32,35]。如地區經濟水平的識別[15]、信用資質的評估[32]、就業機會的分配[22,52]等。
人工智能系統層面主要從智能系統對人的尊嚴和權利,以及社會關系的影響角度進行分析。例如探討人工智能系統與人類形成的社會關系對人類社會的影響[36]、在醫藥衛生行業對護理治療對象的心理和精神的影響[36,40]以及自動駕駛汽車[33,47]、自主軍事武器[39]等代替人類進行決策對于人類生命和社會秩序的影響等。因為這些問題的存在,研究者們也對機器倫理道德的設計方面進行了探討,以及對智能機器的道德地位進行討論,分析人工智能體是否享有道德權利或承擔道德責任等問題[39,53]。
第二,研究視角覆蓋人本主義觀和技術主義觀,包括積極倫理和消極倫理兩類觀點傾向。消極倫理觀點更多考慮到人工智能技術帶來的倫理危機,希望通過規則的制定讓問題回歸傳統倫理規范[39]。積極倫理觀點則更多關注人工智能技術帶來的促進與機遇[54]。
在人本主義觀視角下,以人與人類社會為中心,探討人工智能技術的應用對社會中的個體以及整體產生的倫理影響。研究中探討較多的是人的隱私、平等、自主、自由、尊嚴等以及社會的歷史文化和社會聯系。如具有歷史和文化敏感性的數據組織不當可能對社會的歷史文化帶來沖擊,影響到個人或群體的尊嚴[28]。推薦系統對特定人種的傾向可能導致偏見、不平等[33]。而醫療護理、娛樂陪伴等應用中智能機器人對人際社會關系的影響也會對人們的心理和精神層面產生影響[36]。
在技術主義觀視角下,以數據、算法和智能體為中心,更多從數據化、算法和智能系統的應用出發,考慮數據化的重要性、算法的公平性,尤其是智能體的道德地位。如 Miao Z[21]通過文獻調研討論人工智能技術應用中的人權倫理困境。又如,從機器人角度,探討機器的社會道德地位和機器人是否成為道德主體、擁有道德權利、承擔道德責任等問題。對于機器道德地位問題的探討主要是運用對比分析的方法,將智能機器與人或動物等社會實體進行比較分析,基于哲學思維或理論進行分析討論。在道德地位問題上,Johnson D G 等[53]認為,動物和機器人的區別在于對痛苦的感受差異,對機器道德地位問題的討論會細化出對機器享有道德權利和承擔道德責任等問題的探究,但目前的觀點和看法尚未取得一致。
由上述分析可見,圖情 SSCI 期刊論文探討的問題與國內外人工智能倫理研究[9-10]有著較高的一致性,人工智能算法與數據倫理控制、人工智能體設計、人工智能道德代理等均是整個領域關注的議題。尤其在機器人倫理方面,關于幼兒、老人看護機器人的倫理研究,機器人護理與受護理者尊嚴的倫理研究,戰爭機器人行為的倫理研究等也都在圖情 SSCI 期刊中有所體現。從研究機構來看,研究者來自計算機科學、信息系統、信息技術、哲學、心理學、圖書情報、語言學等諸多學科。可見,人工智能倫理問題是一個與多學科交織的問題領域。對于圖書情報領域而言,信息倫理、用戶隱私保護、數據與信息安全一直是關注的研究問題,順應人工智能時代發展的背景,有必要在倫理研究方面有所加強,推動健全圖情學科在交叉學科問題上的研究方法體系建立,促進信息管理技術在同步發展的倫理研究中健康發展,如下問題值得進一步研究:
一方面,加強對不同層次與應用領域問題的涉入和研究。結合信息生命周期管理階段[55] ( 如信息創建、信息采集、信息組織、信息存儲、信息利用和信息清理) ,從人工智能技術相關的數據、算法和人工智能系統 3 個方面進一步加強相關研究的開展。例如,在數據層面,加強在移動互聯網應用[56]、社交媒體[57]、公共信息資源管理等情境下,對數據采集方式、用途、規范使用、隱私保護的研究。在算法層面,加大對各類網絡搜索[58]、推薦等系統[59]中的偏見問題研究。在人工智能系統層面,加強對豐富應用場景下的探討,如圖書館中的智能咨詢服務機器人、盤點機器人、閱讀機器人等[60]在應用中的倫理風險,對現實從業人員的沖擊以及應對等問題。人工智能技術在圖情服務的應用場景多樣[61],人工智能技術與知識服務基礎設施建設、智能知識化服務創新等方面的融合中都會涉及到不同層次的倫理問題研究,都值得從研究脈絡溯源[62]、倫理風險識別與應對、智能道德代理、用戶對智慧應用態度[24]等角度進行深入研究。
另一方面,加強對人工智能倫理倡導的規范與準則研究。在人工智能技術應用過程中,最大限度降低倫理風險與追求技術優勢這兩個目標可能存在的沖突,需要結合特定的應用情境,分析不同倫理因素之間的關系,進行綜合的分析和權衡。因此,未來研究需要進一步探索人工智能技術在具體應用中的倫理規范,豐富和完善人工智能倫理準則。目前,諸多國家都從政府層面對人工智能實踐發展提供了政策支持與推動,在我國,黨中央、國務院在人工智能發展規劃中都曾專門提及倫理問題研究[3-6]。相比英、美、日等國,我國在倫理規范與制度建設方面還有待進一步深化。因此,進一步加強對各國政府、國際組織,以及相關行業協會的人工智能倫理倡議、原則的研究[63],結合我國的應用實踐狀況,探索從數據、算法、智能系統等微觀層面,到人工智能產業、人類社會秩序的宏觀層面的人工智能倫理規范與準則的研制與貫徹,促進我國人工智能技術在倫理規范指引下的健康發展,提升在推動全球社會秩序穩定中的地位和作用。
5 結 語
本研究運用內容分析法對 WOS 圖書情報學科類目的文獻進行分析,探討人工智能倫理問題的研究現狀,結果表明,圖情學科 SSCI 期刊的論文從數據、算法以及人工智能系統等多個層面,結合政治法律、軍事、經濟、文化科學、醫藥衛生、交通運輸等應用領域,進行了一系列的研究,探討人工智能技術對個體以及人類社會的影響; 并且,從人本主義觀點和技術主義觀點角度進行了共同的探討,從社會方法和技術方法角度提出了應對的策略。在此基礎上展望了圖情領域的未來研究問題。
本研究的不足主要包括,盡管調查的文獻來自圖情學科 SSCI 期刊論文,這些文獻只能有限地反映圖情學科對人工智能倫理問題的研究狀況,還需要結合學者發文角度,以及人工智能技術應用的實踐角度進行綜合分析。同時,加強與相關學科人工智能倫理問題研究的比較,進一步結合圖情領域的典型應用與服務場景,分析人工智能技術的應用現狀、發展趨勢,以及伴生的倫理風險與應對,與相關學科一同促進人工智能技術整體的健康發展。
論文指導 >
SCI期刊推薦 >
論文常見問題 >
SCI常見問題 >