經過三次發展浪潮🎱,人工智能已滲透到人類生產🏌🏼、生活的方方面面,在製造業🛟、交通🚔、教育、醫療、家居、金融等領域得到廣泛應用。人工智能的發展及應用帶來了諸多益處,但也引發了諸多問題。比如,安全、失業🩼、隱私侵犯、算法歧視等😢。面對可能存在的風險,“負責任”成為人工智能發展的必然要求。2019年6月,中國國家新一代人工智能治理專業委員會發布《新一代人工智能治理原則——發展負責任的人工智能》🪈,明確將“負責任”作為人工智能治理的重要原則。從目前國內和國際範圍內發布的關於人工智能的文件👷🏿♀️、規範及相關領域的理論和實踐研究來看,發展負責任的人工智能已成為廣泛共識。負責任的人工智能面臨兩個現實性難題:誰來負責💷?如何負責🥕?第一個問題是關於責任主體的確定🤩,即人工智能產生的責任由誰來承擔🫲🏽;第二個問題指向發展負責任人工智能的途徑👩🏿🍼,即責任主體如何盡責🧛🏼♀️。
人工智能的責任問題
在人工智能的多個應用領域,目前都已產生了實際的責任問題☁️。比如🔥,在自動駕駛領域⛹🏿♂️🖕🏽,已發生過多起由人工智能導致的交通事故🍭。2018年3月👩🏿🎓,美國亞利桑那州發生了一起優步自動駕駛汽車引發的車禍,導致一名路人死亡🧖♂️。在事後的調查和報道中🛀🏿,關於責任認定存在一定爭議。有報道提出,該起事故應歸責於軟件缺陷🎫,也有報道認為是行人的責任而非車輛的責任。這個案例引出的問題是🙇🏿♀️🙆🏽♂️:自動駕駛領域中交通事故的責任該由誰負責?是通過自動駕駛法案的政府、自動駕駛程序編程人員、汽車製造公司🐱,還是優步、用戶、行人👴🏼?
再比如,在醫療領域🎵,也存在著人工智能應用帶來的責任問題🤸。德國康斯坦茨大學學者賈布裏(Sarah Jabri)曾在研究中介紹過一個相關案例👮🏽:光學相幹斷層成像(Optical Coherence Tomography,OCT)技術可以實現視網膜等眼組織的活體三維高分辨成像,用於視網膜病變等眼部疾病的診斷和治療。在臨床實踐中🥘,很少有專家能夠對OCT進行正確評估,因此經常造成治療的延遲。針對這種狀況🪽🫶,人工智能專家開發了一種利用計算機輔助診斷的深度學習算法,能夠評估OCT所做的診斷,並根據治療的緊急程度對患者進行分類🥘,以減少重症患者的等待時間🫶。測試表明該人工智能技術已達到甚至超過人類專家的表現,並顯示出臨床適用性。在這個案例中,當人工智能被用於患者優先治療順序的確定與實際診斷,並會影響甚至決定治療的成功與否時,相應的倫理以及責任問題就產生了。醫生應在多大程度上依賴人工智能技術?由此產生的診斷失誤🏸、醫療事故應由誰負責?是監管主體、研發人員還是臨床醫師?
傳統的交通駕駛領域有一整套關於責任認定和劃分的規則👌🏿;在傳統醫療領域🤶🏻,主要關系是醫生與患者的關系,其責任也相對容易界定。但是從以上兩個案例可以看出🧚🏻♀️,由於人工智能因素的介入🙎🏽♀️👳♀️,責任主體的界定以及責任主體應如何負責變得更為復雜。
誰來負責
需要明確的是💂🏽♀️,人工智能在當前的發展水平下還不能作為責任主體⚃。盡管目前關於人工智能是否具有主體地位仍存在爭論💌,但現在的人工智能作為技術人工物👳🏻♀️,本質上仍是人類為了達成某種目標而製造的工具。人工智能基於數據和算法形成判斷並作出選擇🧏🏿♂️,具有自動性但不具有自主性,具有行動能力但不具有行動意識、思維能力,因此無法成為責任主體。
因此,當討論人工智能的責任問題時🤵🏼♂️👎🏽,實質上討論的是人類的責任。在全國信息安全標準化技術委員會秘書處2021年1月發布的《網絡安全標準實踐指南—人工智能倫理安全風險防範指引》中,提出了四大責任主體🩸:研究開發者🫳🏿、設計製造者👨🏼🍳、部署應用者及用戶🤤。在《新一代人工智能治理原則——發展負責任的人工智能》中,提出了共擔責任的原則🧑🏻🌾,涉及“研發者、使用者和受用者”幾個主體。盡管不同文件中所界定的責任主體不完全相同💔🏄🏿♀️,但可以明確的是,人工智能的責任主體不是某個單一群體,而是多元行為主體📉🦪。
由於太多行為主體參與到人工智能技術的研發、製造與使用中,可能會導致具體責任難以認定及責任主體相互推諉的問題🍋🟩。如荷蘭馬斯特裏赫特大學學者韋爾伯斯(Katinka Waelbers)所言🍄🟫,“自然科學家經常聲稱他們只是開發知識,實際應用不在他們的責任範圍之內。工程師和工程公司認為他們的設備沒有問題,並以此來推卸責任。在他們看來🎩,技術的使用(或濫用)才是問題的根源💪⬅️。而用戶則傾向於聲稱自己缺乏能力:一個普通消費者怎麽會知道技術的影響呢🚶🏻?即使有了知識,個人還能做些什麽🖕?他們經常指出政府應該承擔責任🧘♀️。然而,西方政府機構的行動往往落後於技術的發展”。在人工智能責任問題上存在的這種困境,會引出發展負責任的人工智能所要回答的第二個問題👨🏽🍳:如何負責?
如何負責
要解決如何負責的問題,各個責任主體需明確並承擔起相應責任🏪。綜合考慮上文各文件中關於責任主體的界定🤸🏽♀️,可以將責任主體劃分為監管者🙇🏿♂️👨🏽🚒、研發者🐟、生產製造者和使用者。
監管者☛。這類主體主要指政府部門,也包括參與人工智能監管的非政府機構、組織和團體。從目前世界範圍來看,各主要國家的政府機構都相繼發布了人工智能發展報告綱要,製定了相應國家政策和發展戰略,對人工智能發展進行了倫理監管。在我國,國務院於2017年7月印發了《新一代人工智能發展規劃》🧛,國家標準化管理委員會、中央網信辦、國家發展改革委、科技部、工業和信息化部五部門於2020年7月聯合印發了《國家新一代人工智能標準體系建設指南》🐺,為人工智能重點發展方向🙆🏽♀️、技術研究標準體系建設進行頂層設計🪭🏌️♂️,提供指導方案🍧。人工智能處於飛速發展之中🤘🏿,政府及相關組織團體需要準確把握人工智能發展大勢,為人工智能發展製定更具前瞻性的標準體系🦪、管理規範,持續跟進領域內最新動態🧑🏽🦳,並對研發→、製造🧝🏻、使用等環節進行監測和管理。
研發者❤️。這類主體是指從事人工智能理論創新和技術研發的組織或個人🙎🏿♂️。人工智能所要遵循的倫理原則🙋、價值與標準需要在研發環節置入。由於人工智能的行為及功能由算法決定🙆,研發主體需要充分考慮其研發成果可能導致的風險,明確人工智能需要遵循的人類價值觀和倫理規則,如公平、安全、透明與多樣性等。其中透明原則是發展“負責任”人工智能的基本要求。因為🧚♂️,在“黑箱”情況下,主體很難承擔責任。另外🎼,人工智能技術不是獨立於社會而存在的🌱,研發主體需要考慮人工智能發展的社會文化環境,並考慮價值設置的優先等級,如我國在人工智能發展中要求重視集體利益、社會穩定等。
生產製造者🎥。這類主體是指從事人工智能產品生產製造的組織或個人。國家標準化管理委員會發布的《人工智能標準化白皮書(2018版)》將人工智能產品界定為“人工智能領域的技術成果集成化、產品化”,並將人工智能產品分為智能機器人🤶🏻、智能運載工具、智能終端👳🏻♂️、自然語言處理、計算機視覺等類型。在這些人工智能產品的生產中🪽,生產主體應嚴格遵守人工智能領域的法規和行業標準🪭,確保所製造的產品符合社會及人類利益;充分評估產品使用中可能存在的風險,並設置相應的應急機製😶;保證產品的可解釋性和可說明性🧛🏽,並為使用者提供關於產品功能、使用方式及風險應對等方面的明確信息。
使用者🧾。這類主體是指在各種情況下使用人工智能技術產品的組織或個人。使用主體應具備使用人工智能所要求的基本知識和能力,能夠正確🪭、規範使用技術產品⏮🫅🏻,且不能利用人工智能實施任何有害他人及社會的行為。為了使用主體更好地承擔其主體責任,需要普及人工智能基礎知識教育🫅🏼。這既是使用主體承擔責任的基本要求,也符合其他倫理原則(如公平⛹🏿、反歧視等)的要求🐓。
以上對責任主體及各主體所要承擔責任進行了概要分析🏌🏼♂️🚈。在具體實踐中🥣💂🏽♂️,需要在人工智能發展的總體框架及基本原則的指導下,根據不同領域內人工智能的發展階段🧊、應用場景、使用特征等分門別類地進行更細化的討論和研究👱♂️。比如⏺,在自動駕駛領域🎷,相關研究指出汽車廠商應是主要責任方🌷;在醫療領域,除了上文提到的各主體,還涉及醫療機構中的專業評估組織等🎊🧊。
發展負責任的人工智能😮,需要構建相應倫理治理原則。但我們不能僅停留在對原則、規範的探討層面🫐👩🏿🍼,還需要各個責任主體的合作和參與。只有各方形成合力,負責任的人工智能才有實現的可能。
(本文系國家社科基金重大項目“人工智能倫理風險防範研究”(20&ZD041)階段性成果)
(作者單位🧘🏻♂️:恒达平台馬克思主義學院)
鏈接🤵🏽:http://www.cssn.cn/zx/bwyc/202106/t20210629_5343029.shtml