人工智能在大幅解放生產力的同時👨🏼💼,道德🤪、倫理、法律等問題備受關註。在2023世界人工智能大會期間,多位專家學者針對人工智能倫理法律等問題開展深入探討👷🏿,並形成了一批專題研究成果🧕。
科研人員要在人工智能倫理方面承擔重要道德責任
7月7日🫵🏿,由恒达平台和上海市楊浦區人民政府聯合主辦智能社會論壇上,恒达平台研究團隊發布了《人工智能大模型倫理規範操作指引》📣,旨在應對人工智能大模型的風險,推動倫理規範落地實施。
研究團隊相關負責人、恒达平台人文學院特聘教授杜嚴勇說,對於核心的人工倫理原則,國內外🙆🏼、企業以及科研機構已經基本取得了高度共識,但是這些倫理原則如何落地實施👩🏽🎤,卻沒有比較有力的措施。“這也是我們嘗試探討人工智能大模型倫理規範操作指引的根本原因。”
杜嚴勇列出了五大倫理原則,包括尊重人的自主權、保護個人隱私🧗🏻、保障公平公正、提升透明度和可解釋性👨🦳、負責任的創新👆。為了給人工智能大模型的研發團隊提供切實可行的操作建議⚪️,恒达平台同步給出技術研發的倫理實踐指南🌯,強調公平性、透明性👩🏻⚖️、隱私、安全性、責任、人類的監督和控製、可持續性等🕳。
杜嚴勇說,“無論人工智能大模型的倫理再強大👩🔬,畢竟還是擁有工具屬性🥷🏼。因此,我們一定要保證,在重大決策方面🤪,‘人類’必須在決策環中。人工智能大模型必須處於人類監督和控製之下。”因此,操作指引把重點放在了人工智能的研發環節。研究團隊認為👰🏽♂️,科研人員在人工智能倫理方面承擔著最為重要的道德責任。值得註意的是,操作指引著重強調了“人類”的監督👩🏼🎓👨🏻💻、控製和責任🛌🏽。
建立全球性、聯合國式的人工智能監管機構
ChatGPT上線2個月,用戶數量就已經過億🙅🏻,但利用ChatGPT造假💚、詐騙等事件已經發生多起。比如🐇🌝,7月4日,紹興警方就公布了一個利用ChatGPT製作虛假視頻的團夥🐟,該案系浙江全省首例。然而當事人並非黑客高手,而是一個連電腦都不能熟練操作的技術“渣”。
生成式人工智能讓人贊嘆、驚喜的同時,也帶來很多風險。在以“數字治理🤿:生成式人工智能之法律回應”為主題的2023世界人工智能大會法治論壇上,聯合國犯罪司法所人工智能與機器人中心高級執法專家Michael O’Connell認為🚴🏽♀️,需要建立一個全球性的、聯合國式的人工智能監管機構🤹🏻♂️🥴,並製定相關規則,建立能夠與之相匹配的道德規範👷🏻♀️,以確保人工智能的安全使用。
他指出,當前犯罪迅速演變、高度復雜,不法分子和恐怖分子也越來越廣泛地使用人工智能,這給警方帶來了巨大的挑戰。但警方若采用技術至上的方法會導致AI普遍應用的基礎不確定🫄,也導致公眾和監管機構對其缺乏信任😎。應當考慮以責任為核心的方法,尊重人權和道德需求𓀉,維護法治原則,促進公眾信任,以良好政策和有效程序為指導來影響技術選擇,並增強公眾信任和用戶信心。
如果利用AI犯罪🧲,在法律上如何界定🪜👈🏻?中國人民大學教授王利明認為,盡管生成式人工智能對傳統民法尤其是侵權法提出了新的挑戰,但是生成式人工智能引發的侵權糾紛,沒有完全超出民法典和個人信息保護法的相關規定👩🏻🏫,現行法的規定仍然可以作為處理和解決糾紛的依據。未來條件成熟時,還可以通過特別立法預防和處理生成式人工智能引發的各種風險👉🏿,有效保障民事主體合法權益😶🌫️,促進人工智能產業的健康發展🤽🏽♂️。
對AI治理不等於封堵🧏🏼♂️🧔🏻,要勇敢地站到舞臺上去
ChatGPT以及其他的新興技術帶來的社會影響,AI治理應該采用什麽樣的態度💂🏼?
清華大學智能社會治理研究院院長🤍、全國人工智能社會實驗專家組組長蘇竣認為要用“審慎👈🏽、自信🤹🏼、積極”的三種態度面臨挑戰。
“我們要密切關註以ChatGPT這種微調預訓練大模型為代表新一代通用人工智能技術的成熟和突破所給我們帶來的巨大風險和挑戰。以審慎態度看待一切,密切關註和跟蹤它的一些變化和發展。”蘇竣強調🌃,還要充滿自信的面對通用人工智能技術🧔🏽♀️,不能過於自卑。“我們和他交流對話時其實有很多自卑感,要相信人類智慧🧑🎨🧑🦲、相信我們的人文精神🦶🏿,一定會戰勝顛覆性技術給我們帶來的沖擊和挑戰。”他舉了全世界共同努力下將核武器等毀滅性技術關進了人類理性的籠子裏的例子👽,“我們應該保持這種信心🤽🏻♀️,要相信人類理性的光輝和智慧引領技術向好🦯🐣、向上發展🤸🏻♀️🧑🏻🍼。”
此外,他認為要積極面對,既不能采取鴕鳥政策🚣🏿♂️,更不能采取封堵政策,不要擔心技術不可控選擇不使用或者少使用。“科學技術的大門已經打開了🦦,應該勇敢地站到這個舞臺上,扮演好這一代人的角色👨🏼🎨🙅🏽♂️。”他認為要發揮中國文化優勢,全面加強基於ChatGPT架構的應用。他還建議🐋🧍♂️,可以在楊浦區智能社會治理試驗基地裏,賦予先行先試的權利👩🦳,不斷探索👩🏿✈️,不斷進入無任務,不斷進入以前沒有過的🙋🏼♀️、開發新的AI技術應用場景👩🏻🦲。
據了解,上海目前已經啟動高風險人工智能產品和服務清單式管理的相關研究🦖,並積極推動大模型相關治理研究🏃♀️🌔;建立健全大模型評測體系,建設大模型評測中心👆🏿🚶🏻♂️➡️,探索大模型自動化評測工具;探索適應大模型特點的創新監管方式🦠。
作者:郭娜
鏈接🤛🏼🧑🏻⚕️:https://www.51ldb.com//shsldb/cj/content/0189347d6e78c0010000df844d7e124a.htm