藍海沙龍|第269期:“生成式人工智能領域下的個人信息侵害風險及應對策略”研討會在京召開
2024年03月26日 17:39
3月22日,中國互聯網協會召開第269期藍海沙龍——“生成式人工智能領域下的個人信息侵害風險及應對策略”研討會。中國政法大學副校長、數據法治研究院院長時建中,中國科學院信息工程研究所正高級工程師戴嬌,中國社科院法學所研究員、科技與法研究中心主任楊延超,北京郵電大學電子工程學院教授吳帆,中國移動研究院博士袁博,中國信息通信研究院互聯網法律研究中心高級工程師趙淑鈺,華為云EI解決方案專家張瑞鋒,360集團法務部資深律師王樂,阿里巴巴集團公共事務總監肖堯,淘天集團政府事務總監鐵木爾夫等專家參加了會議。會議由中國互聯網協會副秘書長裴瑋主持。
裴瑋表示,生成式人工智能為教育、娛樂、醫療保健和科學研究等多個領域提供了變革潛力,激發起前所未有的關注度和創造力浪潮。但在具有廣闊應用前景與發展未來的同時,生成式人工智能也對既有的個人信息保護體系形成了巨大沖擊與威脅。生成式人工智能通常需要大量數據進行訓練,隨著生成式人工智能的廣泛使用,個人數據的收集、存儲和處理將變得非常普遍。在未形成有效的數據管理和個人信息保護機制的情況下,生成式人工智能服務將缺乏透明性和可控性,個人信息保護的落地需要更加細化的技術、機制與規則設計。本次研討會結合人工智能的具體落地應用案例,重點關注生成式人工智能時代如何提升個人信息保護技術手段的有效性,討論如何健全監管空缺與補充機制、平衡安全與發展等問題,旨在為政府部門的監管和治理提供思路和建議,更好地推動生成式人工智能行業的建設和健康發展。
張瑞鋒表示,華為云大模型分為三層,包括L0基礎大模型,L1行業大模型及L2場景模型。其中基礎大模型當前包括NLP大模型、CV大模型、多模態大模型、預測大模型和科學計算大模型5種。華為云大模型在各個行業的應用已有很多案例,如政務、醫療、金融、司法、礦山、軌道、電力、氣象行業等。政務大模型功能主要包括城市感知、協同辦公、政策咨詢、城市治理。金融大模型功能主要包括金融政策梳理、跨模態內容理解與多任務理解、代碼的智能生成及軟件的交互集成。醫療大模型則主要通過醫療報告的生成與解讀服務推動醫療領域疑難問題的解決。 王樂表示,360的大模型包括360智腦大模型、奇元大模型、多模態大模型和360安全大模型,目前智腦大模型和奇元大模型已經通過備案向公眾開放。生成式人工智能領域個人信息保護的風險主要有三個方面,一是訓練數據過程中的誤抓取的風險;二是信息流轉過程中的信息泄露風險;三是AI作為新業態,在發展速度較快的同時,企業可能會輕視信息安全的風險。結合我國AI發展現狀,建議更多的去鼓勵行業發展,采取輕事前重事后、輕過程重結果的監管策略。建議企業強化自身的安全建設,對個人信息做分類,分級的管理。尤其敏感信息強化監管,嚴防泄露,同時建立規范的信息管理及處理流程,確保信息的處理及使用合法合規,且符合與用戶的約定。企業要強化和監管部門的對話,對新業態新模式以及潛在的風險及時報備,積極聽取監管部門的意見與建議,在監管部門的指導下,將個人信息保護工作能落到實處。在信息收集及內部處理使用階段,以企業的自律為主,個人信息分享、轉讓以及涉及任何形式的流出時,應按照規定對信息接收方做安全能力評估,一旦造成信息泄露可以從嚴處理,如造成了比較嚴重的安全事故,可酌情加重處理。 肖堯表示,阿里巴巴自研了通義千問、通義萬相兩款基礎大模型,相繼開源了1.8B、7B、14B、72B參數大模型。并推出通義聽悟、通義法睿、通義靈碼等8類垂類大模型,推動大模型在千行百業落地。同時,阿里還推出一站式大模型應用開發平臺“百煉”,大幅降低大模型應用開發門檻,讓廣大企業能夠根據自己的業務需求快速“煉”出專屬模型。對于AIGC領域下的個人信息保護問題,肖堯表示阿里巴巴對此高度重視,嚴格根據法律要求和行業規范對AIGC全生命周期中的各關鍵節點采取了針對性合規措施。建議探索AIGC數據治理的元規則,由政企學社媒多方聯合,綜合考慮治理價值的平衡性、治理主體的平衡性、治理手段的靈活性,開展敏捷治理。要以確定性的規則來滿足人工智能對個人信息處理的需求,在保護個人信息的同時能夠激發數據價值。此外,還需要通過行業標準、國家標準明確公開領域個人信息作為訓練語料時的合法性的基礎。 鐵木爾夫表示,生成式人工智能監管的目的是促發展,對于大型公司與小型垂類公司可以考慮采取分級分類和分階段的方式細化監管。同時,可以將協會作為平臺構建一套沙箱自律的監管平臺或自律平臺,使大模型的運行公開、透明化。讓監管部門能夠有效了解到整個模型的個人信息保護情況,既提升了行業的自律,也能夠做好事前監管工作。 趙淑鈺表示,生成式人工智能在發展過程存在著一定的個人信息風險。一方面,大規模數據匯集、多樣的數據來源等特性會加大個人信息濫用、泄露風險。另一方面,生成式人工智能對現有立法中“知情-同意”原則、刪除權、更正權等也構成挑戰。建議對生成式人工智能實施審慎監管,可明確大模型應用紅線,以個案導向、問題導向解決生成式人工智能應用發展中的突出問題,出臺權威指引、標準,逐步構建完善生成式人工智能規則體系。 袁博表示,中國移動的九天大模型平臺宗旨是借助移動海量的客戶以及網絡運營,依托泛在的網絡和智能算力使人工智能像水電一樣為大眾所使用。目前已經發布了139億參數的九天眾擎基座大模型,在研的行業大模型三大類包括客服大模型、政務大模型、網絡大模型。在大模型的使用上,建議在技術層面上充分保障用戶和行業數據安全的同時,監管部門還要明確哪些數據、行業具有涉及國家機密信息不能對外滲透,做好安全措施。 吳帆表示,從法律法規的角度看,目前國內生成式人工智能監管較為寬松,政府主要以約談、督促的方式展開監管,總體秉持保護企業、保護技術發展的立場。從技術發展角度看,國內生成式人工智能的發展將在行業應用有所側重并會取得一定優勢,這將與個人隱私數據、行業隱私數據甚至是國家安全數據緊密聯系在一起,無法進行脫鉤。在技術快速發展的當下,建議從標準和政策制定層面去做快速的引導、迭代和推進,使監管體系與技術發展速度相匹配。同時,在使用境外服務的過程中,政府可加強對關鍵數據、國家安全數據的分級分類統籌管理,確保國家數據安全。 楊延超表示,生成式人工智能領域下個人信息保護最大的風險是使用過程中的聊天記錄所形成的完整的用戶畫像,使用者的意思意圖會被完整精確地表達出來,個人信息保護的重點應當是對大模型使用過程中聊天記錄的管理與治理,要明確好聊天記錄是否需要定期刪除、是否能用于訓練等問題。政府需要考慮如何實現有效監管,如充分落實數據刪除權等,確保個人信息不被泄露或濫用。 戴嬌表示,人工智能監管政策要服務于整個國家的發展,生成式人工智能的管理尺度應當與它的不同發展階段以及發展訴求相匹配。在堅持包容審慎鼓勵發展原則的基礎上,一方面可以通過發展個人信息保護技術推動生成式人工智能的治理,另一方面可以加強事前、事后的管理,事前階段對涉及侵權或違法的信息進行處理,使生成式人工智能無法對該類信息進行操控或修改,事后階段通過設置方便事后追溯的標識等推動監管。同時,建議自上而下構建一套框架性的監管體系,配合現行規范體系推動監管的落地。 時建中表示,生成式人工智能的監管要充分考慮發展與安全、促進與規范、國內與國際、研發與運用、政府與市場等因素的關系,明確側重點。同時,站在全球視角,針對我國數據、算法、算力等人工智能不同要素的情況,精準施策。當前生成式人工智能缺乏高質量的訓練數據,公共數據流通也存在障礙。隨著生成式人工智能算法的先進程度與復雜度日益提高,算法黑箱的問題也日益凸顯,而算力的不斷發展也在沖擊各類數據加密手段。建議以促進發展為目標,在實踐中分場景展開監管。對于預訓練階段個人信息的使用可采取寬容的態度,對于實際應用場景則做嚴格把控。同時,注重發揮法律規范的倒逼作用,在明確主體責任與對象的基礎上,推動企業以先進技術實現對用戶個人信息的保護。 會議認為,我國生成式人工智能在政務、醫療、金融等領域已展開廣泛的應用,但需注意到其與產業前沿之間的技術差距。個人信息的保護要以促進發展為目標,做好各類監管場景的區分。建議政府以自上而下的形式構建一套生成式人工智能的治理框架,加快該領域下標準與政策的制定進程,使其與生成式人工智能技術的發展需要相匹配。同時,不斷創新隱私保護技術,以技術手段解決好生成式人工智能領域下的個人信息保護問題,實現我國新質生產力的發展與飛躍。