谈球吧官方网站-体育技术平台

全国咨询热线

021-62492477

您的位置: 主页 > 新闻动态 > 企业新闻

張凌寒:明確人工智能合理信賴邊界需要強化算法治理規范監管

发布时间:2026-05-08人气:

  隨著數據要素市場化配置改革持續深化,制度構建、價值釋放與治理協同成為推動數字經濟高質量發展的關鍵議題。在此背景下,人民數據對話專家學者、地方政府相關負責人、企業代表,共同探討數據要素高質量發展新路徑。

  人民數據:隨著可供訓練的存量數據逐漸觸頂,未來大模型訓練數據的來源渠道與構建方式將呈現怎樣的發展趨勢?

  張凌寒:數據是AI模型訓練的核心基礎要素,更是大模型實現差異化競爭、能力持續進階的核心支撐。訓練數據語料庫的質量直接決定了人工智能大模型的能力,也直接影響AI輸出內容的合規性與公正性。具體而言,未來語料庫的構建要重點聚焦三個維度:第一,要明確網絡數據來源合法性認定條件,要將未經授權採集的個人信息、侵權內容、違規數據等排除在訓練語料庫之外,杜絕低質量、有害數據進入訓練環節﹔二是協調版權規則,明確線下數據使用的合理性制度邊界,平衡數據利用與版權保護,避免因版權爭議影響數據供給﹔三是協同促進跨領域數據流通交易規則建立,完善數據供給激勵機制,鼓勵合法合規的數據共享與交易,為高質量語料庫建設提供制度保障。與市場化數據相比,政務部門、科研院所等公共服務機構所持有的數據具有天然的權威性、准確性、覆蓋面廣等特點,不僅能夠豐富訓練數據的維度,更能有效減少模型訓練中的數據偏差,提升AI輸出內容的公正性與可靠性。

  人民數據:面對當前人工智能技術飛速迭代,應當如何優化對人工智能及算法的治理與監管?

  張凌寒:當前人工智能和算法治理已不能單純依賴事后補救,要將監管重心更多地轉向事前預防和事中管控,讓監管模式與AI技術迭代適配。構建更加完善的事前預防治理體系,完善備案、標識、測評、安全港、監管沙盒等核心制度工具。要加強對人工智能和算法的事中管控,實現透明化、規范化監管。要基於信息公開原則,增強算法的透明度,要求企業對涉及公眾利益、人身權益的AI算法,公開其數據來源、決策流程與算法邏輯。同時,要基於公眾參與原則,開展算法影響評估,聚焦算法偏見、數據濫用、權益損害等潛在風險,邀請公眾、專家、監管部門共同參與評估,及時發現並糾正算法中的錯誤與偏見。此外,還要基於說明理由規則,落地算法解釋權,明確AI作出影響用戶權益的決策時,必須向用戶清晰說明決策依據、過程和谈球吧论坛理由,保障用戶的知情權和監督權。

  人民數據:在AI深度應用的過程中,如何防范AI幻覺致損?如果發生了幻覺致損,應如何劃定責任邊界?

  張凌寒:若AI幻覺產生的錯誤內容被用戶採信,很有可能引發權益損害。要求服務提供者對用戶進行風險告知,引導用戶理性信賴,從源頭降低幻覺致損風險。我們要求AI服務提供者要在顯著位置提示用戶“該內容由AI生成,僅供參考”等字樣,引導用戶理性看待AI輸出,減少盲目信賴帶來的損害風險。要明確高度能力化人工智能中的合理信賴標准適用邊界。當人工智能系統在專業性不斷逼近甚至超越普通用戶的認知能力時,用戶對人工智能生成內容合理信賴的判斷標准呈現高度差異性。因此,在制度設計上,我們要明確用戶對生成內容產生合理信賴的條件和標准,並結合不同場景進行差異化制定。要確認模型提供者、系統部署者與工具提供方的注意義務與責任分配。生成式人工智能系統往往由模型、平台和工具多方共同構成,模型提供者、系統部署者以及工具提供方,在技術控制能力、風險可預見性與實際介入程度上存在顯著差異。注意義務的強度應依據模型通用性、應用場景風險等級以及具體產品設計與部署方式加以判斷。

張凌寒:明確人工智能合理信賴邊界需要強化算法治理規范監管(图1)

  人民日報社概況關於人民網報社招聘招聘英才廣告服務合作加盟版權服務數據服務網站聲明網站律師信息保護聯系我們

  人 民 網 股 份 有 限 公 司 版 權 所 有 ,未 經 書 面 授 權 禁 止 使 用

推荐资讯

021-62492477