在近日召開的中國發(fā)展高層論壇2026年年會期間,與會嘉賓圍繞人工智能產業(yè)化落地、風險挑戰(zhàn)與治理路徑進行了深入探討。業(yè)內人士指出,人工智能的安全治理要通過技術架構確保智能體的行為可驗證、可干預、可追溯,同時要通過制度設計明確各方責任。
隨著人工智能從基礎大模型向行業(yè)大模型縱深拓展,與實體經濟的結合度越來越高。天津市副市長翟立新在會上介紹,在AI+制造方面,聯(lián)想天津創(chuàng)新產業(yè)園創(chuàng)建了激勵模型+深度學習的混合架構,排產時效從過去的兩個小時壓縮到10分鐘;在AI+醫(yī)療方面,天津醫(yī)科大學腫瘤醫(yī)院上線了“AI輔助審核系統(tǒng)”,檢驗報告審核時間平均縮短30分鐘。
強腦科技創(chuàng)始人韓璧丞表示,腦機接口與人工智能的深度結合,正重新定義醫(yī)療與技術的邊界。強腦科技的仿生靈巧手已落地多家人形機器人企業(yè),成為具身智能的核心部件,幫助機器人在工業(yè)制造、生活服務等場景完成精細操控。
“只有推動人工智能與各行各業(yè)深度融合,才能將技術勢能轉化為發(fā)展勢能?!眹覕?shù)據(jù)局局長劉烈宏說,中國作為全世界唯一擁有全部工業(yè)門類的國家,數(shù)據(jù)資源豐富、產業(yè)體系完備、市場空間巨大,實施“人工智能+”行動,就能讓人工智能技術真正扎進產業(yè)土壤,深度賦能千行百業(yè)。
數(shù)據(jù)顯示,預計到“十五五”末,中國人工智能相關產業(yè)規(guī)模將突破10萬億元,邁向更廣闊的增長空間。
伴隨人工智能產業(yè)化進程加速,其帶來的安全挑戰(zhàn)以及如何構建與之匹配的安全治理體系備受關注。
螞蟻集團首席執(zhí)行官韓歆毅表示,實現(xiàn)AI時代的共同繁榮,產業(yè)界要攜手應對四重挑戰(zhàn):底層的算力和能源消耗,再上一層是模型和數(shù)據(jù)的安全問題,應用層則是如何確保AI能真正為人類帶來福祉,最后就是人的發(fā)展問題?!懊鎸@四大挑戰(zhàn),產業(yè)界應當有所作為,探索系統(tǒng)性的解決方案?!?/p>
“安全必須貫穿于AI發(fā)展的始終,包括模型幻覺、隱私安全、倫理底線和人機關系等挑戰(zhàn)?!表n歆毅說。在應對這些風險過程中,企業(yè)是AI技術研發(fā)、產品化和運營的直接主體,必須遵循“誰開發(fā)、誰負責”的原則;安全與倫理原則必須“內置”,不能“后補”;不能因為市場競爭激烈而放松安全責任。
上海人工智能實驗室主任、首席科學家周伯文表示,在技術創(chuàng)新中,一方面需在鼓勵創(chuàng)新與防范風險間找到平衡點;另一方面,面對復雜的應用場景,需持續(xù)構建行業(yè)特定的評價與驗證系統(tǒng)。上海人工智能實驗室打造了人工智能安全驗證體系“SafeWork”,融合了“Make AI Safe”與“Make Safe AI”兩條技術路線;“司南(OpenCompass)”評測體系,正成為引領技術突破與產品創(chuàng)新的“人工智能度量衡”。
清華大學蘇世民書院院長薛瀾表示,從技術的角度來講,安全可控是底線,要保證通過技術架構確保智能體的行為可驗證、可干預、可追溯。從監(jiān)管舉措來說,非常核心的要點就是權責清晰是基礎,要通過制度設計來明確各方責任,為創(chuàng)新提供明確的秩序軌道。明確用戶授權,要遏制平臺權限濫用,在這方面進一步做更明確的規(guī)則。要建立包容審慎分級監(jiān)管的制度。

