【點新聞報道】當ChatGPT掀起全球AI競賽浪潮,其背後的安全隱患與治理挑戰正引發各界深思。在今天(26日)的博鰲論壇「AI安全與治理」分論壇上,中外專家學者及企業代表齊聚一堂,就如何平衡技術創新與風險管控展開激辯。
中國工程院院士張亞勤指出,當前AI發展已呈現三大趨勢:推理能力突破、物理智能崛起及生物智能探索。以「百度蘿蔔快跑」為代表的無人駕駛技術已實現規模化商用,而DeepSeek開源模型更開創了中國貢獻全球的先例。但他警示,智能體自主決策可能帶來不可控風險,「能力越大威脅越高,需設立倫理紅線」。
AI能力越大威脅越高
經濟合作與發展組織(OECD)全球關係主任紹爾強調,治理需與技術發展同步演進。他建議借鑒移動通信標準制定經驗,通過多方協作構建全球性治理框架。
值得關注的是,中國科學院研究員、聯合國人工智能高層顧問機構專家曾毅表示,最新研究表明,強化AI安全防護並不會抑制其性能提升。通過對十餘個大模型的實測顯示,安全能力提升20%-30%僅造成0.1%的計算損耗,證實安全與發展可實現雙贏。這一突破為破解安全與發展悖論提供了新可能。
AI開放與風險管控可通過技術實現兼容
針對數據版權爭議,英國勵訊集團公共事務總裁池永碩提醒,大模型訓練若忽視知識產權保護將動搖創新根基。他主張建立分級授權機制,既保障數據合規使用,又維護創作者權益。以色列學者特希拉則警示,地緣政治分歧可能導致AI治理碎片化,需構建更具包容性的全球對話平台。
論壇達成3點共識:其一,AI治理需超越單純技術規制,融入倫理、法律、經濟等多維度考量;其二,開源開放與風險管控並非零和博弈,可通過技術手段實現兼容;其三,新興市場國家應避免被動跟隨,可通過差異化路徑參與規則制定。
(點新聞記者何玫、黃寶儀、李紫妍報道)
相關閱讀: