孫保學 新湘評論 2025-06-12 16:57:42
人工智能作為當下最具代表性的顛覆性技術,正深度參與全球競爭格局的重塑與社會運行邏輯的重構?,F(xiàn)階段,人工智能技術的迭代周期不斷縮短,應用場景爆發(fā)式擴展,這不僅凸顯了社會適應的滯后性,還引發(fā)了諸如安全隱患與倫理失范等系統(tǒng)性風險。對此,人工智能治理需要秉持理性、開放和審慎的態(tài)度,強化監(jiān)管與立法工作,推動人工智能實現(xiàn)安全、穩(wěn)健且可持續(xù)的發(fā)展。
研究AI要求我們以理性態(tài)度,持續(xù)深化對技術的認知。這需要我們深入探究技術的本質特征,從而為科學制定監(jiān)管與立法措施提供有力支撐。實際上,技術能夠且應該被引導來增強人類適應未來的能力,而非取代人類,尤其是對其有了全面認識之后。當前,人工智能的技術風險主要源于以下三個方面:
其一,數(shù)據(jù)驅動引發(fā)的要素風險?;跈C器學習的人工智能系統(tǒng)依賴海量數(shù)據(jù)進行訓練,但目前優(yōu)質的數(shù)據(jù)資源依然相對稀缺。高質量數(shù)據(jù)的匱乏使得“垃圾進—垃圾出”效應更為顯著。例如,醫(yī)療人工智能出現(xiàn)誤診,除了模型架構缺陷外,很大程度上是因為訓練時采用了錯誤標注的影像數(shù)據(jù)集。為確保訓練數(shù)據(jù)的真實性與合法性,數(shù)據(jù)標注需經過人工審核與交叉驗證。
其二,復雜算法導致的技術黑箱問題。在行業(yè)中,自主性更強的深度學習算法被廣泛應用,但其自動化決策過程往往難以有效追溯和充分解釋。例如,生成式人工智能有時會突破參數(shù)設置,生成虛假信息、歧視性言論等。因此,只有不斷提升算法的可解釋性并對人類價值觀保持敏感,才有望打造出可信賴的人工智能產品。
其三,技術會聚加劇平臺安全風險。智能終端用戶在使用App時,面對的并非某個類人的單個智能體,而是大型網絡平臺。當前,各類人工智能應用相互關聯(lián),會聚到大型網絡算力平臺共享數(shù)據(jù),形成一個個閉環(huán)生態(tài)系統(tǒng)。然而,系統(tǒng)越復雜就越脆弱,越容易被不法分子找到攻擊滲透的突破口。為此,需建立覆蓋用戶終端、傳輸環(huán)節(jié)以及智能平臺的全鏈路主動防御機制,以筑牢技術安全防線。

人工智能為人類社會帶來潛在的巨大發(fā)展紅利,這是我們必須積極擁抱而非拒絕或限制它的根本理由。它不僅能引發(fā)重大的生產力變革,還能推動社會治理轉型,彌合數(shù)字鴻溝,促進包容性發(fā)展。然而,我們也不難發(fā)現(xiàn),面對全球性的人工智能浪潮,不同國家和地區(qū)基于國情、歷史與文化的差異,在對待人工智能的態(tài)度和方式上各有特點:美國奉行市場優(yōu)先,歐盟突出權利本位,我國則強調統(tǒng)籌發(fā)展。實際上,這反映出在如何釋放技術創(chuàng)新紅利方面存在的價值觀分歧。
擁抱AI,要求我們以開放的心態(tài)對技術進行積極的價值引導,在政策選擇上應體現(xiàn)發(fā)展導向,在效率與公平、創(chuàng)新與安全之間尋求穩(wěn)健的動態(tài)平衡。在平衡效率與公平上,美國的人工智能政策傾向于鼓勵并積極推動私營部門主導創(chuàng)新,催生了一批全球頂尖的科技巨頭,但這種模式也容易造成算法歧視更為突出,少數(shù)族裔時常遭受不公平待遇。近年來,我國從頂層設計進行前瞻布局,中央和地方政府對人工智能產業(yè)提供實質性支持,以期實現(xiàn)技術突破。在平衡創(chuàng)新與安全的策略上,歐盟的《人工智能法案》以風險分級的方式構建差異化管控體系,但其嚴苛的事前審查和監(jiān)管要求抑制了企業(yè)的創(chuàng)新和投資熱情,致使歐洲難以培育出大型人工智能企業(yè)。相比之下,我國主動為創(chuàng)新主體營造風險可控、成本較低的試錯空間,同時也在高風險領域強化監(jiān)管力度。
然而,人工智能治理是世界各國面臨的共同挑戰(zhàn)。因此,對技術的價值引導不應過度強調本地特色,還需兼顧與國際接軌的問題。從根本上說,如何回應文化差異,將塑造出不同的技術文化和社會形態(tài)。2023年,我國發(fā)布《全球人工智能治理倡議》,秉持共商共建共享的理念,推動構建人類命運共同體,堅持與各國加強信息交流和技術合作,共同做好人工智能的風險防范,形成具有廣泛共識的人工智能治理框架和標準規(guī)范。
自人類步入機器時代,就需應對機器的“失控”難題。最早,瓦特發(fā)明了飛球調節(jié)器,用以解決早期蒸汽機在負載變化(如爬坡時)易出現(xiàn)的失控加速或熄火問題。面對更為復雜的人工智能技術,工程師與設計師也期望通過持續(xù)改進和優(yōu)化設計來消除風險,達成安全目標。部分激進的AI研究者認為,安全問題屬于可計算問題,期望通過設計某種“倫理調節(jié)器”,實現(xiàn)AI和人類的目標或價值對齊。然而,上述借助技術手段解決安全和倫理問題的嘗試,既高估了技術本身的力量,也低估了現(xiàn)實世界的復雜程度。當然,還有一種技術策略是以技術監(jiān)控技術,專門研發(fā)用于監(jiān)控各類智能應用的監(jiān)管型AI,以開展安全評估與預警工作。
單純依靠技術手段不足以管理復雜技術的所有風險。查爾斯·佩羅通過對核事故的研究發(fā)現(xiàn),事故原因各有不同,復雜系統(tǒng)難以在技術層面實現(xiàn)完全控制。類似的,寄望于技術解決問題,會使相關人員產生事故不會發(fā)生的錯覺,進而引發(fā)新的風險。除非引入技術之外的規(guī)制手段,否則技術風險問題難以得到妥善解決。實際上,控制AI不僅是一項技術挑戰(zhàn),更是對社會治理能力的考驗。
掌控AI需要我們以審慎的態(tài)度來規(guī)制技術風險,通過技術工具與制度工具的協(xié)同機制,推動人工智能可持續(xù)發(fā)展的安全保障體系建設??沙掷m(xù)發(fā)展要求AI技術與經濟、社會和環(huán)境協(xié)同發(fā)展,在提升生產力的同時,避免技術失控給社會帶來諸如技術型失業(yè)或生態(tài)破壞等風險。當前,隨著全球變暖趨勢加劇,發(fā)展綠色人工智能愈發(fā)受到關注。然而,面對技術霸權主義、數(shù)字單邊市場等地緣政治現(xiàn)實,團結國際多數(shù)力量共同行動,彌合智能鴻溝,仍然是國際協(xié)作機制未來需要長期面對的挑戰(zhàn)。
(作者系湖南師范大學公共管理學院副教授、長沙新一代人工智能倫理治理與公共政策實驗室研究員)
責編:王敦果
一審:王敦果
二審:蔣茜
三審:周韜
來源:新湘評論
我要問