攻堅AI治理的“最后一公里”,答好AI風險防控必答題
時間:2025-04-10來源:未知 作者:acebm 點擊: 次
人工智能時代,隨著AI應用逐漸滲入社會與個人生活的方方面面,人們在享受AI技術帶來的各種便利同時,AI幻覺、深度偽造、數(shù)字人犯罪、個人隱私等數(shù)據(jù)安全也逐漸成為廣大網(wǎng)友最擔心之事。
尤其是伴隨著大數(shù)據(jù)的濫觴,用戶數(shù)據(jù)泄露事件頻發(fā),個人信息被濫用的風險日漸加劇,用戶叫苦不迭,如何為用戶的數(shù)據(jù)安全加一道“防盜墻”成為人工智能時代的必答題,這就需要加強對AI技術及應用領域的系統(tǒng)治理,攻堅AI治理的“最后一公里”。
王牌智庫認為,攻堅AI治理“最后一公里”,政府需扮演“智慧舵手”角色,企業(yè)要超越“合規(guī)即免責”的被動思維,公眾參與則需突破“數(shù)據(jù)勞工”的困境,與此同時,國際間的協(xié)同同樣關鍵。
一、重視AI的系統(tǒng)性風險
人工智能作為新一輪科技革命和產(chǎn)業(yè)變革的重要驅動力量,是推動數(shù)字治理變革的關鍵動力。當ChatGPT、Deepseek掀起全球生成式AI浪潮,當自動駕駛汽車駛入城市街頭,當AI醫(yī)生開始參與臨床診斷,人們正以空前的速度擁抱智能文明。但AI在推進社會變革的同時也帶來了一系列不容忽視的社會問題,如倫理困境、算法黑箱、數(shù)據(jù)濫用等。具體來講:
一是深度偽造難辨真?zhèn)?。AI使內容生產(chǎn)更加快捷、簡單,一些心懷不軌的人則通過AI技術制作虛假新聞引發(fā)社會恐慌、用AI復活逝者賺取流量、用數(shù)字人換臉技術實施詐騙,擾亂公共秩序,觸碰法律和道德底線。
二是隱私泄漏危機四伏。隨著AI技術的發(fā)展,語音助手、智能家居等“飛入尋常百姓家”,但在使用中,一些應用系統(tǒng)會過度采集用戶數(shù)據(jù),包括個人隱私信息,增加隱私泄漏風險。例如,滴滴公司曾被爆違法處理個人信息647.09億條,包括人臉識別、身份證號等敏感個人信息。另外,企業(yè)在使用AI工具尋求答案時,AI默認將提問的信息存入學習庫,存在數(shù)據(jù)泄漏的風險,可能會給企業(yè)帶來難以估量的損失。此前韓國三星公司就發(fā)生過此類事件,導致機密信息被盜取。
三是算法加劇社會歧視。由于AI系統(tǒng)的訓練數(shù)據(jù)通常來自人類社會,如果“喂”給系統(tǒng)的訓練數(shù)據(jù)帶有社會和文化偏見,將導致算法對特定群體做出不公平的判斷。此外,如果算法設計者存在主觀偏見,將制作出自帶歧視“基因”的AI工具,而這一“暗箱操作”具有隱蔽性,很難被發(fā)現(xiàn),將加劇社會不公平、不平等現(xiàn)象。
四是AI侵權難以認定。AI企業(yè)為了訓練大模型需要大量數(shù)據(jù),而這些數(shù)據(jù)可能包含已經(jīng)發(fā)布的作品,如果這些作品是在未經(jīng)許可或未付款的情況下獲取的,將侵犯創(chuàng)作者的合法權益。
五是引發(fā)學術誠信危機。隨著Deepseek、百度AI等生成式AI工具的普及,大學生過度依賴AI,滋生思考惰性,簡單地將生成的文本拼湊成論文,引發(fā)學術不端,大大降低了論文的學術價值和創(chuàng)新價值??梢灶A見,如果不對此類現(xiàn)象加以管控,學術誠信危機將影響各類學科研究,從長遠看也不利于個人的學術成長。
可以說,AI的技術革命是一把“雙刃劍”,尤其是面對AI滋生的新問題挑戰(zhàn),AI治理、AI應用監(jiān)管的邏輯也在發(fā)生變化,這是必須面對的挑戰(zhàn)。應構建高效聯(lián)動的治理框架,將問題發(fā)現(xiàn)與應對措施落到治理實踐中,促進AI產(chǎn)業(yè)健康發(fā)展。
01規(guī)劃AI產(chǎn)業(yè)發(fā)展路徑
立法劃定“紅線”。積極推進AI立法工作,針對AI發(fā)展中的權責不清、數(shù)據(jù)安全漏洞、技術濫用、內容侵權等問題,集思廣益探討AI立法草案,盡快發(fā)布有統(tǒng)領性的上位法,明確AI技術的使用邊界、數(shù)據(jù)保護標準、算法透明度等,為AI健康發(fā)展提供法律保障,為用戶合理維權提供法律支持。
制度規(guī)范發(fā)展。發(fā)布全國性AI產(chǎn)業(yè)標準化建設指南,針對工業(yè)、金融、醫(yī)藥、教育等各行業(yè)制定具體的技術要求和應用指南,形成統(tǒng)一的行業(yè)共識。對AI產(chǎn)業(yè)的基礎共性標準、基礎支撐標準、關鍵技術標準、安全管理標準等進行明確規(guī)定,為企業(yè)提供預見性指導,維護產(chǎn)業(yè)生態(tài)環(huán)境。完善學術誠信制度,通過制度約束,提高研究人員學術道德意識。
監(jiān)管推動落實。建立專門的AI監(jiān)管機構,負責對AI企業(yè)的技術研發(fā)、應用進行全程監(jiān)督,及時發(fā)現(xiàn)并糾正違反法律和產(chǎn)業(yè)規(guī)定的行為,了解并分析產(chǎn)業(yè)內暴露出的最新風險隱患,修補可能出現(xiàn)的“漏洞”。引導企業(yè)加強自我監(jiān)管,建立內部審查機制。
02提升規(guī)范治理質效
提升企業(yè)透明度。AI系統(tǒng)開發(fā)者應適度公開AI算法的基本原理、決策邏輯、數(shù)據(jù)來源及可能對用戶產(chǎn)生的影響,確保算法透明得到落實,有效避免企業(yè)的“黑箱操作”,增強用戶對AI工具的信任。
強化行業(yè)自律。組建AI產(chǎn)業(yè)協(xié)會,構建行業(yè)信用體系,并吸納金融、醫(yī)療、制造等領域的企業(yè)、高校、科研院所加入,制定協(xié)會公約,促進企業(yè)自律,維護良性生態(tài)。定期組織企業(yè)開展交流活動,打造AI技術、成果的交流與共享平臺,促進產(chǎn)業(yè)協(xié)同進步。
加強技術研發(fā)。AI系統(tǒng)開發(fā)者可加強研發(fā),解決目前AI應用領域存在的學術造假、算法歧視等“痛點”問題。通過技術升級精準識別被篡改后的文字和圖片,打擊學術不端和偽造行為,規(guī)范AI技術應用。優(yōu)化算法設計,確保算法本身沒有設計歧視,并使用一些公平性指標來評估AI模型的公平性。
03理性擁抱AI
積極擁抱AI。AI時代是社會發(fā)展的必然趨勢,如果不想被社會淘汰,我們應該積極擁抱AI,接受新事物,嘗試新技術,為生活工作提供便利,并及時反饋自己的使用體驗和改進建議,通過有效的反饋,促進AI健康發(fā)展。
合理使用AI。對于AI我們既不能棄之不用,也不能過于依賴,要認識到AI只是工具,絕不能代替?zhèn)€人的思考,不能養(yǎng)成靠“拐杖”行走的習慣,還應專注于提升自身能力,合理使用AI工具,不可把AI作為研究成果,杜絕學術造假行為。
理性辨別AI。在使用AI軟件之前要詳細了解隱私政策,確保自己的隱私安全、數(shù)據(jù)安全。對于AI生成的信息要有辨別能力,不輕信、不傳謠,對于通過網(wǎng)絡進行的錢財交易要高度警惕,防止AI欺詐。
治理AI,既要“放得開”,又要“收得住”,首要的任務是讓AI治理跟上技術更新的節(jié)奏。
畢竟,當下,人工智能已加速賦能千行百業(yè),滲透到教育、醫(yī)療、政務、金融等場景,人們AI應用的“高逼格”場景產(chǎn)生了更多期待。怎樣應對AI不可控、被濫用、數(shù)據(jù)泄露、造假成本低等風險已經(jīng)是重若千鈞,因此,必須在推廣應用中加固AI“安全護欄”。王牌智庫認為,可以從五方面著力:
AI技術已經(jīng)成為全球科技進步的新動能和主導力量,對AI技術及應用,要一分為二看待,既需要保持寬容度,又需要妥善處理好AI技術創(chuàng)新與治理之間持續(xù)升級的矛盾。
高質量數(shù)據(jù)是AI應用大規(guī)模落地的重要支撐,構建一個完善而成熟的數(shù)據(jù)市場也十分重要,應根據(jù)實際情況,建立符合自身需要的數(shù)據(jù)監(jiān)管方案與路徑,建立技術演化預警系統(tǒng),讓AI真正成為推動社會進步的普惠力量。