人工智能北京共識 15條規(guī)范原則詳情
高校、院所、企業(yè)代表共同簽署《人工智能北京共識》
原標題:《人工智能北京共識》發(fā)布
《人工智能北京共識》發(fā)布
針對人工智能的研發(fā)、使用、治理三方面提出15條規(guī)范原則
科創(chuàng)
本報訊(記者 雷嘉)昨天,北京智源人工智能研究院聯(lián)合北大、清華、中科院自動化研究所、中科院計算技術研究所、新一代人工智能產(chǎn)業(yè)技術創(chuàng)新戰(zhàn)略聯(lián)盟等單位共同發(fā)布《人工智能北京共識》,針對人工智能的研發(fā)、使用、治理三方面,提出了各參與方應該遵循的、有益于人類命運共同體構建和社會發(fā)展的15條原則。
研發(fā)方面,《人工智能北京共識》提倡要有益于增進社會與生態(tài)的福祉,服從人類的整體利益,設計上要合乎倫理,體現(xiàn)出多樣性與包容性,盡可能地惠及更多人,要對潛在倫理風險與隱患負責,提升技術水平控制各種風險,并最大范圍共享人工智能發(fā)展成果;使用方面,提倡善用和慎用,避免誤用和濫用,以最大化人工智能技術帶來的益處、最小化其風險,應確保利益相關者對其權益所受影響有充分的知情與同意,并能夠通過教育與培訓適應人工智能發(fā)展帶來的影響;治理方面,對人工智能部分替代人類工作保持包容和謹慎態(tài)度,鼓勵探索更能發(fā)揮人類優(yōu)勢和特點的新工作,廣泛開展國際合作,共享人工智能治理經(jīng)驗。人工智能的準則與治理措施應做到適應和適度,并開展長遠戰(zhàn)略設計,以確保未來人工智能始終保持向對社會有益的方向發(fā)展。
人工智能倫理與規(guī)范是未來智能社會發(fā)展的重要基石,已經(jīng)引起了相關國際組織、政府和學術界、企業(yè)界等的廣泛關注!度斯ぶ悄鼙本┕沧R》的發(fā)布,為規(guī)范和引領人工智能健康發(fā)展提供了“北京方案”。
為降低人工智能發(fā)展過程中可能存在的技術風險和倫理隱患,北京智源人工智能研究院專門成立人工智能倫理與安全研究中心,中科院自動化研究所曾毅研究員任中心主任。研究中心將圍繞人工智能倫理與安全的理論探索、算法模型、系統(tǒng)平臺、行業(yè)應用等開展一系列研究,目前主要包括四方面:低風險機器學習模型與平臺的構建,建立機器學習模型安全性的評估體系,并結合具體領域進行驗證;開展符合人類倫理道德的智能自主學習模型研究,實現(xiàn)人工智能行為與人類價值觀的校準,并在模擬環(huán)境與真實場景中進行驗證;建設數(shù)據(jù)安全示范應用系統(tǒng),建立數(shù)據(jù)基礎設施、數(shù)據(jù)分級、權限控制、數(shù)據(jù)審計,最大限度防止數(shù)據(jù)泄密,降低風險,探索允許用戶撤銷個人數(shù)據(jù)授權的機制及計算平臺;構建人工智能風險與安全綜合“沙盒平臺”,建設自動檢測平臺,對人工智能產(chǎn)品及應用進行風險與安全綜合檢測評估,引導行業(yè)健康發(fā)展。