人工智能北京共識發(fā)布!AI產(chǎn)業(yè)發(fā)展有了“北京共識”
2019-05-27 09:35:55來源:四海網(wǎng)綜合
人工智能北京共識發(fā)布!AI產(chǎn)業(yè)發(fā)展有了“北京共識”。據(jù)北京商報訊,“假設從A點跑到B點,中間突然有個小孩出來,人會進行躲避,但機器為了更快達到目標,有可能會直接撞過去。如何避免這樣的風險,是人工智能倫理研究非常重要的主題之一。”5月25日,在北京智源人工智能研究院人工智能倫理與安全研究中心揭牌成立的發(fā)布會上,該中心主任曾毅介紹說,“如何讓機器學會人類的倫理和價值觀,是人工智能領域里的圣杯”。
同日,北京智源人工智能研究院聯(lián)合北京大學、清華大學、中國科學院自動化研究所、中國科學院計算技術(shù)研究所、新一代人工智能產(chǎn)業(yè)技術(shù)創(chuàng)新戰(zhàn)略聯(lián)盟等高校、科研院所和產(chǎn)業(yè)聯(lián)盟,共同發(fā)布了《人工智能北京共識》。
AI產(chǎn)業(yè)發(fā)展方興未艾,如何實現(xiàn)行業(yè)“自律”被提上日程。北京商報記者在發(fā)布會上了解到,《人工智能北京共識》針對人工智能的研發(fā)、使用、治理三方面,提出了各個參與方應該遵循的有益于人類命運共同體構(gòu)建和社會發(fā)展的15條原則。
關(guān)于這些原則確立的意義,曾毅告訴北京商報記者稱:“比如在使用階段,我們構(gòu)建一個人工智能平臺,實際上并不知道用戶最終會怎么去使用。一旦出現(xiàn)使用者濫用的情況時,平臺能不能很快自動檢測并進行規(guī)避,這是所有的研發(fā)者和企業(yè)應該注意到的問題。”
* 聲明:本文由四海網(wǎng)用戶sunlu原創(chuàng)/整理/投稿本文,知識大全欄目刊載此文僅為傳遞更多信息,幫助用戶獲取更多知識之目的,內(nèi)容僅供參考學習,部分文圖內(nèi)容可能未經(jīng)嚴格審查,歡迎批評指正。