李彥宏人民日報撰文 互聯(lián)網巨頭暢談人工智能
用前瞻思維認識人工智能。人工智能不是一個孤立的靜止系統(tǒng)。從歷時層面看,智能革命與前幾次技術革命有著本質差異。從蒸汽革命、電氣革命到信息革命,在某種程度上說都是人類學習和適應機器。而在人工智能時代,是機器來學習和適應人類,是人和機器一起學習和創(chuàng)新。人工智能發(fā)展包括弱人工智能、強人工智能和超人工智能三個階段。雖然強人工智能和超人工智能距我們尚遠,但我們應運用前瞻思維深入思考未來可能出現(xiàn)的突出問題,如人工智能是否安全可控、人會不會被機器取代、人與機器的責任如何界定等。
從倫理角度認識人工智能。人工智能高度發(fā)展,從實驗室走入社會、走向應用,機器不再是單純的工具,而有可能幫助甚至部分替代人進行決策,如駕駛汽車、診斷病情、教授知識、檢驗產品等。與此同時,人工智能對社會治理、倫理道德、隱私保護等方面的挑戰(zhàn)也隨之而來。與技術快速走在前面相比,相關的法律規(guī)范、社會公德、行為習慣、社會治理構建則相對滯后。同志指出,“要整合多學科力量,加強人工智能相關法律、倫理、社會問題研究”。只有建立完善的人工智能倫理規(guī)范,處理好機器與人的關系,我們才能更好、更多地獲得人工智能紅利,讓技術造福人類。當前,我國在人工智能技術研發(fā)和應用方面走在國際前列,但關于人工智能倫理的探討還剛剛起步。我們應為人工智能倫理確立一些“原則意識”,如:最高原則是安全可控;創(chuàng)新愿景是促進人類更平等地獲取技術和能力;存在價值是教人學習、讓人成長,而不是超越人、取代人;終極理想是為人類帶來更多自由和可能。此外,在信息推薦、自動駕駛、虛擬現(xiàn)實等熱點領域,設計主體在產品設計和業(yè)務運營中也應積極探索,讓人工智能提供的信息和服務助人成長。我們應加快人工智能倫理研究步伐,積極參與全球人工智能倫理原則的研究和制定,及早識別禁區(qū),讓技術創(chuàng)新更好地造福人類,為全球人工智能倫理研究貢獻中國智慧。