
在算法安全上,《導(dǎo)則》指出了3種風(fēng)險,包括算法模型存在的技術(shù)性缺陷可能導(dǎo)致人工智能系統(tǒng)無法正常運(yùn)行,算法設(shè)計者自身存在價值偏見導(dǎo)致人工智能系統(tǒng)無法正常運(yùn)行,以及因為算法日趨“黑箱化”可能導(dǎo)致技術(shù)失控等問題?!秾?dǎo)則》提出,應(yīng)通過政策和法律引導(dǎo),開展人工智能算法安全的評估檢測;推動技術(shù)倫理的算法導(dǎo)入,要求人工智能開發(fā)者設(shè)計高可解釋性的智能系統(tǒng);同時,加強(qiáng)智能算法的透明監(jiān)督,人工智能企業(yè)、行業(yè)應(yīng)建立相應(yīng)的算法監(jiān)管體制,保持與政府監(jiān)管的協(xié)同。
數(shù)據(jù)安全則涉及數(shù)據(jù)隱私、數(shù)據(jù)保護(hù)和數(shù)據(jù)質(zhì)量三方面,《導(dǎo)則》強(qiáng)調(diào),要加強(qiáng)數(shù)據(jù)安全立法和執(zhí)法,對采集和使用敏感個人數(shù)據(jù)的人工智能企業(yè)/行業(yè)須加強(qiáng)法律和行政監(jiān)管;豐富人工智能技術(shù)發(fā)展路徑,通過政策手段支持基于小數(shù)據(jù)的人工智能算法技術(shù);并提升人工智能數(shù)據(jù)資源管理水平,促進(jìn)公共部門和私營部門數(shù)據(jù)資源共享和流通。
對利用人工智能進(jìn)行創(chuàng)作而產(chǎn)生的知識產(chǎn)權(quán)問題,《導(dǎo)則》提出,將加強(qiáng)人工智能算法的專利保護(hù),鼓勵人工智能數(shù)據(jù)開放性保護(hù),并促進(jìn)人工智能作品的知識產(chǎn)權(quán)化。對因人工智能的應(yīng)用導(dǎo)致社會結(jié)構(gòu)性失業(yè)等問題,《導(dǎo)則》從法律層面提出了應(yīng)對策略,包括出臺法律法規(guī),對面臨人工智能技術(shù)替代的行業(yè)和職業(yè)進(jìn)行監(jiān)管和救助;加快人工智能新興勞動力培養(yǎng);加強(qiáng)人工智能時代社會收入分配調(diào)整,對遭遇人工智能沖擊的傳統(tǒng)行業(yè)勞動力進(jìn)行保護(hù)和救助,提高社會二次分配的合理性與精準(zhǔn)性。
人工智能的法律主體模糊、人工智能責(zé)任的界定復(fù)雜,是困擾法律法規(guī)介入人工智能進(jìn)行有效監(jiān)管的難題?!秾?dǎo)則》明確,在當(dāng)前的弱人工智能時代,人工智能產(chǎn)品本身不具有獨立的法律主體資格,人工智能產(chǎn)品的定位是“工具”,人工智能設(shè)計者、生產(chǎn)者、運(yùn)營者、使用者承擔(dān)法律主體責(zé)任,并按照過錯程度分擔(dān)相應(yīng)法律責(zé)任。