據(jù)央視新聞消息,7月23日,科技部官網(wǎng)公布《駕駛自動化技術研發(fā)倫理指引》(以下簡稱《指引》),意在防范技術研發(fā)與產品應用過程中的科技倫理風險,推動該領域健康發(fā)展。


這份由國家科技倫理委員會人工智能倫理分委員會組織編寫的文件,遵循以人為本、增進福祉,安全優(yōu)先、尊重生命,公平公正、避免偏見,知情保障、信息公開的基本原則。其中特別強調,在面對不可避免的交通事故或極端行車環(huán)境時,應確保駕駛自動化系統(tǒng)能高度尊重生命,積極尋求有效應對方法最大限度降低對人的傷害;與駕駛自動化技術相關的算法、模型等內容應當被清晰記錄、隨時可查。


《指引》明確,駕駛自動化技術的研究開發(fā)應設計完善的風險監(jiān)測與應急機制,確保相關責任主體能夠及時發(fā)現(xiàn)、干預并控制風險,將潛在威脅降至合理可控的范圍內。同時,駕駛自動化技術的研究開發(fā)和應用應建立健全數(shù)據(jù)全生命周期隱私保護機制,嚴格遵循知情同意、最小必要、去標識化等原則。


《指引》還對不同類型駕駛自動化技術明確了相應的倫理規(guī)范要求。具體而言:


先進駕駛輔助階段是指2級及以下的駕駛自動化,其責任主體通常是人類駕駛員;


有限制階段的自動駕駛包括3級和4級駕駛自動化,責任主體因具體運行場景而異,用戶和自動駕駛系統(tǒng)都可能成為責任主體;


無限制階段的自動駕駛為5級的駕駛自動化,除非特殊情況下有用戶主動介入操作,否則,無限制階段自動駕駛的責任主體以自動駕駛系統(tǒng)為主。當自動駕駛系統(tǒng)作為責任主體時,應當能夠根據(jù)有關法律法規(guī)等向相關自然人主體或法人主體清晰追責。


《指引》還強調,在發(fā)布重大研究成果時,相關主體應堅持客觀準確、實事求是,不得編造、傳播與駕駛自動化系統(tǒng)實際功能和效果不相符的虛假信息。


此外,在研發(fā)、生產、推廣等過程中,相關主體應向社會公眾明確告知并清晰闡釋駕駛自動化產品的功能分級、使用條件、使用方式等注意事項,及時澄清和糾正可能導致公眾對駕駛自動化技術產生誤解的誤導性信息。


(總臺央視記者 張春玲)


編輯 李憶林子

來源:央視新聞