未來10—20年,AI技術(shù)將滲透至與人類密切相關(guān)的領(lǐng)域,比如醫(yī)療、司法、生產(chǎn)、金融科技等風(fēng)險(xiǎn)敏感型領(lǐng)域,AI技術(shù)如果犯錯,就會造成較大系統(tǒng)風(fēng)險(xiǎn)!2020年12月29日,在未來科學(xué)大獎周舉辦的“青年對話”活動中,清華大學(xué)計(jì)算機(jī)系長聘副教授、中國科協(xié)全國委員會委員崔鵬說。
活動中,騰訊科學(xué)技術(shù)協(xié)會秘書長張謙表示,面對AI技術(shù)所引起的風(fēng)險(xiǎn)問題,首先應(yīng)該關(guān)注的是守住AI產(chǎn)品底線,即避免技術(shù)作惡。
在這方面,美團(tuán)首席科學(xué)家夏華夏認(rèn)為,法律法規(guī)方面需要做大量工作,包括制定AI行業(yè)的標(biāo)準(zhǔn)、規(guī)范,以及從國家層面完善、出臺相關(guān)法律法規(guī),從而對AI技術(shù)發(fā)展進(jìn)行把控。
談及AI標(biāo)準(zhǔn)化的實(shí)踐,中國人民大學(xué)法學(xué)院副教授、未來法治研究院社會責(zé)任和治理中心主任郭銳提到兩個(gè)原則——人的根本利益原則和責(zé)任原則,“這兩個(gè)原則的宗旨是讓AI的決策和行動盡可能通過人的干預(yù)來避免對人的傷害”。
“徒法不足以自行!惫J坦言,法律本身也存在局限,規(guī)避AI技術(shù)潛在風(fēng)險(xiǎn),需管理者對AI技術(shù)有透徹的了解,這樣才能對其進(jìn)行有效管制,“法律是建立包容性社會的重要工具,法律界要和企業(yè)、技術(shù)等方面專家合作,這樣通過法律來對AI技術(shù)進(jìn)行管理約束的目標(biāo)才能達(dá)成!
星界資本管理合伙人方遠(yuǎn)認(rèn)為,各大核心數(shù)據(jù)平臺處于AI風(fēng)險(xiǎn)管理的重要位置,“在互聯(lián)網(wǎng)和大數(shù)據(jù)時(shí)代,大平臺是數(shù)據(jù)的采集者也是守護(hù)者。務(wù)必要對數(shù)據(jù)使用權(quán)做出清晰界定,這對整個(gè)社會的AI發(fā)展有重要意義”。
“AI技術(shù)的風(fēng)險(xiǎn)治理需要科技工作者、企業(yè)管理者、政策制定者、相關(guān)法律專家以及投資人多方努力!敝锌圃河(jì)算所研究員山世光說。
除了守住底線,與會者還提到,要厘清邊界,引導(dǎo)技術(shù)向善。
崔鵬指出,犯錯并非AI特有的風(fēng)險(xiǎn),人也會犯錯!暗朔稿e大多數(shù)可控、可預(yù)測。而目前AI技術(shù)犯錯的話是不可預(yù)測的,或者犯錯后人們會發(fā)現(xiàn)其犯錯機(jī)制是無法從技術(shù)層面解釋的。這涉及到AI在決策和行為上的邊界問題!
厘清邊界具體包括AI需要明白它會什么、不會什么,以及人需要明白AI什么事能做、什么事不能做等問題。崔鵬認(rèn)為,如不厘清邊界,AI還會犯更多低級錯誤,帶來更大風(fēng)險(xiǎn)。
郭銳認(rèn)為,目前AI遇到的倫理問題,實(shí)際上是因?yàn)樗h(yuǎn)未達(dá)到人類智能的程度,卻已被賦予為人類做決策的責(zé)任,“還有人把AI技術(shù)當(dāng)作借口,用科學(xué)的名義做不符合倫理的決策,這樣做是不對的。需要人決策的地方應(yīng)該由人決策”。
2020年新冠肺炎疫情期間,英國用一套算法得出學(xué)生成績,結(jié)果近40%的學(xué)生成績低于教師的預(yù)估分?jǐn)?shù),導(dǎo)致很多學(xué)生與名校失之交臂。山世光說,有些人工智能模型或數(shù)據(jù)模型沒有考慮到社會公平、優(yōu)勢累計(jì)惡果,導(dǎo)致看起來運(yùn)算過程很嚴(yán)謹(jǐn)、結(jié)果很準(zhǔn),但卻并不足以支持AI做出科學(xué)決策。
有專家表示,這并非AI技術(shù)的錯。夏華夏說,真正應(yīng)承擔(dān)社會責(zé)任的是使用AI技術(shù)的人、企業(yè)等。AI技術(shù)向善需要社會整體文明發(fā)展到一定階段,形成良好氛圍。張謙則提到,技術(shù)并不可怕,可以通過技術(shù)進(jìn)一步發(fā)展解決技術(shù)存在的問題。
山世光稱:“說到底,我們還是希望AI技術(shù)能得到健康發(fā)展,滿足對科技真、善、美的追求!