【科學(xué)的溫度】AI換臉火爆的背后:如何防止人工智能技術(shù)被“惡用”?

分享到:

【科學(xué)的溫度】AI換臉火爆的背后:如何防止人工智能技術(shù)被“惡用”?

2022年12月22日 15:20 來(lái)源:中國(guó)新聞網(wǎng)
大字體
小字體
分享到:

  中新網(wǎng)12月22日電 (記者 李金磊)數(shù)字化3.0時(shí)代,人類生活越來(lái)越離不開(kāi)人工智能。如何防止人工智能技術(shù)被“惡用”?越來(lái)越多的虛擬人是否會(huì)取代部分真人職業(yè)?如何克服算法歧視,讓人工智能實(shí)現(xiàn)可知、可信、可控、可用?

  圍繞上述熱點(diǎn)問(wèn)題,清華大學(xué)人工智能?chē)?guó)際治理研究院副院長(zhǎng)、人工智能治理研究中心主任梁正接受了中新網(wǎng)專訪,進(jìn)行解讀。

清華大學(xué)人工智能?chē)?guó)際治理研究院副院長(zhǎng)、人工智能治理研究中心主任梁正。受訪者供圖

  防止人工智能技術(shù)被“惡用”

  AI換臉、AI換聲、三維重建、智能對(duì)話……深度合成技術(shù)應(yīng)用日益廣泛,催生了美顏美妝、影視制作、智能客服、虛擬主播、元宇宙等應(yīng)用服務(wù),但也存在著被惡意利用的現(xiàn)象,一些不法人員用來(lái)制作、復(fù)制、發(fā)布、傳播違法和不良信息,詆毀、貶損他人名譽(yù)、榮譽(yù),仿冒他人身份實(shí)施詐騙等。

  怎樣抵御這些可能的“惡用”?梁正表示,對(duì)于深度合成,AI換臉是一個(gè)典型的應(yīng)用。最近三部門(mén)出臺(tái)了《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》,對(duì)于規(guī)范深度合成服務(wù)提出了明確要求。

  根據(jù)規(guī)定,提供人臉、人聲等生物識(shí)別信息顯著編輯功能的,應(yīng)當(dāng)提示使用者依法告知被編輯的個(gè)人,并取得其單獨(dú)同意。提供智能對(duì)話、合成人聲、人臉生成、沉浸式擬真場(chǎng)景等具有生成或者顯著改變信息內(nèi)容功能服務(wù)的,應(yīng)當(dāng)在生成或者編輯的信息內(nèi)容的合理位置、區(qū)域進(jìn)行顯著標(biāo)識(shí),向公眾提示信息內(nèi)容的合成情況,避免公眾混淆或者誤認(rèn)。

  梁正指出,使用個(gè)人肖像如果沒(méi)有征得同意,就去公共互聯(lián)網(wǎng)上采集使用的話,這屬于違法行為。平臺(tái)上如果有類似應(yīng)用,平臺(tái)就有責(zé)任去監(jiān)督。即使是合法的使用,也要打上標(biāo)簽,讓大家知道這不是真的,一定程度上可以減少深度合成內(nèi)容產(chǎn)生的認(rèn)知偏差和社會(huì)誤導(dǎo)。如果平臺(tái)自己去提供這一類服務(wù),還要求用相應(yīng)的工具去識(shí)別它不是真實(shí)的,這就對(duì)平臺(tái)提出了更高的要求。

  “不僅要合法合規(guī),而且還要合意?!?梁正表示,要進(jìn)一步完善法律法規(guī),嚴(yán)格落實(shí)相關(guān)規(guī)定,建立健全懲罰制度,個(gè)人要有維權(quán)意識(shí),通過(guò)救濟(jì)渠道維護(hù)自身合法權(quán)益,從而減少AI被惡意利用的現(xiàn)象。

資料圖:2022世界人工智能大會(huì)上,人機(jī)互動(dòng)吸引觀眾。 湯彥俊 攝

  虛擬人已經(jīng)開(kāi)始取代部分真人職業(yè)

  近年來(lái),虛擬代言人、虛擬主播、虛擬演員歌手,越來(lái)越多虛擬人在被推向市場(chǎng)。人們擔(dān)心,虛擬人在未來(lái)或?qū)⑷〈糠终嫒寺殬I(yè)。

  “在娛樂(lè)、新聞?lì)I(lǐng)域,虛擬人的應(yīng)用越來(lái)越多,因?yàn)樗且粋€(gè)低成本、高效率的方式?!痹诹赫磥?lái),虛擬人越來(lái)越多也是一種必然的趨勢(shì),而且已經(jīng)在替代部分真人職業(yè)了。比如,現(xiàn)在很多虛擬新聞主播,還有電話客服越來(lái)越多使用智能語(yǔ)音服務(wù)?!斑@個(gè)替代它一定是會(huì)部分發(fā)生的?!?/p>

  新生事物發(fā)展背后也存在一些隱患。梁正提醒,大家不要把真假弄混了,虛擬人的形象、內(nèi)容、對(duì)話都是基于訓(xùn)練的結(jié)果,或者是事先編好的,如果把它當(dāng)成真人的話,就會(huì)產(chǎn)生誤導(dǎo)。

  “比如說(shuō),跟對(duì)話機(jī)器人去對(duì)話要非常小心。對(duì)于有些敏感話題,因?yàn)樗澈鬀](méi)有意識(shí),是順著你說(shuō)的,如果沒(méi)有干預(yù)就可能產(chǎn)生誤導(dǎo),但它沒(méi)有辦法承擔(dān)責(zé)任。所以要對(duì)虛擬形象的深度合成打上標(biāo)簽,并限定它的使用場(chǎng)景。特別是在教育醫(yī)療這樣一些敏感的高風(fēng)險(xiǎn)場(chǎng)景,人工干預(yù)是必須的?!绷赫f(shuō)。

  梁正認(rèn)為,虛擬人的應(yīng)用總體要分場(chǎng)景,在游戲、天氣預(yù)報(bào)、新聞播報(bào)等一些低風(fēng)險(xiǎn)場(chǎng)景問(wèn)題不大,但如果是高風(fēng)險(xiǎn)場(chǎng)景,就要非常小心,虛擬形象能夠做什么,什么不能做,要把界限劃清楚,比如心理陪伴機(jī)器人,要評(píng)估它說(shuō)的話帶來(lái)的長(zhǎng)期心理影響是什么樣的。

  下一代人工智能應(yīng)該是可解釋的

  人工智能不離開(kāi)算法,算法公平和算法歧視話題也備受關(guān)注。國(guó)外一些研究和媒體報(bào)道提到,算法開(kāi)發(fā)者或算法本身根據(jù)大數(shù)據(jù)積累存在種族、性別、文化等歧視的可能性。

  對(duì)此,梁正表示,算法是依據(jù)數(shù)據(jù)訓(xùn)練出來(lái)的,數(shù)據(jù)的有偏性是導(dǎo)致算法本身有偏性的一個(gè)主要原因。所以,算法歧視不是算法造成的,是社會(huì)本身造成的,是算法本身的技術(shù)特點(diǎn)所導(dǎo)致的,使用大量已經(jīng)帶有傾向性的數(shù)據(jù),算法也就會(huì)作出一種傾向性的判斷。

  梁正指出,要想改變這種偏見(jiàn),首先要糾正社會(huì)偏見(jiàn)。所以在使用數(shù)據(jù)的時(shí)候,要進(jìn)行人工干預(yù),在統(tǒng)計(jì)學(xué)上可以通過(guò)一些模擬數(shù)據(jù)來(lái)做一個(gè)平衡,但根本上是要賦予人工智能以常識(shí),要把一些因果的因素考慮進(jìn)去,而不是單純只依賴于這種數(shù)據(jù)。

  “絕對(duì)的算法公平并不存在?!?梁正認(rèn)為,算法公平具有多維性,常常面臨“不可能三角”式的挑戰(zhàn)。在公共管理領(lǐng)域中,起點(diǎn)公平、過(guò)程公平、結(jié)果公平三者同時(shí)實(shí)現(xiàn)基本是不可能的。絕對(duì)的公平實(shí)際上在算法的設(shè)計(jì)中其實(shí)也是做不到的,關(guān)鍵取決于你要什么樣的目標(biāo)。

  梁正表示,要實(shí)現(xiàn)人工智能可知、可信、可控、可用??芍簿褪强山忉?,這是最基礎(chǔ)也是最復(fù)雜的層面,下一代人工智能應(yīng)該是可解釋的,如果說(shuō)它不能夠被解釋的話,就會(huì)限制它很多方面的應(yīng)用和大家對(duì)它的信任。算法可解釋,這種條件下才能夠放心去使用它。

  “現(xiàn)在最大的問(wèn)題就是黑箱,現(xiàn)有的人工智能是基于數(shù)據(jù)訓(xùn)練出來(lái),你不知道中間發(fā)生的事,而新一代的人工智能就是要在數(shù)據(jù)的基礎(chǔ)加上知識(shí),甚至要加上我們的邏輯,讓它能夠按照我們可理解的方式運(yùn)行。”梁正說(shuō)。(完)

【編輯:蘇亦瑜】
發(fā)表評(píng)論 文明上網(wǎng)理性發(fā)言,請(qǐng)遵守新聞評(píng)論服務(wù)協(xié)議
本網(wǎng)站所刊載信息,不代表中新社和中新網(wǎng)觀點(diǎn)。 刊用本網(wǎng)站稿件,務(wù)經(jīng)書(shū)面授權(quán)。
未經(jīng)授權(quán)禁止轉(zhuǎn)載、摘編、復(fù)制及建立鏡像,違者將依法追究法律責(zé)任。
Copyright ©1999-2024 chinanews.com. All Rights Reserved

評(píng)論

頂部