2020久久香蕉国产线看观看_久久这里只有精品07_国产成人精品高清在线_久久天堂综合亚洲伊人hd_亚洲无码视频观看

2023WAIC觀察:大模型勿成“脫韁野馬” 人工智能何以“上善若水”?
發(fā)布日期: 2023-07-07 21:05:25 來(lái)源: 中國(guó)新聞網(wǎng)

中新網(wǎng)上海7月7日電 題:大模型勿成“脫韁野馬” 人工智能何以“上善若水”?

中新網(wǎng)記者 鄭瑩瑩

勿以惡小而為之,勿以善小而不為。對(duì)于正在飛速發(fā)展的人工智能,人類期待它為善去惡。


(資料圖片僅供參考)

正在上海舉辦的2023世界人工智能大會(huì)(WAIC)上,大模型發(fā)展之熱、人工智能發(fā)展之安全,備受業(yè)界關(guān)注。

2023世界人工智能大會(huì)于7月6日至7月8日在上海舉辦,伴隨人工智能發(fā)展,機(jī)器人越來(lái)越“聰明”,通用人工智能的發(fā)展備受期待。中新網(wǎng)記者 湯彥俊 攝

不能讓大模型成為“脫韁野馬”

“大模型要監(jiān)管和發(fā)展兼顧,我們不能盲目發(fā)展,讓大模型變成脫韁的野馬?!睆?fù)旦大學(xué)教授、上海市數(shù)據(jù)科學(xué)重點(diǎn)實(shí)驗(yàn)室主任肖仰華7日在2023世界人工智能大會(huì)“數(shù)據(jù)要素與隱私計(jì)算高峰論壇”上說(shuō)。

他指出,大模型的負(fù)面影響已經(jīng)顯現(xiàn),比如對(duì)隱私的侵犯,“我們還是要建立大模型發(fā)展的安全底線、倫理標(biāo)準(zhǔn)和一些規(guī)范?!?/p>

另一方面,他也指出,我們不能因?yàn)橛须[私方面的顧慮而放棄對(duì)大模型的應(yīng)用,“從某種程度上說(shuō),大模型是一種先進(jìn)生產(chǎn)力,是個(gè)人和企業(yè)都要積極擁抱的。我們要正視隱私問(wèn)題,但也要積極應(yīng)用大模型。”

如何在應(yīng)用的同時(shí)保護(hù)用戶隱私?他表示,需要建立系統(tǒng)性的防范體系。

一方面,我們要建立起用戶對(duì)大模型隱私的安全意識(shí),用戶要意識(shí)到:在使用大模型過(guò)程當(dāng)中,數(shù)據(jù)有可能被服務(wù)方收集。

另一方面,提供大模型服務(wù)的廠商要提升服務(wù)的規(guī)范性,給用戶充分的知情權(quán),要在用戶完全授權(quán)的情況下,在合理范圍內(nèi)收集用戶數(shù)據(jù)。

肖仰華說(shuō),大模型,尤其是生成式大模型發(fā)展起來(lái)后,對(duì)隱私帶來(lái)了前所未有的挑戰(zhàn),“生成式大模型往往是一種概率化的生成,是從海量的語(yǔ)料中拼接式生成的,所以傳統(tǒng)意義上的一些隱私侵犯認(rèn)定在大模型時(shí)代就會(huì)失效,識(shí)別上困難,保護(hù)上更加困難?!?/p>

但在大模型領(lǐng)域,可以“用魔法打敗魔法”。

肖仰華表示,在大模型隱私保護(hù)方面,除了技術(shù)、法規(guī)方法,我們還有一條很重要的路徑——利用大模型自身的能力來(lái)保護(hù)我們的隱私,“其實(shí)大模型能力很強(qiáng),可以識(shí)別出語(yǔ)料當(dāng)中哪些內(nèi)容是可能侵犯隱私的,我們已經(jīng)有那么多大模型,我們可以把它用在保護(hù)隱私的場(chǎng)景?!?/p>

2023世界人工智能大會(huì)于7月6日至7月8日在上海舉辦,今年的主題是“ 智聯(lián)世界 生成未來(lái)”?!≈行戮W(wǎng)記者 鄭瑩瑩 攝

人工智能何以“上善若水”?

“即使通用人工智能真正‘上善若水’,人與人工智能是否可以和諧共生,最終取決于人如何行為,而不是人工智能?!敝袊?guó)科學(xué)院自動(dòng)化研究所研究員、人工智能倫理與治理研究中心主任曾毅7日在2023世界人工智能大會(huì)“聚焦·大模型時(shí)代AIGC新浪潮可信Al論壇”上說(shuō)。

他將“人工智能與人類”“人類與螞蟻”作了類比,指出:當(dāng)我們的人工智能是人類,就像人類是現(xiàn)在的螞蟻時(shí),如果人類還在破壞環(huán)境、破壞其他生命,超級(jí)智能為什么要給人類生存的權(quán)利?人類沒(méi)有給超級(jí)智能更多的理由。

他說(shuō)這是一個(gè)開(kāi)放性的問(wèn)題,是一個(gè)科學(xué)問(wèn)題,是一個(gè)社會(huì)問(wèn)題,更是一個(gè)歷史問(wèn)題。

在曾毅看來(lái),最開(kāi)始的人工智能,當(dāng)它沒(méi)有接受任何人類數(shù)據(jù)的時(shí)候,它是一個(gè)無(wú)善無(wú)惡的算法。當(dāng)它接觸到了社會(huì)和人類的數(shù)據(jù)的時(shí)候,它變得有善有惡,這個(gè)時(shí)候它還不能明辨善惡。當(dāng)與人類價(jià)值觀校準(zhǔn)、與環(huán)境價(jià)值觀校準(zhǔn)的時(shí)候,它變得知善知惡。

“我們最終希望的是人工智能可以為善去惡?!彼f(shuō)。

他還指出,人工智能的倫理道德既不應(yīng)該僅由研究人工智能的工程師來(lái)定義,更不應(yīng)該在實(shí)驗(yàn)室里主觀臆想,而是需要群體智慧,需要更多公眾參與定義。(完)

關(guān)鍵詞:

推薦內(nèi)容

?