正在播放国产一区_亚洲精品字幕在线观看|HD中文字幕在线播放,少妇莹莹的放荡生活,日韩欧美综合一区,国产欧美一区二区三区96精品

EN

世輝律師事務(wù)所王新銳:營(yíng)銷領(lǐng)域安全合規(guī)應(yīng)用大模型的四個(gè)建議

2023-12-11

2023年11月15日,由秒針營(yíng)銷科學(xué)院發(fā)起,明略科技集團(tuán)及旗下秒針系統(tǒng)承辦,以“‘大’有可為”為主題的2023第七屆營(yíng)銷科學(xué)大會(huì),于上海安莎國(guó)際會(huì)議中心圓滿落幕。本次大會(huì)中,營(yíng)銷科學(xué)實(shí)踐者的精彩分享讓我們洞察到了未來營(yíng)銷的無限可能,也讓我們對(duì)中國(guó)“大”市場(chǎng)、“大”需求、“大”模型、“大”生態(tài)、“大”責(zé)任的理解進(jìn)一步加深。

世輝律師事務(wù)所權(quán)益合伙人王新銳律師受邀出席,以《大模型在營(yíng)銷科學(xué)中的安全合規(guī)實(shí)踐與挑戰(zhàn)》為主題進(jìn)行演講,結(jié)合今年以來在大模型領(lǐng)域的實(shí)際工作與思考,深入分析當(dāng)前生成式AI的潛在安全風(fēng)險(xiǎn)、管理措施,并為廣大企業(yè)提供了營(yíng)銷場(chǎng)景下大模型落地的參考建議。

以下為演講內(nèi)容整理。


在從業(yè)的20多年以來,我一直在做支撐立法和監(jiān)管的工作,在數(shù)據(jù)保護(hù)和大語(yǔ)言模型方面也有所涉獵。今年,我們發(fā)現(xiàn)營(yíng)銷和大語(yǔ)言模型這兩塊業(yè)務(wù)有很多結(jié)合。那么企業(yè)如何做好安全、合規(guī)的策略呢?在探討這個(gè)問題之前,我想先從“什么是不安全”說起。

世輝律師事務(wù)所王新銳:營(yíng)銷領(lǐng)域安全合規(guī)應(yīng)用大模型的四個(gè)建議

世輝律師事務(wù)所權(quán)益合伙人 王新銳

生成式AI整體的潛在風(fēng)險(xiǎn)

大語(yǔ)言模型的安全風(fēng)險(xiǎn)來源于法律、技術(shù)等不同層面,支撐監(jiān)管的權(quán)威專家做過四點(diǎn)總結(jié)。

第一,強(qiáng)人機(jī)交互挑戰(zhàn)技術(shù)的可信可靠性。以前的人工智能技術(shù)無法實(shí)現(xiàn)與人的交互。例如,人臉識(shí)別閘機(jī)無法與人進(jìn)行交互,能夠通過人臉識(shí)別就可以通過,無法通過人臉識(shí)別就沒辦法通過。相比之下,大語(yǔ)言模型的交互性更強(qiáng)。

第二,新信息呈現(xiàn)形式危及人類主體性。在人機(jī)共同工作的情況下,外界對(duì)人類主體性的識(shí)別難度在加深。

第三,語(yǔ)料強(qiáng)依賴性影響內(nèi)容生成質(zhì)量。大語(yǔ)言模型是用巨量語(yǔ)料進(jìn)行預(yù)訓(xùn)練,然后通過概率計(jì)算產(chǎn)生生成式的結(jié)果。預(yù)訓(xùn)練階段語(yǔ)料的質(zhì)量決定了輸出結(jié)果的質(zhì)量。

第四,根基礎(chǔ)設(shè)施屬性帶來更大安全威脅。大語(yǔ)言模型未來會(huì)賦能千行百業(yè),一旦底層模型產(chǎn)生風(fēng)險(xiǎn),就會(huì)帶來風(fēng)險(xiǎn)擴(kuò)散的問題。

生成式AI全流程監(jiān)管思路

談到大模型的技術(shù)特點(diǎn),我們可以用一個(gè)更簡(jiǎn)單的描述:能力越大,責(zé)任越大。我們今天的會(huì)議主題是“大有可為”,相比于之前的判別式人工智能,大語(yǔ)言模型的能力提升,也帶來了新的風(fēng)險(xiǎn)管控問題。

我們國(guó)家在生成式人工智能方面是有立法脈絡(luò)的,早在2017年就已經(jīng)有與當(dāng)前技術(shù)相關(guān)的規(guī)定。如今,生成式人工智能依然適用于之前的法規(guī)。最新的法規(guī)是2023年7月出臺(tái)的《生成式人工智能服務(wù)管理暫行辦法》,與之前的《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》構(gòu)成了一整套規(guī)則。

除此之外,相關(guān)的國(guó)家標(biāo)準(zhǔn)也正在起草中。針對(duì)生成式人工智能服務(wù)的安全問題,相關(guān)國(guó)家標(biāo)準(zhǔn)會(huì)對(duì)使用過程中的數(shù)據(jù)安全、消費(fèi)者權(quán)益保護(hù)、內(nèi)容安全提出更細(xì)化的要求。

站在監(jiān)管者、立法者的角度,生成式人工智能的管理可以分成四個(gè)方面:

源頭管理:

  • 確保訓(xùn)練數(shù)據(jù)和基礎(chǔ)模型來源合法
  • 預(yù)訓(xùn)練、優(yōu)化訓(xùn)練和數(shù)據(jù)標(biāo)注都納入管理
  • 訓(xùn)練數(shù)據(jù)真實(shí)、準(zhǔn)確、客觀、多樣

如果大語(yǔ)言模型在源頭上存在偏見或不實(shí)的內(nèi)容,輸出的結(jié)果也會(huì)存在風(fēng)險(xiǎn),這意味著企業(yè)不能等到產(chǎn)品完全落地之后再去管理。目前很多國(guó)內(nèi)公司會(huì)借鑒國(guó)外的開源模型做二次開發(fā)、調(diào)參和優(yōu)化訓(xùn)練,在選擇大模型時(shí),企業(yè)需要先去了解它的底層語(yǔ)料、訓(xùn)練數(shù)據(jù)是否存在問題,確保源頭合法合規(guī)。

過程管理:

  • 內(nèi)容管理義務(wù):承擔(dān)網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者責(zé)任、對(duì)違法內(nèi)容進(jìn)行檢測(cè)處置、對(duì)算法進(jìn)行糾正
  • 數(shù)據(jù)保護(hù)義務(wù):個(gè)人信息處理者責(zé)任、輸入數(shù)據(jù)保護(hù)
  • 標(biāo)識(shí)義務(wù)

結(jié)果管理:

  • 提供者應(yīng)與使用者簽訂服務(wù)協(xié)議,約定雙方權(quán)利義務(wù)并指導(dǎo)使用者合法使用
  • 提供者應(yīng)對(duì)使用者的違法活動(dòng)進(jìn)行檢測(cè)處置

渠道管理:

  • 對(duì)于應(yīng)用商店、小程序平臺(tái)等生成式AI分發(fā)渠道提出主動(dòng)核驗(yàn)安全評(píng)估,備案等情況的要求

企業(yè)對(duì)生成式人工智能的管理手段,在一定程度上會(huì)影響到風(fēng)險(xiǎn)的責(zé)任分配,是由生成式人工智能服務(wù)提供者承擔(dān)責(zé)任,還是渠道、品牌,抑或是其他的使用者來承擔(dān)。

營(yíng)銷場(chǎng)景應(yīng)用大模型的挑戰(zhàn)

具體到營(yíng)銷領(lǐng)域,企業(yè)在應(yīng)用大模型的過程中會(huì)遇到哪些挑戰(zhàn),又該如何應(yīng)對(duì)?

今年我們接到大量在營(yíng)銷場(chǎng)景下使用大語(yǔ)言模型的咨詢。在三四月份,我們剛開始接到一些需求的時(shí)候,企業(yè)對(duì)這件事的態(tài)度是重要但不緊急。但是,僅僅過了一周,企業(yè)的態(tài)度就變成了重要且緊急。我們看到各大品牌方、各個(gè)渠道都開始咨詢?cè)鯓右氪笳Z(yǔ)言模型、如何具體實(shí)施落地。

大語(yǔ)言模型的強(qiáng)項(xiàng)是可以“多快好省”地“無中生有”,而且非常具有話題性。與一幅人類拍攝的照片相比,從營(yíng)銷的角度來講,企業(yè)更愿意使用AIGC生成的照片,因?yàn)榭梢晕嗔髁俊?/p>

問題在于,大語(yǔ)言模型具有“以假亂真”和“似是而非”的特點(diǎn)。如果我們?cè)跔I(yíng)銷物料中使用“以假亂真”的內(nèi)容,這些內(nèi)容又被掐頭去尾,或者在不同的語(yǔ)境下傳播,就有造成混淆的風(fēng)險(xiǎn)。

最近陸續(xù)有一些大語(yǔ)言模型應(yīng)用層產(chǎn)品通過了上線備案,可以面向公眾提供服務(wù)。與ToB的產(chǎn)品相比,直接面向C端用戶的產(chǎn)品,有較高的準(zhǔn)入門檻。而且,兩者在后續(xù)的管控、安全措施上都會(huì)存在一定差異。

給企業(yè)的四點(diǎn)合規(guī)建議

根據(jù)今年3月以來參與相關(guān)工作總結(jié)下來的經(jīng)驗(yàn),我給大家提供一些大模型落地的參考建議。

第一,應(yīng)在輸入和輸出環(huán)節(jié)加以管控,避免輸入個(gè)人信息、保密信息,避免產(chǎn)生和傳播違法不良信息。過去針對(duì)人工智能的技術(shù)管控,側(cè)重于管輸入端或者輸出端中的一頭。但是,由于大語(yǔ)言模型的強(qiáng)互動(dòng)性、輸入輸出內(nèi)容的復(fù)雜程度,以及多模態(tài)的特征,決定了企業(yè)在輸入和輸出端都要進(jìn)行管控。如果大量個(gè)人信息、保密信息,或包含知識(shí)產(chǎn)權(quán)的信息,進(jìn)入到大語(yǔ)言模型中,有可能存在泄密風(fēng)險(xiǎn),對(duì)個(gè)人或企業(yè)產(chǎn)生不利影響。

第二,接入境外大語(yǔ)言模型用于營(yíng)銷內(nèi)容生產(chǎn),需謹(jǐn)慎評(píng)估(因預(yù)訓(xùn)練數(shù)據(jù)集產(chǎn)生的)內(nèi)容安全風(fēng)險(xiǎn)。我們說的是謹(jǐn)慎評(píng)估,而不是一刀切。正如之前所說,生成式人工智能的技術(shù)風(fēng)險(xiǎn)包含了它作為基礎(chǔ)設(shè)施對(duì)語(yǔ)料的強(qiáng)依賴。境外大語(yǔ)言模型預(yù)訓(xùn)練階段的數(shù)據(jù)可能和我們的價(jià)值觀、法律要求不盡一致。因此,在這種情況下生成的物料,可能存在一些風(fēng)險(xiǎn)。比如,我們對(duì)地圖的要求和國(guó)外對(duì)地圖的要求有所差異,如果境外大語(yǔ)言模型中包含地圖信息,就可能帶來一些風(fēng)險(xiǎn)。所以,并非哪個(gè)產(chǎn)品的技術(shù)領(lǐng)先,就一定是最優(yōu)的方案。

第三,根據(jù)具體語(yǔ)境,明顯標(biāo)注“由人工智能生成”或“由AI生成”。大語(yǔ)言模型具有以假亂真、似是而非的特點(diǎn)。有時(shí)明明是一個(gè)廣告,被人截取使用后就可能產(chǎn)生混淆,從而引發(fā)輿情和爭(zhēng)議。一旦產(chǎn)生輿情或爭(zhēng)議后,公司在營(yíng)銷場(chǎng)景中使用大語(yǔ)言模型有可能會(huì)被叫停,或者要求公司提供說明。因此,企業(yè)需要預(yù)先對(duì)生產(chǎn)內(nèi)容進(jìn)行標(biāo)識(shí)、標(biāo)注。當(dāng)然,一些可以明顯看出是人工智能與人類交互的場(chǎng)景,未標(biāo)注的風(fēng)險(xiǎn)會(huì)相對(duì)低一些。

第四,特別關(guān)注和防范生成內(nèi)容出現(xiàn)種族、民族、信仰、國(guó)別、地域、性別、年齡、職業(yè)等方面的歧視或偏見。被人歧視和被機(jī)器歧視的感受是不同的,國(guó)際社會(huì)對(duì)這件事的關(guān)注程度一直很高。人工智能產(chǎn)生的偏見和人的主觀偏見的區(qū)別在于,人工智能會(huì)把人類社會(huì)已經(jīng)存在的偏見在算法中永久化或固化,可能會(huì)在大量數(shù)據(jù)訓(xùn)練中繼續(xù)強(qiáng)化。因此,在預(yù)訓(xùn)練階段,我們需要剔除帶有歧視或偏見的語(yǔ)料,從而避免歧視或偏見的放大。

當(dāng)前,大語(yǔ)言模型的落地難點(diǎn)在于覆蓋各行各業(yè)時(shí),如何界定風(fēng)險(xiǎn),防范風(fēng)險(xiǎn)傳導(dǎo)。就我個(gè)人的實(shí)際觀察,在垂直行業(yè)的落地風(fēng)險(xiǎn)則相對(duì)可控。隨著人們對(duì)科技倫理關(guān)注度的提升,我們希望大語(yǔ)言模型的落地是符合大眾認(rèn)知的,因?yàn)橐坏┏霈F(xiàn)風(fēng)險(xiǎn),把整個(gè)機(jī)制講清楚非常困難。當(dāng)公司利用大數(shù)據(jù)做精準(zhǔn)營(yíng)銷時(shí),肯定不希望被別有用心的人用于非法目的。如果我們能夠從源頭上做好輸入信息的把控,就能有效控制在具體場(chǎng)景下應(yīng)用的風(fēng)險(xiǎn)。

信息填寫

*手機(jī)號(hào)碼:

請(qǐng)選協(xié)議