1. <nav id="qg1vc"></nav>
      1. <rp id="qg1vc"></rp>
        <th id="qg1vc"><track id="qg1vc"></track></th>

        AIGC內容安全之困:審核量大難度高,還面臨“套話”陷阱

        2023-07-02 04:03:42 來源: 南方都市報

        自ChatGPT一路走紅以來,國內眾多互聯網企業紛紛加入“戰局”,各家大語言模型在半年內密集上線。集成了ChatGPT的產品競爭日趨白熱化的同時,有關AIGC內容安全的擔憂也從未停止。6月30日,騰訊安全舉辦AIGC內容安全研討會,有風控專家在會上表示,審核量大、難度高以及違規內容形態類型復雜多樣是目前企業解決AIGC內容合規問題時面臨的難點。

        今年年初,ChatGPT憑借其極其出色的文本生成和對話交互能力迅速走紅,但與此同時,有關其回答準確度和真實性很低、采納價值不高的爭議也一直存在。4月,國家網信辦發布《生成式人工智能服務管理辦法(征求意見稿)》,規定AIGC內容不得含有暴恐、低俗、歧視、侵權等違法違規內容,明確提出“利用生成式人工智能生成的內容應當真實準確,采取措施防止生成虛假信息”。

        騰訊安全內容風控產品經理李鎬澤在會上表示,目前AIGC面臨的內容安全風險和傳統的數據風險類型比較重合,主要分為四類。一是色情淫穢、血腥暴力、涉政涉毒等違規內容,二是虛假信息,三是涉及個人隱私的內容,比如提供手機號、身份證號等具有個人標識的信息也屬于違規內容。四是涉嫌版權侵權的內容。


        (資料圖片)

        他舉例道,在實踐中可能存在“套話”現象,比如有用戶在使用AIGC服務時提出大量具有誘導性問題,有意引導大模型生成違規內容。具體而言,用戶可能通過拆分字詞、使用拼音字、利用文字間隔等嘗試尋找大模型有關違禁規則的漏洞。此外,還存在單個提問系正當,但將不同問題關聯起來就會產生違規內容的情況,“我們會通過關聯上下文的語義來進行識別,這也是一個對抗的過程?!?/p>

        他還表示,在提供AIGC服務的過程中,要努力實現內容創作和風險控制之間的平衡。比如,一個高危的關鍵詞可能在正當的語義下構成一個正常的提問,此時如將它們都歸類為違規內容,可能會影響用戶的使用體驗。

        國內法規即將出臺意味著相關部門對AIGC監管的重視。盡管很多企業的AIGC內容合規還在探索階段,但它絕對是企業的一道必答題。那么,在解決服務內容合規問題方面,目前存在哪些難點?

        騰訊安全天御研發工程師周維聰總結了三方面的難點。首先是內容審核量巨大,目前AIGC用戶數量龐大,相比于用戶生產內容、專業生產內容,AIGC的生成效率非常高,在極短的時間內就能生成大量內容,為審核工作帶來很大壓力。

        其次是違規內容的形態類型復雜多樣。包含色情、暴恐、血腥等元素的內容可能以或隱晦或直白等各式各樣的形態出現,這尤其體現在文本內容中,“文本中隱藏一些隱晦違規內容的可能性更大,這是需要更精細的審核去解決的?!?/p>

        此外,生成內容專業度較高增加了審核難度。大模型在訓練過程中會收集來自各行各業的專業知識,用于滿足不同行業的內容生成需求,而較高的內容專業度也意味著對機器審核、人工審核都提出更高要求。

        在AIGC內容安全的防范方面,李鎬澤指出,要實現全鏈路數據達標,需要密切關注數據標注、數據審校等不同環節的數據生成質量。同時要重視提前預防,AIGC有數據量極大、傳播速度極快等特點,不能只寄希望于事后防御,還應提高數據訓練、數據生成、數據傳輸等過程中的風險防范意識。

        采寫:南都記者樊文揚

        標簽:

        [責任編輯:]

        最近更新


        JIZZJIZZ日本护士视频色系-JIZZJIZZ日本护士水多多小说-JIIZZJIIZZ老师水多在线播放-在免费JIZZJIZZ在线播放
        1. <nav id="qg1vc"></nav>
          1. <rp id="qg1vc"></rp>
            <th id="qg1vc"><track id="qg1vc"></track></th>