生成式AI快速發(fā)展帶來更多潛在安全威脅
繼CHATGPT發(fā)布以來,百度“文心一言”、谷歌Bard、阿里“通義千問”陸續(xù)面世。CHATGPT從根據(jù)要求生成文本、圖片、視頻,優(yōu)化到能根據(jù)任務自主提出計劃并實施的AUTOGPT。亞馬遜推出Amazon Bedrock,意味著通過API(應用程序編程接口)即可訪問來自AI21Labs、Anthropic、Stability AI和亞馬遜的基礎模型,并由此構建生成式AI驅動的應用程序。生成式AI技術不斷進步,可以適配行業(yè)細分應用場景,賦能更多行業(yè)及企業(yè)降本增效,市場應用前景廣闊。
【資料圖】
神經(jīng)網(wǎng)絡訓練時使用的算法經(jīng)常涉及到隱私數(shù)據(jù),許多情況下,來自公共監(jiān)控、人臉識別和指紋生物識別、以及財務和醫(yī)療應用的大量訓練數(shù)據(jù)集都是隱私的,包含個人可識別信息。攻擊者,無論是有組織的犯罪集團還是商業(yè)競爭對手,很可能出于經(jīng)濟原因或其他利益原因來利用這些信息。此外,AI系統(tǒng)還面臨著被注入惡意發(fā)送的偽造數(shù)據(jù)、以破壞神經(jīng)網(wǎng)絡功能的風險(例如,因面部識別圖像的分類錯誤而導致攻擊者逃脫檢測)。生成式AI的潛在安全風險應引起重視,安全保護需從概念生成階段即融入到產(chǎn)品之中,并貫穿產(chǎn)品的整個生命周期。
全球多個國家開始對生成式AI加強監(jiān)管
生成式AI持續(xù)快速發(fā)展的同時,在信息安全、數(shù)據(jù)合規(guī)、版權保護等方面也引發(fā)了社會的關注與熱議。美國商務部4月11日就人工智能問責措施正式公開征求意見,包括有潛在風險的新人工智能模型在發(fā)布前是否應該通過認證程序。英國政府于3月發(fā)布了第一份人工智能白皮書,概述了人工智能治理的5項原則。此外,3月底,意大利政府宣布禁止使用一款人工智能聊天機器人,并限制相關公司處理意大利用戶信息數(shù)據(jù),同時對其隱私安全問題立案調查。加拿大廣播公司4月4日報道稱,加拿大聯(lián)邦隱私監(jiān)管機構宣布,已對美國人工智能研究公司OpenAI展開調查,因該公司涉嫌“未經(jīng)同意收集、使用和披露個人信息”。生成式AI潛在安全威脅較多,如信息惡意獲取、篡改、偽造和亂用、數(shù)據(jù)泄漏等。安全保護在AI流程中不可或缺,強化AI監(jiān)管是大勢所趨。
生成式AI監(jiān)管意見稿發(fā)布,強監(jiān)管趨勢下網(wǎng)絡安全迎市場發(fā)展新契機
4月11日,國家互聯(lián)網(wǎng)信息辦公室發(fā)布《生成式人工智能服務管理辦法(征求意見稿)》,向社會公開征求意見。該意見稿聚焦生成式人工智能,在算法設計、訓練數(shù)據(jù)選擇、模型生成和優(yōu)化、提供服務、生成內容、個人信息和隱私保護方面均做出了限制。意見稿第五條指出“利用生成式人工智能產(chǎn)品提供聊天和文本、圖像、聲音生成等服務的組織和個人,包括通過提供可編程接口等方式支持他人自行生成文本、圖像、聲音等,承擔該產(chǎn)品生成內容生產(chǎn)者的責任;涉及個人信息的,承擔個人信息處理者的法定責任,履行個人信息保護義務”,對人工智能產(chǎn)品使用過程中可能出現(xiàn)的問題的責任歸屬進行了確定。新的監(jiān)管政策面對發(fā)展勢頭迅猛的生成式AI,在生成內容、隱私保護、知識產(chǎn)權保護等方面都做出了限制。
意見稿指出“利用生成式人工智能生成的內容應當真實準確,采取措施防止生成虛假信息”,“利用生成式人工智能產(chǎn)品向公眾提供服務前,應當按照《具有輿論屬性或社會動員能力的互聯(lián)網(wǎng)信息服務安全評估規(guī)定》向國家網(wǎng)信部門申報安全評估”,為生成式人工智能的產(chǎn)品推出設立了門檻。《征求意見稿》強調了安全評估和算法備案的前提性和必要性;強調了確保數(shù)據(jù)安全和個人信息保護合規(guī),尤其是隱私保護;夯實了違規(guī)責任的處罰措施,包含追究刑事責任。
投資建議:生成式AI快速發(fā)展帶來更多潛在安全威脅,加強監(jiān)管是大勢所趨。網(wǎng)信辦發(fā)布生成式AI監(jiān)管意見稿,網(wǎng)絡安全市場迎來發(fā)展新契機。建議關注:奇安信、天融信、綠盟科技、啟明星辰、安恒信息、美亞柏科、三未信安。
風險提示:需求釋放不及預期;競爭加??;技術進展不及預期。
(來源:中航證券)
關鍵詞:



















