• 正文
  • 相關(guān)推薦
申請(qǐng)入駐 產(chǎn)業(yè)圖譜

信息安全提示:用人工智能找答案 多角度查證保平安

2023/02/13
914
加入交流群
掃碼加入
獲取工程師必備禮包
參與熱點(diǎn)資訊討論

近日人工智能AI)聊天機(jī)器人ChatGPT互聯(lián)網(wǎng)上火紅,據(jù)報(bào)道已有一億用戶,大部份用戶都表示相比起傳統(tǒng)搜索引擎只依據(jù)輸入的查詢來(lái)提供相關(guān)度高的網(wǎng)站,ChatGPT能讓用戶以人與人對(duì)話的方式提問(wèn)然后輸出響應(yīng),加上生成的答案十分精準(zhǔn)及附有詳細(xì)解釋,省卻用搜索引擎后還要自行查閱資料的時(shí)間。

雖然其開(kāi)發(fā)者OpenAI表示免費(fèi)版ChatGPT是在研究預(yù)覽階段,但它的受歡迎程度卻標(biāo)致著將AI及機(jī)器學(xué)習(xí)技術(shù)呈現(xiàn)至普羅大眾面前的重大成功。 近日各大資訊科技公司都相繼公布會(huì)把AI整合到其網(wǎng)上服務(wù)的計(jì)劃:例如Microsoft會(huì)把比ChatGPT 更強(qiáng)大的AI技術(shù)與搜索引擎Bing及瀏覽器Edge整合; 另一搜索引擎巨頭Google亦將于未來(lái)數(shù)周把其對(duì)話式AI服務(wù)Bard逐步加入到其產(chǎn)品中。 可見(jiàn)不久將來(lái)會(huì)有更多AI技術(shù)會(huì)整合到不同的網(wǎng)上服務(wù),涉足我們的日常生活。

AI的普及應(yīng)用,一方面讓我們工作或生活上更省時(shí)便利,例如有人已利用ChatGPT編寫程序或文章,能得出比真人更快、更少錯(cuò)誤的程序,生成的文章內(nèi)容亦很豐富及井井 有條; 但另一方面,也曾有不法分子利用ChatGPT制作釣魚(yú)郵件內(nèi)容,甚至編寫惡意程序,縱使官方已加入安全機(jī)制禁止生成惡意內(nèi)容,但已有網(wǎng)絡(luò)犯罪分子開(kāi)發(fā)出規(guī)避方法,并以網(wǎng)絡(luò)犯罪服務(wù)方式販賣,由此可見(jiàn)潛在安全問(wèn)題亦不容忽視。

香港生產(chǎn)力促進(jìn)局轄下的香港電腦保安事故協(xié)調(diào)中心(HKCERT)日前在最新一次年度信息安全展望簡(jiǎn)布會(huì)上也預(yù)測(cè)利用AI的攻擊及網(wǎng)絡(luò)犯罪服務(wù)將會(huì) 是2023年五大信息安全風(fēng)險(xiǎn)之一,當(dāng)中更羅列多種不法分子如何利用AI進(jìn)行攻擊的可能情況,除上述提到的例子外,還包括AI 欺詐及毒害AI模型。 總結(jié)AI涉及的安全風(fēng)險(xiǎn)有以下幾種:

數(shù)據(jù)私隱和保密:AI需要大量數(shù)據(jù)進(jìn)行訓(xùn)練,其中可能包括敏感信息,如個(gè)人詳細(xì)信息、財(cái)務(wù)信息和醫(yī)療記錄。 這可能引發(fā)了隱私問(wèn)題,因?yàn)槟P涂赡軙?huì)訪問(wèn)和生成敏感信息。

錯(cuò)誤信息:AI為求產(chǎn)生的結(jié)果有連貫性及通順,可能會(huì)編造虛假或誤導(dǎo)性信息,用戶慣性倚賴AI生成的資料可能會(huì)對(duì)事實(shí)有錯(cuò)誤的認(rèn)知。另外,信息的準(zhǔn)確性亦會(huì)受到其所接受的訓(xùn)練數(shù)據(jù)影響,例如ChatGPT的訓(xùn)練數(shù)據(jù)只去到2021年,所以當(dāng)問(wèn)到誰(shuí)是最近的世界杯冠軍時(shí),它會(huì)回答法國(guó)(2018年冠軍),而不是阿根廷( 2022年冠軍); 其他錯(cuò)誤訊息的例子包括在Google宣傳其聊天機(jī)器人Bard的廣告中,被發(fā)現(xiàn)它在回答有關(guān)” 詹姆斯韋伯太空望遠(yuǎn)鏡的問(wèn)題中包含錯(cuò)誤的信息。

偏見(jiàn)問(wèn)題:AI的訓(xùn)練數(shù)據(jù)可能來(lái)自互聯(lián)網(wǎng),其中可能包含偏見(jiàn)和歧視。這可能導(dǎo)致模型產(chǎn)生使這些偏見(jiàn)和歧視的回應(yīng)。 此外,不法分子亦可利用偏頗的數(shù)據(jù),訓(xùn)練AI模型,令A(yù)I生成惡意的回應(yīng),此手法稱為對(duì)抗性干擾。
版權(quán)問(wèn)題:考慮第三方的權(quán)利都是很重要,例如由 ChatGPT輸出的回應(yīng)中可能涉及的受版權(quán)保護(hù)的資料的擁有人。 侵犯他人的權(quán)利,包括未經(jīng)許可使用其受版權(quán)保護(hù)的資料,可能會(huì)導(dǎo)致法律責(zé)任。因此使用ChatGPT時(shí),要考慮和尊重其開(kāi)發(fā)者和其他人的知識(shí)產(chǎn)權(quán),并確保對(duì) ChatGPT 的響應(yīng)的任何使用都符合適用的法律法規(guī)。

其實(shí)AI是一個(gè)中性的工具,本身并沒(méi)有對(duì)錯(cuò)。 正如當(dāng)你在ChatGPT問(wèn)ChatGPT自身是否存在安全隱憂時(shí),ChatGPT的最后回應(yīng)是 : ”However, it is important for users and developers to be aware of these security concerns and take appropriate measures to mitigate them.” ,最終責(zé)任應(yīng)該落在用家本身。 最后,當(dāng)大家使用AI時(shí),應(yīng)該保持凡事核查的心態(tài),從多個(gè)源頭查證事實(shí)。

相關(guān)推薦