ICC訊 北京時間4月19日早間消息,據(jù)報道,以色列網(wǎng)絡(luò)安全公司Team8的最新報告顯示,使用ChatGPT等生成式人工智能的企業(yè)可能會因此泄露客戶信息和商業(yè)機(jī)密。
該報告稱,新型人工智能聊天機(jī)器人和協(xié)作工具的廣泛普及,可能會令一些公司面臨數(shù)據(jù)泄露和法律風(fēng)險。他們擔(dān)心黑客可能會利用聊天機(jī)器人獲取敏感的企業(yè)信息或?qū)ζ髽I(yè)發(fā)動攻擊。此外,目前投喂給聊天機(jī)器人的機(jī)密信息未來也有可能會被人工智能公司利用。
包括微軟和Alphabet在內(nèi)的大型科技公司都在爭相通過生成式人工智能技術(shù)改進(jìn)聊天機(jī)器人和搜索引擎,利用互聯(lián)網(wǎng)上獲取的數(shù)據(jù)訓(xùn)練他們的模型,從而為用戶提供一站式問答服務(wù)。報告稱,如果使用機(jī)密或私密數(shù)據(jù)來投喂這些工具,今后將很難刪除相關(guān)信息。
該報告寫道:“使用生成式人工智能的企業(yè),其敏感信息、知識產(chǎn)權(quán)、源代碼、商業(yè)機(jī)密和其他數(shù)據(jù),可能會通過用戶直接輸入或API等渠道被他人獲取和處理,其中包括客戶信息或私密信息以及機(jī)密信息。”Team8將這一風(fēng)險標(biāo)記為“高風(fēng)險”。他們認(rèn)為,如果采取適當(dāng)?shù)姆婪洞胧?,該風(fēng)險“可控”。
Team8在報告中強(qiáng)調(diào),聊天機(jī)器人的查詢并不會被輸入大預(yù)言模型來訓(xùn)練人工智能,而與之相悖的是,最近的報告聲稱這樣的提示信息有可能會被其他人看到。
“截至發(fā)稿,大語言模型還無法實時自我更新,因此無法將一個人輸入的信息反饋給另外一個人,從而有效打消這種顧慮。然而,在訓(xùn)練未來版本的大語言模型時,未必不會采取這種方法?!痹搱蟾鎸懙?。
該報告還標(biāo)記了另外3項與整合生成式人工智能工具有關(guān)的“高風(fēng)險”問題,并強(qiáng)調(diào)了通過第三方應(yīng)用分享越來越多的信息所產(chǎn)生的威脅。微軟就將部分人工智能聊天機(jī)器人功能嵌入了必應(yīng)搜索和Office 365工具。
報告稱:“例如,在用戶端,第三方應(yīng)用會利用生成式人工智能API,倘若遭到攻擊,就有可能提供電子郵件和網(wǎng)絡(luò)瀏覽器權(quán)限,攻擊者還有可能冒充用戶采取行動?!?
該公司認(rèn)為,使用人工智能也有可能加劇歧視問題、損害公司聲譽(yù)或?qū)е缕髽I(yè)遭遇侵權(quán)訴訟。這些都屬于“中風(fēng)險”問題。
微軟公司副總裁安·約翰遜(Ann Johnson)參與起草了這份報告。微軟向ChatGPT的開發(fā)商OpenAI投資了數(shù)十億美元。
微軟發(fā)言人說:“微軟鼓勵對安全和人工智能領(lǐng)域的網(wǎng)絡(luò)風(fēng)險展開透明的討論。”
OpenAI開發(fā)的ChatGPT聊天機(jī)器人的火爆引發(fā)了監(jiān)管呼聲。各界都擔(dān)心在企業(yè)試圖利用這項技術(shù)提高效率時,這種創(chuàng)新也有可能會被用于不法行為。
美國聯(lián)邦貿(mào)易委員會(FTC)官員周二表示,該機(jī)構(gòu)將重點關(guān)注濫用人工智能技術(shù)違反反歧視法或存在欺騙行為的公司。
FTC主席莉娜·可汗(Lina Khan)和委員黎貝卡·斯勞特(Rebecca Slaughter)及阿爾瓦羅·貝多亞(Alvaro Bedoya)都參加了美國國會舉行的聽證會,他們被問及與最近的人工智能創(chuàng)新有關(guān)的擔(dān)憂。這項技術(shù)可以用于制作高質(zhì)量的“深度偽造”,從而產(chǎn)生更具欺騙性的騙局以及其他違法行為。
貝多亞表示,使用算法或人工智能的企業(yè)不得違反民權(quán)法律,也不得違規(guī)采取不公平或具有欺騙性的行為。
他表示,黑匣子不能成為無法解釋算法的借口。
可汗也認(rèn)為最新的人工智能技術(shù)可以幫助不法分子開展欺詐活動。她同時表示,任何不當(dāng)行為“都應(yīng)該得到FTC的制裁”。
斯勞特指出,F(xiàn)TC在100年的歷史上一直都要適應(yīng)不斷變化的技術(shù),而適應(yīng)ChatGPT和其他人工智能工具也并無不同。
按照組織設(shè)置,該委員會應(yīng)該擁有5名委員,但目前只有3名,而且全部為民主黨人。