ICC訊 北京時間4月19日早間消息,據(jù)報道,以色列網(wǎng)絡(luò)安全公司Team8的最新報告顯示,使用ChatGPT等生成式人工智能的企業(yè)可能會因此泄露客戶信息和商業(yè)機密。
該報告稱,新型人工智能聊天機器人和協(xié)作工具的廣泛普及,可能會令一些公司面臨數(shù)據(jù)泄露和法律風險。他們擔心黑客可能會利用聊天機器人獲取敏感的企業(yè)信息或?qū)ζ髽I(yè)發(fā)動攻擊。此外,目前投喂給聊天機器人的機密信息未來也有可能會被人工智能公司利用。
包括微軟和Alphabet在內(nèi)的大型科技公司都在爭相通過生成式人工智能技術(shù)改進聊天機器人和搜索引擎,利用互聯(lián)網(wǎng)上獲取的數(shù)據(jù)訓(xùn)練他們的模型,從而為用戶提供一站式問答服務(wù)。報告稱,如果使用機密或私密數(shù)據(jù)來投喂這些工具,今后將很難刪除相關(guān)信息。
該報告寫道:“使用生成式人工智能的企業(yè),其敏感信息、知識產(chǎn)權(quán)、源代碼、商業(yè)機密和其他數(shù)據(jù),可能會通過用戶直接輸入或API等渠道被他人獲取和處理,其中包括客戶信息或私密信息以及機密信息?!盩eam8將這一風險標記為“高風險”。他們認為,如果采取適當?shù)姆婪洞胧?,該風險“可控”。
Team8在報告中強調(diào),聊天機器人的查詢并不會被輸入大預(yù)言模型來訓(xùn)練人工智能,而與之相悖的是,最近的報告聲稱這樣的提示信息有可能會被其他人看到。
“截至發(fā)稿,大語言模型還無法實時自我更新,因此無法將一個人輸入的信息反饋給另外一個人,從而有效打消這種顧慮。然而,在訓(xùn)練未來版本的大語言模型時,未必不會采取這種方法。”該報告寫道。
該報告還標記了另外3項與整合生成式人工智能工具有關(guān)的“高風險”問題,并強調(diào)了通過第三方應(yīng)用分享越來越多的信息所產(chǎn)生的威脅。微軟就將部分人工智能聊天機器人功能嵌入了必應(yīng)搜索和Office 365工具。
報告稱:“例如,在用戶端,第三方應(yīng)用會利用生成式人工智能API,倘若遭到攻擊,就有可能提供電子郵件和網(wǎng)絡(luò)瀏覽器權(quán)限,攻擊者還有可能冒充用戶采取行動?!?
該公司認為,使用人工智能也有可能加劇歧視問題、損害公司聲譽或?qū)е缕髽I(yè)遭遇侵權(quán)訴訟。這些都屬于“中風險”問題。
微軟公司副總裁安·約翰遜(Ann Johnson)參與起草了這份報告。微軟向ChatGPT的開發(fā)商OpenAI投資了數(shù)十億美元。
微軟發(fā)言人說:“微軟鼓勵對安全和人工智能領(lǐng)域的網(wǎng)絡(luò)風險展開透明的討論?!?
OpenAI開發(fā)的ChatGPT聊天機器人的火爆引發(fā)了監(jiān)管呼聲。各界都擔心在企業(yè)試圖利用這項技術(shù)提高效率時,這種創(chuàng)新也有可能會被用于不法行為。
美國聯(lián)邦貿(mào)易委員會(FTC)官員周二表示,該機構(gòu)將重點關(guān)注濫用人工智能技術(shù)違反反歧視法或存在欺騙行為的公司。
FTC主席莉娜·可汗(Lina Khan)和委員黎貝卡·斯勞特(Rebecca Slaughter)及阿爾瓦羅·貝多亞(Alvaro Bedoya)都參加了美國國會舉行的聽證會,他們被問及與最近的人工智能創(chuàng)新有關(guān)的擔憂。這項技術(shù)可以用于制作高質(zhì)量的“深度偽造”,從而產(chǎn)生更具欺騙性的騙局以及其他違法行為。
貝多亞表示,使用算法或人工智能的企業(yè)不得違反民權(quán)法律,也不得違規(guī)采取不公平或具有欺騙性的行為。
他表示,黑匣子不能成為無法解釋算法的借口。
可汗也認為最新的人工智能技術(shù)可以幫助不法分子開展欺詐活動。她同時表示,任何不當行為“都應(yīng)該得到FTC的制裁”。
斯勞特指出,F(xiàn)TC在100年的歷史上一直都要適應(yīng)不斷變化的技術(shù),而適應(yīng)ChatGPT和其他人工智能工具也并無不同。
按照組織設(shè)置,該委員會應(yīng)該擁有5名委員,但目前只有3名,而且全部為民主黨人。
新聞來源:新浪科技