過去一年中,生成式人工智能(AI)的快速發(fā)展引發(fā)了許多隱私和倫理問題,包括對從受版權保護的作品中學習生成式人工智能的倫理和合法性的討論。例如,一些作者以侵犯版權為由對ChatGPT的所有者OpenAI提起訴訟。也有人擔心生成式人工智能可能使用個人信息的方式。例如,出于隱私相關考慮,意大利數據保護局暫時禁止了ChatGPT。
生成式人工智能可以創(chuàng)建文本并與用戶聊天,這是一個獨特的挑戰(zhàn),因為它可以讓人們感覺自己在與人互動。擬人化是指將人類屬性或個性賦予非人類。人們經常將人工智能(尤其是生成式人工智能)擬人化,因為它可以創(chuàng)造類似人類的輸出。
這種虛假的關系可能會有問題。ELIZA效應描述了“當一個人將人類水平的智能歸因于人工智能系統(tǒng),并錯誤地將包括情感和自我意識在內的意義附加到人工智能上時”的現(xiàn)象。一名男子與聊天機器人分享了他對氣候變化的擔憂,聊天機器人為他提供了自殺的方法。不幸的是,他自殺身亡,他的妻子聲稱,如果不是因為他與聊天機器人的關系,他不會這么做。
這些產生類似人類輸出的算法玩起來很有趣,但它們帶來了嚴重的隱私問題。對面向消費者的生成式人工智能的企業(yè)來說需要考慮擬人化的人工智能有與隱私相關的利弊。
隱私優(yōu)勢
將人工智能擬人化的一個與隱私相關的好處是,它可以幫助用戶將過度的數據收集置于情境中。當信息由企業(yè)或應用程序收集時,它可能看起來像是一大堆1和0,沒有任何意義。但是,如果一個陌生人似乎在告訴用戶關于自己的私人信息,這似乎令人反感,共享數據的后果就會變得具體而有形。
應用程序可能被要求包含他們在應用程序商店中收集的信息描述,但用戶通常不會閱讀,因為它很復雜,或者他們不確切地了解數據收集的內容。相比之下,讓人工智能聊天將這些信息投入使用可能更具影響力。以Snapchat的人工智能聊天機器人My AI為例。盡管蘋果應用商店通知用戶Snapchat可以訪問位置數據,但圖1更實際地說明了訪問位置數據的含義。例如,我讓My AI推薦我附近的一家好咖啡店。
應用程序用戶可能知道應用程序可以訪問位置數據,但與一個命名特定社區(qū)企業(yè)的看似人類的聊天機器人進行對話,可以更好地說明與應用程序共享位置數據意味著什么。這可能有助于人們更多地了解隱私問題,從而使消費者對他們共享的信息更加謹慎,并采取措施保護他們的隱私。
隱私弊端
當與人工智能聊天機器人交談時,如果聊天機器人聽起來像人類并使用第一人稱或第二人稱語言,用戶可能會更愿意分享信息。提供給聊天機器人的信息可能會被一個友好的人分享,而不是一個可能將這些數據用于各種目的的企業(yè)。例如,人們可能會與聊天機器人交談一段時間,最終泄露敏感信息(例如,他們正在努力解決的健康問題)。大多數聊天機器人在用戶提供敏感信息時不會發(fā)出警告。
個人的輸入或人工智能平臺的輸出有可能用于訓練未來的反應。這可能意味著與聊天機器人共享的敏感數據或秘密信息可能會與他人共享,或影響他人收到的輸出。例如,盡管OpenAI改變了政策,但它最初是根據提供給ChatGPT的數據進行模型訓練的。人工智能進行數據訓練后,很難再次對其進行訓練。
隱私聲明通常很難理解,消費者可能會繞過它們,但是會接受人工智能聊天機器人關于隱私對話式、易于理解的回應。用戶可能認為聊天機器人提供的信息是全面的。但是,如果不深入研究提供商的隱私聲明,可能會對提供商收集的信息有不準確的了解。
例如,我問Snapchat的聊天機器人該應用程序收集了哪些信息,但它向我提供的信息不完整。圖2顯示了My AI收集的數據,但這并不是一個完整的列表。圖1證實了該應用程序還收集位置數據。
從業(yè)者的收獲
使用人工智能聊天機器人的企業(yè)中的隱私專業(yè)人士應該考慮聊天機器人提供關于隱私實踐信息的方式。對有關收集的數據、如何使用數據和消費者權利的問題的回答必須準確并且全面,以避免誤導數據主體。
使用人工智能聊天機器人的企業(yè)還必須考慮用戶的年齡,并確保未成年人受到保護。例如,59%的青少年表示他們使用Snapchat,只有付費訂閱Snapchat+的用戶才能刪除其My AI功能。這意味著使用免費版Snapchat的未成年人和未成年人的父母不能刪除My AI功能。青少年可能不了解它的缺陷或他們的信息如何被使用,他們正在使用My AI來進行心理健康咨詢,這可能存在危險。為未成年人提供人工智能服務的企業(yè)應告知他們提供敏感信息的后果,并強調輸出可能不準確。
我問My AI頭痛該怎么辦,雖然它最初拒絕提供醫(yī)學上的建議,但最終建議我服藥(圖3)。盡管它推薦了相對無害的非處方藥,但未成年人可能不知道這些推薦的藥物是否會與任何處方藥產生相互作用。
即使是不使用生成式人工智能的公司,也需要了解將會如何影響日常運營。員工可能會覺得,向ChatGPT尋求幫助起草電子郵件類似于向同事求助,但兩者不可比較:ChatGPT是第三方服務,不遵守工作場所保密規(guī)范。公司必須制定一項關于生成式人工智能使用的政策。這需要多個部門的投入,而不僅僅是隱私團隊。管理者還應制定關于什么樣的工作可以利用人工智能工具的指導方針(例如,可以允許使用ChatGPT起草社交媒體帖子,但使用它起草機密電子郵件可能是不可接受的)。未制定關于GPT和其他人工智能工具使用的政策可能會導致員工濫用技術,從而可能會導致隱私問題。
在隱私意識培訓中,隱私專業(yè)人員可以利用人工智能的擬人化元素對信息被不當披露會產生的影響進行說明。非隱私工作人員可能不理解為什么某些數據被認為是敏感的,或者為什么信息被泄露很重要,但Snapchat的AI等例子可以有效地說明如果位置數據等信息被不當共享可能會發(fā)生的后果。
結論
許多企業(yè)利用類似人類的人工智能工具,許多員工的工作也可能依賴它們。人工智能被擬人化的同時讓它看起來不那么值得信賴,但從隱私的角度來說更值得信賴。制定一項關于人工智能使用的政策,并確保消費者了解與人工智能共享數據的含義,可以促進更有效、更值得信賴的人工智能工具。
編者按: 本文于2023年9月14日首次發(fā)表于ISACA官網News and Trends/Industry News。尾注略。文章內容僅代表作者本人觀點。
作者:SAFIA KAZI, CSX-F, CIPT,是ISACA隱私專業(yè)實踐負責人。在這個職位上,她專注于開發(fā)ISACA的隱私相關資源,包括書籍、白皮書和審查手冊。Kazi在ISACA工作了9年,之前曾在ISACA? Journal工作,并開發(fā)了屢獲殊榮的ISACA Podcast。2021年,她獲得了AM&P Network頒發(fā)的新興領袖獎,該獎項表彰35歲以下的創(chuàng)新協(xié)會出版專業(yè)人士。
翻譯:楊皓然(AdySec),CISSP,CISM,CISA,CDPSE,CRISC,CGEIT,PMP,CCSK,CZTP,CDSP,CCSSP,RHCE,CCNP,ISACA微信公眾號特邀通訊員,致力于安全運營、云安全、零信任等方向研究。
校對:唐雅琪(Andrea Tang),F(xiàn)IP, CIPP/E, CIPM,ISO 27001 LA,ISACA微信公眾號特邀通訊員小組組長,任職于安永企業(yè)咨詢有限公司。