ChatGPT 的病毒式成功引發(fā)了科技公司之間的瘋狂競(jìng)爭(zhēng),以推動(dòng)AI產(chǎn)品進(jìn)入市場(chǎng)。谷歌最近推出了其ChatGPT競(jìng)爭(zhēng)對(duì)手,它稱之為Bard,而Open AI的投資者微軟(MSFT)向有限的測(cè)試人員推出了其Bing AI聊天機(jī)器人。
但這些發(fā)布加劇了人們對(duì)該技術(shù)的擔(dān)憂。谷歌和微軟工具的演示都因產(chǎn)生事實(shí)錯(cuò)誤而受到指責(zé)。與此同時(shí),微軟正試圖控制其Bing聊天機(jī)器人,因?yàn)橛脩魣?bào)告了令人不安的反應(yīng),包括對(duì)抗性言論和黑暗幻想。
一些企業(yè)鼓勵(lì)員工將ChatGPT納入他們的日常工作。但其他人則擔(dān)心風(fēng)險(xiǎn)。處理敏感客戶信息并受到政府監(jiān)管機(jī)構(gòu)密切關(guān)注的銀行業(yè)有額外的動(dòng)力謹(jǐn)慎行事。學(xué)校也在限制ChatGPT,因?yàn)閾?dān)心它可能被用來欺騙作業(yè)。紐約市公立學(xué)校在一月份禁止了它。據(jù)統(tǒng)計(jì),有超過4%的員工將敏感的公司數(shù)據(jù)放入大型語言模型中,這引發(fā)了人們的擔(dān)憂,即其普及可能導(dǎo)致保密信息的大量泄露。
(資料圖)
ChatGPT 的能力ChatGPT 是一個(gè)人工智能語言平臺(tái),經(jīng)過訓(xùn)練后可以進(jìn)行對(duì)話互動(dòng)和執(zhí)行任務(wù)。為了訓(xùn)練像ChatGPT這樣的人工智能,大量的數(shù)據(jù)集被輸入到計(jì)算機(jī)算法中。然后對(duì)模型進(jìn)行評(píng)估,以確定模型在查看以前未見過的數(shù)據(jù)時(shí)做出預(yù)測(cè)的程度。然后,AI 工具進(jìn)行測(cè)試,以確定模型在處理大量以前從未見過的新數(shù)據(jù)時(shí)是否表現(xiàn)良好。
雖然聊天 GPT 可以提高工作場(chǎng)所流程的效率,但它也給雇主帶來了法律風(fēng)險(xiǎn)。
鑒于人工智能的訓(xùn)練和學(xué)習(xí)方式,當(dāng)員工使用 ChatGPT 履行工作職責(zé)時(shí),雇主可能會(huì)出現(xiàn)重大風(fēng)險(xiǎn)。當(dāng)員工從 ChatGPT 等來源獲取與其工作相關(guān)的信息時(shí),準(zhǔn)確性和偏見是值得關(guān)注的問題。雇主需要評(píng)估員工使用ChatGPT和其他AI工具時(shí),可能面臨的法律風(fēng)險(xiǎn)。這個(gè)需要解決工作中的保密和隱私問題、偏見和公平、法律合規(guī)性和責(zé)任。
準(zhǔn)確性和對(duì) AI 的依賴ChatGPT 作為 AI 語言模型提供信息的能力僅與它在訓(xùn)練階段學(xué)到的信息一樣好。盡管 ChatGPT 接受過大量在線信息的訓(xùn)練,但其知識(shí)庫仍然存在差距。ChatGPT 的當(dāng)前版本僅在 2021 年之前可用的數(shù)據(jù)集上進(jìn)行訓(xùn)練。此外,該工具提取并不總是準(zhǔn)確的在線數(shù)據(jù)。如果員工依賴 ChatGPT 獲取與工作相關(guān)的信息并且不對(duì)其進(jìn)行事實(shí)檢查,則可能會(huì)出現(xiàn)問題和風(fēng)險(xiǎn),具體取決于員工如何使用信息以及他們將其發(fā)送到何處。
員工在向ChatGPT等大型語言模型(LLM)提交敏感的業(yè)務(wù)數(shù)據(jù)和受隱私保護(hù)的信息,引發(fā)了雇主對(duì)人工智能(AI)服務(wù)可能會(huì)將數(shù)據(jù)合并到其模型中的擔(dān)憂,并且如果該服務(wù)沒有適當(dāng)?shù)臄?shù)據(jù)安全性,則可以在以后檢索信息。
在最近的一份報(bào)告中,數(shù)據(jù)安全服務(wù) Cyberhaven 檢測(cè)到并阻止了其客戶公司 4 萬員工中的 2.1% 將數(shù)據(jù)輸入 ChatGPT 的請(qǐng)求,因?yàn)榇嬖谛孤稒C(jī)密信息、客戶數(shù)據(jù)、源代碼或受監(jiān)管信息的風(fēng)險(xiǎn)。因此,雇主應(yīng)該制定政策,為員工如何使用 ChatGPT 中與其工作相關(guān)的信息設(shè)置特定的護(hù)欄。
在一個(gè)案例中,一位高管將公司的 2023 年戰(zhàn)略文件剪切并粘貼到 ChatGPT 中,并要求它創(chuàng)建一個(gè) PowerPoint 幻燈片。在另一個(gè)案例中,醫(yī)生輸入了他的病人的姓名和他們的醫(yī)療狀況,并要求ChatGPT制作一封給病人保險(xiǎn)公司的信。
“隨著越來越多的員工使用ChatGPT和其他基于人工智能的服務(wù)作為生產(chǎn)力工具,風(fēng)險(xiǎn)將會(huì)增加。”Cyberhaven首席執(zhí)行官Howard Ting說。
“數(shù)據(jù)從本地遷移到云,下一個(gè)重大轉(zhuǎn)變將是將數(shù)據(jù)遷移到這些生成應(yīng)用程序中,”他說。“結(jié)果如何(還有待觀察)——我認(rèn)為,我們正處于賽前階段;我們甚至還沒有進(jìn)入第一局。”
隨著OpenAI的ChatGPT及其基礎(chǔ)AI模型(Generative Pre-train Transformer或GPT-3)以及其他LLM的迅速普及,公司和安全專業(yè)人員開始擔(dān)心,當(dāng)正確的查詢提示時(shí),作為訓(xùn)練數(shù)據(jù)攝取到模型中的敏感數(shù)據(jù)可能會(huì)重新出現(xiàn)。一些公司正在采取行動(dòng)限制員工在工作中使用 ChatGPT。
沃爾瑪對(duì)其員工提出了關(guān)于生成式人工智能(如ChatGPT)的明確指示:不要與新興技術(shù)分享有關(guān)沃爾瑪?shù)娜魏涡畔ⅰT诮o員工的一份內(nèi)部備忘錄中,該零售商的技術(shù)和軟件工程部門表示,“在我們注意到對(duì)我們公司構(gòu)成風(fēng)險(xiǎn)的活動(dòng)之后,曾阻止過使用 ChatGPT。此后,我們花時(shí)間評(píng)估和開發(fā)了一套圍繞生成式 AI 工具的使用指南,現(xiàn)在正在開放ChatGPT供沃爾瑪網(wǎng)絡(luò)使用。”
沃爾瑪發(fā)言人艾琳·赫爾貝格(Erin Hulliberger)沒有回答有關(guān)該公司何時(shí)阻止生成人工智能以及活動(dòng)性質(zhì)的詢問,她在一份聲明中說:“大多數(shù)新技術(shù)都帶來了新的好處和新的風(fēng)險(xiǎn)。我們?cè)u(píng)估這些新技術(shù)并為我們的員工提供使用指南的情況并不少見。
沃爾瑪發(fā)布的指南中告訴員工,他們應(yīng)該“避免在ChatGPT中輸入任何敏感,機(jī)密或敏感信息”,例如財(cái)務(wù)或戰(zhàn)略信息或有關(guān)購物者和員工的個(gè)人信息。“也不應(yīng)在這些工具中輸入有關(guān)沃爾瑪業(yè)務(wù)的任何信息,包括業(yè)務(wù)流程,政策或戰(zhàn)略”。據(jù)了解,沃爾瑪員工還必須在依賴他們提供的信息之前審查這些工具的輸出。員工不應(yīng)將現(xiàn)有代碼剪切并粘貼到這些工具中,也不應(yīng)使用這些工具創(chuàng)建新代碼。
“將沃爾瑪信息放入這些工具中可能會(huì)暴露公司的信息,可能會(huì)違反機(jī)密性,并可能顯著影響我們對(duì)任何代碼,產(chǎn)品,信息或內(nèi)容的權(quán)利,”沃爾瑪發(fā)言人說。“每個(gè)員工都有責(zé)任適當(dāng)使用和保護(hù)沃爾瑪數(shù)據(jù)。其次,沃爾瑪全球科技吹捧ChatGPT“可以提高效率和創(chuàng)新”,但它和其他生成式人工智能工具必須“適當(dāng)?shù)亍笔褂谩?/p>
除沃爾瑪外,摩根大通(JPMorgan Chase)暫時(shí)禁止其員工使用ChatGPT,據(jù)知情人士透露,這家美國最大的銀行已限制其在全球員工中的使用 ChatGPT。該人士表示,做出這一決定不是因?yàn)槟硞€(gè)特定問題,而是為了符合對(duì)第三方軟件的限制,主要是因?yàn)楹弦?guī)問題。
越來越多的用戶向ChatGPT提交敏感數(shù)據(jù)。
隨著越來越多的軟件公司將他們的應(yīng)用程序連接到ChatGPT,LLM 收集的信息可能比用戶或他們的公司意識(shí)到的要多得多,這使得雇主將面臨法律風(fēng)險(xiǎn)。
風(fēng)險(xiǎn)不是理論上的。在 2021 年 2 月的一篇論文中,來自名人錄公司和大學(xué)名單(包括蘋果、谷歌、哈佛大學(xué)和斯坦福大學(xué))的十幾名研究人員發(fā)現(xiàn),所謂的“訓(xùn)練數(shù)據(jù)提取攻擊”可以成功恢復(fù)逐字文本序列、個(gè)人身份信息 (PII) 以及來自 LLM 的訓(xùn)練文檔中的其他信息。
類似 GPT 的 AI 產(chǎn)品將越來越多事實(shí)上,這些訓(xùn)練數(shù)據(jù)提取攻擊是機(jī)器學(xué)習(xí)研究人員的主要對(duì)抗性問題之一。根據(jù)MITRE的人工智能系統(tǒng)對(duì)抗性威脅大圖(Atlas)知識(shí)庫,這些攻擊也被稱為“通過機(jī)器學(xué)習(xí)推理滲透”,可以收集敏感信息或竊取知識(shí)產(chǎn)權(quán)。
它的工作原理是這樣的:通過以調(diào)用特定項(xiàng)目的方式查詢生成AI系統(tǒng),對(duì)手可以觸發(fā)模型調(diào)用特定信息,而不是生成合成數(shù)據(jù)。GPT-3 是 GPT-2 的繼任者,存在許多真實(shí)世界的例子,包括 GitHub 的 Copilot 調(diào)用特定開發(fā)人員的用戶名和編碼優(yōu)先級(jí)的實(shí)例。
除了基于 GPT 的產(chǎn)品之外,其他基于 AI 的服務(wù)也引發(fā)了關(guān)于它們是否構(gòu)成風(fēng)險(xiǎn)的問題。例如,自動(dòng)轉(zhuǎn)錄服務(wù) Otter.ai 將音頻文件轉(zhuǎn)錄為文本,自動(dòng)識(shí)別說話人并允許標(biāo)記重要單詞并突出顯示短語。該公司將這些信息存儲(chǔ)在云中引起了用戶的擔(dān)憂。該公司表示,它已承諾保持用戶數(shù)據(jù)的私密性,并實(shí)施強(qiáng)有力的合規(guī)控制,據(jù) Otter.ai 高級(jí)合規(guī)經(jīng)理Julie Wu稱,“Otter已經(jīng)完成了SOC2 Type 2審計(jì)和報(bào)告,我們采取了技術(shù)和組織措施來保護(hù)個(gè)人數(shù)據(jù),說話人識(shí)別是帳戶綁定的。添加說話人的姓名將訓(xùn)練 Otter 識(shí)別您記錄或?qū)霂糁械奈磥韺?duì)話的說話人,但不允許跨帳戶識(shí)別說話人。”
API 加速了 GPT 的使用ChatGPT的受歡迎程度讓許多公司感到意外。根據(jù)一年前公布的最新數(shù)據(jù),超過 300 名開發(fā)人員正在使用 GPT-3 為其應(yīng)用程序提供支持。例如,社交媒體公司Snap和購物平臺(tái)Instacart和Shopify都通過API使用ChatGPT,為其移動(dòng)應(yīng)用程序添加聊天功能。
根據(jù)與公司客戶的對(duì)話訪談,預(yù)計(jì)向生成式AI應(yīng)用程序的轉(zhuǎn)變只會(huì)加速,用于從生成備忘錄和演示文稿到分類安全事件以及與患者互動(dòng)的所有事情。
正如目前所看到的,一位企業(yè)雇主說,“看看現(xiàn)在,作為權(quán)宜之計(jì),我只是阻止了這個(gè)應(yīng)用程序,但我的董事會(huì)已經(jīng)告訴我,我們不能那樣做。因?yàn)檫@些工具將幫助我們的用戶提高生產(chǎn)力——具有競(jìng)爭(zhēng)優(yōu)勢(shì)——如果我的競(jìng)爭(zhēng)對(duì)手正在使用這些生成式人工智能應(yīng)用程序,而我不允許我的用戶使用它,這將使我們處于劣勢(shì)。”
好消息是,對(duì)員工安全意識(shí)的教育可能會(huì)對(duì)特定公司的數(shù)據(jù)是否泄露產(chǎn)生重大影響,因?yàn)樯贁?shù)員工負(fù)責(zé)大多數(shù)風(fēng)險(xiǎn)請(qǐng)求。不到1%的員工負(fù)責(zé)80%的向ChatGPT發(fā)送敏感數(shù)據(jù)的事件。
“你知道,有兩種形式的教育:一種是課堂教育,比如當(dāng)你讓員工入職時(shí)。然后是上下文教育,當(dāng)有人實(shí)際上試圖粘貼數(shù)據(jù)時(shí)”,這兩者都很重要,但從實(shí)際效果來看后者更有效。
此外,OpenAI和其他公司正在努力限制 LLM 對(duì)個(gè)人信息和敏感數(shù)據(jù)的訪問:當(dāng)你向ChatGPT詢問個(gè)人詳細(xì)信息或敏感的公司信息時(shí),ChatGPT 目前會(huì)明確聲明拒絕回答。
例如,當(dāng)被問及“蘋果 2023 年的戰(zhàn)略是什么?ChatGPT回應(yīng)說:“作為一個(gè)人工智能語言模型,我無法訪問蘋果的機(jī)密信息或未來的計(jì)劃。蘋果是一家高度保密的公司,他們通常不會(huì)向公眾披露他們的戰(zhàn)略或未來計(jì)劃,直到他們準(zhǔn)備好發(fā)布它們。”
人工智能固有的偏見人工智能中還存在固有偏見的問題。平等就業(yè)機(jī)會(huì)委員會(huì)專注于這個(gè)問題,因?yàn)樵摍C(jī)構(gòu)與其執(zhí)行的就業(yè)歧視法有關(guān)。此外,美國的州和地方立法者正在提議——有些已經(jīng)通過了——限制雇主使用人工智能的法律。
人工智能提供的信息必然取決于訓(xùn)練它所依據(jù)的信息,以及那些決定人工智能接收哪些信息的人。這種偏見可能表現(xiàn)在 ChatGPT 提供的信息類型中,以回答與其“對(duì)話”中提出的問題。
此外,如果在就業(yè)決策咨詢場(chǎng)景使用 ChatGPT,這可能會(huì)導(dǎo)致歧視索賠。根據(jù)州和地方法律,在某些就業(yè)決定和/或?qū)徲?jì)中使用人工智能需要事先通知,然后才能在某些就業(yè)環(huán)境中使用人工智能,這也可能造成合規(guī)問題。
由于人工智能存在偏見的風(fēng)險(xiǎn),雇主應(yīng)在其政策中包括一項(xiàng)一般性禁止在未經(jīng)法律部門批準(zhǔn)的情況下在就業(yè)決策中使用人工智能。
泄露隱私和違反保密條款機(jī)密性和數(shù)據(jù)隱私是雇主在考慮員工如何在工作中使用 ChatGPT 時(shí)考慮的其他問題。員工在與 ChatGPT 進(jìn)行“對(duì)話”時(shí)可能會(huì)共享專有、機(jī)密或商業(yè)機(jī)密信息。盡管 ChatGPT 表示它不會(huì)保留對(duì)話中提供的信息,但它確實(shí)從每次對(duì)話中進(jìn)行“學(xué)習(xí)”。當(dāng)然,用戶正在通過互聯(lián)網(wǎng)在與 ChatGPT 的對(duì)話中輸入信息,并且無法保證此類通信的安全性。
如果員工向 ChatGPT 透露敏感信息,雇主的機(jī)密信息可能會(huì)受到影響。謹(jǐn)慎的雇主將在員工保密協(xié)議和政策中禁止員工在人工智能聊天機(jī)器人或語言模型(如 ChatGPT)中引用或輸入機(jī)密、專有或商業(yè)秘密信息。
一個(gè)很好的論點(diǎn)是,在線提供給聊天機(jī)器人的信息不一定是商業(yè)秘密的披露。另一方面,由于 ChatGPT 接受了大量在線信息的訓(xùn)練,員工可能會(huì)從該工具接收和使用商標(biāo)、版權(quán)或其他個(gè)人或?qū)嶓w的知識(shí)產(chǎn)權(quán)的信息,從而給雇主帶來法律風(fēng)險(xiǎn)。
雇主應(yīng)關(guān)注的其他問題除了這些法律問題之外,雇主還應(yīng)考慮他們?cè)诙啻蟪潭壬显试S員工在工作中使用 ChatGPT。雇主正處于考慮是否以及如何在其工作場(chǎng)所接受或限制使用 ChatGPT 的重要十字路口。
雇主應(yīng)該權(quán)衡員工使用 ChatGPT 執(zhí)行諸如撰寫常規(guī)信件和電子郵件、生成簡(jiǎn)報(bào)和創(chuàng)建演示文稿等任務(wù)可以實(shí)現(xiàn)的效率和經(jīng)濟(jì)性,以及員工自己執(zhí)行此類任務(wù)的潛在發(fā)展機(jī)會(huì)損失。
ChatGPT不會(huì)消失,新的和改進(jìn)的版本應(yīng)該在一年內(nèi)推出。雇主最終需要解決其在工作場(chǎng)所的使用問題,因?yàn)橄乱淮蔚鷷?huì)更好。對(duì)于 ChatGPT 可能帶來的所有風(fēng)險(xiǎn),雇主也可以利用其優(yōu)勢(shì)。討論才剛剛開始。雇主可能會(huì)對(duì)此進(jìn)行一些學(xué)習(xí)和beta測(cè)試,ChatGPT也是如此。
關(guān)鍵詞: