一項路透社/Ipsos民意調查顯示,儘管像微軟和谷歌等企業限制使用ChatGPT,許多美國的員工仍然藉助ChatGPT處理基本工作任務。
人們可以利用ChatGPT輔助處理日常工作,例如撰寫文本、提取信息和進行初步研究,有助於提高工作效率。雖然ChatGPT給用戶帶來極大的便利,但一些公司擔心可能會面臨知識和戰略方面的風險。
在線人工智能調查於7月11日至17日期間進行,28%的受訪者表示他們在工作中經常使用ChatGPT,而只有22%的人表示他們的僱主明確允許使用這種外部工具。
路透社聯合Ipsos對2625名成年人進行調查,10%的受訪者表示他們的老闆明確禁止使用外部人工智能工具,約有25%的人不確定他們的公司是否允許使用這項技術。
ChatGPT是一個聊天機器人,自從在去年11月推出後,迅速成爲歷史上增長最快的應用程序。ChatGPT的開發公司OpenAI與監管機構之間產生了衝突。其中一個爭議點是OpenAI進行了大規模的數據收集,遭到了隱私監管機構的批評,引發了關於個人隱私和數據保護的擔憂。
人工智能審覈員來自不同公司,他們有可能會查閱由ChatGPT生成的對話內容。研究人員發現,類似的人工智能可以重現其在培訓過程中收集的數據,重新生成類似原始對話的內容。使用這些人工智能工具時需要考慮數據隱私和保護的重要性。
企業安全公司Okta的副總裁Ben King稱,用戶在使用生成式人工智能服務時可能缺乏對其數據收集方式的深刻了解。因爲用戶使用許多人工智能服務時並沒有與其簽署合同,尤其是對於免費提供的服務而言。企業需要更加關注數據隱私和安全問題,以確保他們的數據在使用過程中得到適當的保護和管理。
個人員工使用ChatGPT可能產生哪些影響,OpenAI拒絕予以回應。OpenAI最近發佈的文章稱,OpenAI在使用合作伙伴的數據時,會尊重數據的使用目的,並且不會未經授權地將這些數據用於進一步訓練聊天機器人。
用戶在使用谷歌的Bard時,可能會收集用戶的不同類型數據。該公司允許用戶從其帳戶中刪除歷史記錄,同樣刪除輸入到人工智能中的內容,但谷歌沒有就進一步的細節作出解釋。
Tinder的美國員工表示,儘管該公司沒有正式允許員工使用ChatGPT,但部分員工仍然將其用來處理日常郵件等工作。儘管公司規定不允許使用該技術,但員工仍在一些日常任務中使用它,如製作有趣的日曆邀請函和離職告別郵件,還可能用於一般性的研究。他們使用了一種不透露公司內部信息的通用方式,以便遵循公司的規定同時保護自己的隱私。
路透社無法驗證關於Tinder員工使用ChatGPT的具體情況,不過Tinder公司表示會定期向員工提供指導,保障員工數據使用的安全性。
今年5月,三星電子發現員工將敏感代碼上傳到平臺後,禁止各地員工使用ChatGPT和類似的人工智能工具。三星在8月3日的一份聲明中稱,正在採取審查措施,以創造一個安全的生成式人工智能使用環境,並有助於提高員工的生產力和效率。在這些措施完全準備就緒之前,他們暫時禁止在公司設備上使用生成式人工智能。
今年6月,路透社報道稱,Alphabet在全球範圍內推廣Bard聊天機器人,同時提醒世界各地員工關於Bard聊天機器人的使用方式。
谷歌表示,雖然Bard可能會提出不受歡迎的代碼建議,但該智能工具對提升程序員的工作效率具有實際意義。該公司還表示,將致力於對Bard技術的侷限性進行透明度披露。