一项路透社/Ipsos民意调查显示,尽管像微软和谷歌等企业限制使用ChatGPT,许多美国的员工仍然借助ChatGPT处理基本工作任务。
人们可以利用ChatGPT辅助处理日常工作,例如撰写文本、提取信息和进行初步研究,有助于提高工作效率。虽然ChatGPT给用户带来极大的便利,但一些公司担心可能会面临知识和战略方面的风险。
在线人工智能调查于7月11日至17日期间进行,28%的受访者表示他们在工作中经常使用ChatGPT,而只有22%的人表示他们的雇主明确允许使用这种外部工具。
路透社联合Ipsos对2625名成年人进行调查,10%的受访者表示他们的老板明确禁止使用外部人工智能工具,约有25%的人不确定他们的公司是否允许使用这项技术。
ChatGPT是一个聊天机器人,自从在去年11月推出后,迅速成为历史上增长最快的应用程序。ChatGPT的开发公司OpenAI与监管机构之间产生了冲突。其中一个争议点是OpenAI进行了大规模的数据收集,遭到了隐私监管机构的批评,引发了关于个人隐私和数据保护的担忧。
人工智能审核员来自不同公司,他们有可能会查阅由ChatGPT生成的对话内容。研究人员发现,类似的人工智能可以重现其在培训过程中收集的数据,重新生成类似原始对话的内容。使用这些人工智能工具时需要考虑数据隐私和保护的重要性。
企业安全公司Okta的副总裁Ben King称,用户在使用生成式人工智能服务时可能缺乏对其数据收集方式的深刻了解。因为用户使用许多人工智能服务时并没有与其签署合同,尤其是对于免费提供的服务而言。企业需要更加关注数据隐私和安全问题,以确保他们的数据在使用过程中得到适当的保护和管理。
个人员工使用ChatGPT可能产生哪些影响,OpenAI拒绝予以回应。OpenAI最近发布的文章称,OpenAI在使用合作伙伴的数据时,会尊重数据的使用目的,并且不会未经授权地将这些数据用于进一步训练聊天机器人。
用户在使用谷歌的Bard时,可能会收集用户的不同类型数据。该公司允许用户从其帐户中删除历史记录,同样删除输入到人工智能中的内容,但谷歌没有就进一步的细节作出解释。
Tinder的美国员工表示,尽管该公司没有正式允许员工使用ChatGPT,但部分员工仍然将其用来处理日常邮件等工作。尽管公司规定不允许使用该技术,但员工仍在一些日常任务中使用它,如制作有趣的日历邀请函和离职告别邮件,还可能用于一般性的研究。他们使用了一种不透露公司内部信息的通用方式,以便遵循公司的规定同时保护自己的隐私。
路透社无法验证关于Tinder员工使用ChatGPT的具体情况,不过Tinder公司表示会定期向员工提供指导,保障员工数据使用的安全性。
今年5月,三星电子发现员工将敏感代码上传到平台后,禁止各地员工使用ChatGPT和类似的人工智能工具。三星在8月3日的一份声明中称,正在采取审查措施,以创造一个安全的生成式人工智能使用环境,并有助于提高员工的生产力和效率。在这些措施完全准备就绪之前,他们暂时禁止在公司设备上使用生成式人工智能。
今年6月,路透社报道称,Alphabet在全球范围内推广Bard聊天机器人,同时提醒世界各地员工关于Bard聊天机器人的使用方式。
谷歌表示,虽然Bard可能会提出不受欢迎的代码建议,但该智能工具对提升程序员的工作效率具有实际意义。该公司还表示,将致力于对Bard技术的局限性进行透明度披露。