美国员工秘密使用AI的背后:效率与风险并存的双刃剑
根据CNBC周六的一份报告,美国各地的工人正在秘密使用人工智能(AI)来加速任务、处理工作量,甚至平衡多个工作,而他们的老板对此一无所知。
随着ChatGPT、Gemini和Bing AI等工具逐渐渗透到工作场所,员工开始依赖这些技术更快地完成工作。然而,公司却在争先恐后地制定政策以规范AI的使用,以免其失控。
大型科技公司在投入数十亿美元开发人工智能的同时,也对员工提出了更高的效率要求。这迫使那些仍在岗位上的员工承担更多任务。与此同时,首席信息安全官(CISO)们正面临严峻挑战,因为机密的公司数据可能被输入公共AI聊天机器人,从而暴露商业秘密。
当AI接管时,公司正在失去控制
员工秘密转向AI工具的原因很简单——它们非常实用。麦肯锡全球研究所的迈克尔·楚(Michael Chui)告诉CNBC,工人们总是会在公司正式采用某项技术之前率先使用它。他将这一现象与过去员工在公司提供设备前自行购买个人电脑和手机的行为进行了比较。
“即使它没有受到批准或祝福,人们也发现[聊天机器人]有用。”他说,“人们在企业行动之前很久就开始购买手机了。”
问题在于,AI会从用户输入中学习,并且像ChatGPT和Gemini这样的公共模型会存储和处理它们接收到的数据。这意味着敏感的公司信息可能已经存在于AI数据库中,可以被任何使用该模型的人访问。
Chui表示:“如果您是一家公司,则不希望您的员工用机密信息提示公开聊天机器人。” “因此,您可以提供技术手段,例如许可该软件并通过可执行的法律协议确保数据不会外泄。”
CISO们已经被网络攻击、自动化需求以及持续的AI安全威胁搞得焦头烂额。许多公司仍然缺乏明确的AI政策,这意味着员工正在与公司并不拥有的聊天机器人共享内部信息。
虽然一些企业已经在基于云的平台上实施了安全策略,但AI的出现改变了游戏规则。未能及时采取AI安全措施的公司现在面临着关键数据泄露的风险。
一些公司正在建立私人AI,但大多数公司负担不起
为了重新获得控制权,一些企业尝试通过构建私人AI模型或雇佣公司开发安全的定制聊天机器人来解决问题。Ceipal首席执行官Sameer Penakalapati表示,创建自定义AI平台是防止机密数据流入公共AI工具的最佳方法之一。
如果公司能够建立自己的AI助手,就可以在阻止未经授权的数据共享的同时,为员工提供经过公司批准的信息。即使是雇佣外部AI公司创建定制GPT模型,也比允许员工无限制地使用公共AI工具更加安全。
Microsoft正在研究可定制的AI模型,而像Ceipal和Beamery TalentGPT这样的平台已经可以自动处理人力资源流程。然而,构建私人AI的成本高昂,大多数企业并没有足够的资源来实现这一点。
Penakalapati说:“我总是告诉人们,确保您拥有基于公正和准确的数据提供信息的技术。” “因为这项技术不是偶然创建的。”
AI系统的功能取决于它们接收到的数据,这意味着糟糕的数据管理可能会带来严重的业务风险。如果公司无法控制AI的学习内容,它可能会传播错误信息、引入偏见,甚至做出具有法律风险的决策。
美国工人正在兼顾多份工作,AI成为他们的生存利器
员工不仅利用AI提高效率,还依靠它来应对生活压力。从未有过如此多的美国人同时从事多份工作,而AI正在帮助他们管理工作量。
当前的美国就业市场竞争激烈。由于工资增长跟不上通货膨胀,越来越多的工人不得不依靠多份工作维持生计:
- 目前有886万美国人拥有多个工作。
- 5.4%的工人正在管理多份工作,这是过去16年来的最高比例。
- 全职工作加兼职工作的员工数量在2月份增加了39.5万人,达到537万人,创下25年来的新高。
- 出于经济原因从事额外工作的兼职工人上个月增加了46万人,达到494万人,为2021年5月以来的最高水平。
面对不断上涨的生活成本,工人正在依靠AI来平衡日益繁重的工作量、副业和第二份工作。AI可以帮助自动化重复性任务、生成报告、起草电子邮件,并协助员工在要求越来越高的劳动力市场中维持生计。
加密大都会学院:想在2025年让您的资金增值吗?在即将到来的WebClass中学习如何操作DeFi。保存您的位置
免责声明:
1.资讯内容不构成投资建议,投资者应独立决策并自行承担风险
2.本文版权归属原作所有,仅代表作者本人观点,不代币币情的观点或立场