文章主题:三星, 人工智能, 政策, OpenAI
根据一份公司内部通知,本周三星公司实行了一项新的规定,该规定明确禁止员工在工作场合使用诸如OpenAI的ChatGPT和谷歌Bard等生成型人工智能产品。
三星公司最近表示,其一名员工在4月份不慎将公司的内部源代码上传到了ChatGPT平台上。这一事件引起了三星的警觉,因为它担心这些敏感信息可能会被泄露并最终提供给其他用户。
在当前的科技环境中,三星公司对其员工使用人工智能工具的规定显得较为严格。根据公司的规定,员工在公司设备上,如电脑、平板电脑以及手机等,是被禁止使用人工智能工具的。然而,在个人设备上,员工仍然可以使用的是一些人工智能工具,但必须确保这些工具的使用是与工作无关的。这样的规定在一定程度上体现了三星公司在保护公司利益的同时,也十分注重员工的权益。
在备忘录中,我们再次提醒全体员工,务必严格遵守安全规定。任何违反安全准则的行为都可能导致公司信息或数据的泄露,对此我们将采取严格的纪律措施。对于严重违规者,我们将毫不犹豫地启动解雇程序。请各位同事深刻理解并严格遵守相关制度,确保公司的信息安全得到充分保障。
三星表示,公司正努力构建一个安全环境,以确保生成式人工智能能够在无任何风险的前提下,助力员工提升工作效率。然而,在此过程中,人工智能的使用将受到一定程度的限制。
与此同时,三星正在研发自己的人工智能工具,供员工完成软件开发和翻译等工作。
保持距离
尽管三星并非首个禁止员工使用人工智能工具的企业,但在金融领域,包括摩根大通、美国银行以及花旗等大型银行在内的多家公司已经采取了相应的措施,限制员工接触人工智能相关工具。
众多银行纷纷表达了对第三方软件接触敏感信息可能带来的潜在威胁的担忧,同时,他们对于人工智能可能带来的财务信息泄露问题也感到忧虑。这种担忧导致了更为严格的监管措施的实施,以确保这些关键信息得到妥善保护。
此外,1月时,科技巨头亚马逊也同样出于数据保护的考量,警告员工不要在工作场合中使用ChatGPT。
OpenAI在四月份宣布将采取一系列新措施以解决数据泄露的问题,其中之一是允许用户禁用聊天记录功能。一旦用户关闭了聊天记录功能,ChatGPT将会把新的对话保存30天。只有在有需要监控和防范滥用的情况下,OpenAI才会对这些对话进行审查,并在确认存在滥用风险后,对这些对话进行永久性删除。
谷歌则表示将通过自动化工具帮助删除用户的个人身份信息,来改进Bard的隐私安全。谷歌还保证,用户与Bard的对话将由专家进行审阅,并与用户的谷歌账户分开保存3年。
三星, 人工智能, 政策, OpenAI

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!

