由于其安全性问题,一直备受各大技术公司关注,从一开始就备受关注的 ChatGPT,这次却轮到了市值千亿的三星。
根据国外媒体的报导,三星最近发布了一份公司的内部通知,要求其员工们不再使用诸如 ChatGPT和Bard的生成式AI工具,因为他们害怕这些产品的安全性问题。
三星公司的担忧不是没有道理的。之前有报道称,在三星公司引入“ChatGPT”不到20天就涉及了3起生成式AI事故。同时,许多跨国投资银行和技术企业现在都对 ChatGPT保持着警惕。
然而,在禁止员工使用类似于 ChatGPT的软件时,并不表示三星对人工智能的做法是封闭的。根据海外技术新闻的报导,三星公司推出了最新版本的 BingAI,让其在其移动电话和平板上,可以让其用户在其移动电话和平板上,直接享受到微软 BingAI的服务。
下面,我们来看看详细情况。
违反规定的人将被开除
三星公司已经发布了一份内部通知,要求其员工们不再使用诸如 ChatGPT和Bard这样的生成式AI产品,因为他们害怕这些产品的安全性问题。
报导说,该公司的一份内部备忘录中说,三星公司害怕传输到如谷歌Bard、微软必应这样的 AI平台上的资料,都是存放在外部的服务器中,很难取回、删除,而且最后有向其它使用者泄漏的危险。
据三星公司上月开展的一次有关人工智能软件应用情况的调查,有65%的被调查者表示这类软件有潜在的安全性隐患,该公司的一份内部文件指出。四月上旬,三星的工程人员向 ChatGPT提交了一份内部的源码,其中的内容尚不明确。
同时,三星也在研发其自身的人工智能工具,用以进行文档的翻译、摘要和软体的研发,并试图阻断企业机密资料向外界上传。“总公司目前正对安保工作进行检讨,以便为利用可编程人工智能来提升工作人员的工作效率提供一个良好的工作环境。不过,在此之前,我们会对人工人工智能进行一定的控制。”
据悉,三星新出台的有关在其个人电脑、平板电脑、移动电话和企业内网上应用人工智能的规定,并不会对其面向用户的安卓智能电话和视窗便携式电脑等产品产生影响。
此外,三星还在声明中称:“请各位严格按照我方的保密规定行事,如有违反,将造成公司资料泄漏,违反规定的将受到惩戒,严重时将被开除。”
曾经发生过数据泄露事件
二十天内有三次
三星这一次以备忘录的形式提示所有职工的行为,绝非无的放矢。
之前有报道称,在三星公司引入“ChatGPT”的时间还不到20天就发生3起涉及生成式AI事故。在3个事件中,2个事件涉及到了半导体器件,1个事件涉及到了公司的内部开会。尤其是:
第一个案例:三星仪器解决方案部员工 A从「半导体仪器测试数据库」下载软件时,发现原码有问题,于是将有问题的部份拷贝至 ChatGPT以寻求解答。
第二个案例也是在一个装置解决项目中,员工 B向 ChatGPT中输入了一个用来确定生产合格率的程式码,并请求它对程式码进行优化。
案例三:该公司的员工 C,在手机将会议的内容转化成文件,并将文件录入到 ChatGPT中,以备会议纪要。
有关报导说,最初的两次事件已经使三星公司将其测试数据、产品合格率和其他保密信息输入了 ChatGPT的数据库。
不难看出,上面提到的三次泄露都是由三星公司的半导体和器件解决方案所引起的。之前,由于担心公司的秘密泄露,三星已经禁止了 ChatGPT芯片,但是从三月十一日开始,三星开始让 DS芯片公司可以利用它来构建“生成式 AI”。
针对以上泄露,三星表示已经强化了与ChatGPT有关的安保,并会继续强化公司的内部监督与人员训练。公司还专门发出了一条声明,提醒公司的员工们要谨慎对待 ChatGPT的使用方法,否则,公司将会停止 ChatGPT的服务。
三星在其内部声明中警告称:“一旦将这些信息写入 ChatGPT,这些信息将立即被传输到了一个外部的服务器上,并且被储存起来,公司将不能回收。如果让 ChatGPT知道了这些信息,那么这些信息很有可能会被不确定的人看到。”
微软必应人工智能升级
尽管暂时停止了对类似于 ChatGPT这样的软件的访问,但是这并不表示三星对人工智能的做法是完全封闭的。
根据国外媒体的消息,三星已经将微软的 Bing AI升级版发布到了其全部的手机和平板设备上,一旦升级完毕,三星的客户就可以在其手机和平板设备上,直接访问微软的 Bing AI。
根据韩媒三月报导,三星公司 DX业务主管韩钟熙(常务副主席)二十一日在首尔举办的新品发布会上说,公司将全力发展机器人产业,以其为新成长引擎,并加大对外的投资与合作。三星创投公司在同一天宣布,他们将使用由三星电子提供的资金,对一家名为 NewBility的新型机器人创业公司进行三十亿韩元的投资。
三星是韩国最大的跨国公司,旗下有许多国际性的分支机构,三星电子就是三星最大的分支机构。数字表明,三星公司的整体市场价值达到了391.06亿韩元。
在四月二十七日,三星公司发布了它在2023年的一季度收益报告。根据数字,三星在2023年的一季度将获得6402亿韩元的运营收益,与去年同期相比减少了95%,是14年以来的最低点;纯利为1.40兆韩元(72亿);该公司的销量为63.75兆韩元(3295亿元),较上年同期减少了18%.
令人担忧的是,三星公司的半导体部门在今年一季度损失了4.58兆韩元(236亿),相比之下,上年同期盈利8.45兆韩元。三星电子称,因技术产业持续不景气,记忆体晶片生意受到重创,今年一季度获利下滑,创下自经济危机后最大跌幅.
ChatGPT的安全性引发争论
三星并非头一个,也不会是头一个,因为对 ChatGPT进行“禁用”和“暂停”的大公司。
首先“拒绝” ChatGPT的是金融界。在这股风潮之后的二月份,摩根大通(JP Morgan Morgan),美国银行(American Bank),花旗(Citigroup),富国(WhiteBank),以及其他一些华尔街大亨也相继宣布,他们将会停止或者限制这种技术的应用。这不但是由于 ChatGPT是一个第三方的程序,而非企业自身的程序,而且由于与人工智能分享一些重要的金融信息存在着被监管的危险。
以摩根大通为例,禁止员工在自己的办公场所使用 ChatGPT为例,它说,这一禁止行动的原因并不在于具体的事故,而在于公司对第三方软件的常规控制。美国银行在定期警告其员工不要使用未被许可的软件时,还专门提到了 ChatGPT。
德意志银行宣布禁止其雇员在其公司使用 ChatGPT,并且在其内部切断了对 OpenAI的链接。虽然高盛一直在鼓励程序员们利用人工智能来帮助他们的程序设计,但是却一直在阻止他们的贸易商们使用 ChatGPT。
在韩国,除了三星之外,世界上排名第二的记忆体晶片制造商,韩国 SK海力士表示,除非是在迫不得已的情况下,否则将不会在企业内网上应用 ChatGPT。LG显示器是韩国 LCD屏幕的领头羊,它在公司内的贴吧和教育,活动等,无时无刻不在提醒着人们对公司内的资讯防护和防范外泄等方面的资讯安全知识。
日媒体称,日本软银公司已通知所有员工,其中包括禁止将保密资料写入 ChatGPT,并将就可应用于互动人工智能的商业和应用建立规范。瑞穗金融集团,三菱 UFJ银行,三井住友银行已经在商业上阻止了像 ChatGPT这样的交互人工智能的应用。直到松下控股旗下的松下连接公司做出了一个防止数据泄漏的措施之后,它还不能提供交互人工智能的应用。为了让使用者了解交互人工智能的应用,富士通还专门设立了一个“AI伦理管理办公室”。
在三月二十三日, OpenAI公司 CEO山姆·奥特曼(Sam Altman)就曾在开放源码类库中发现了一些 bug,从而造成了 ChatGPT和一些使用者之间的对话。同一天,他在推特上发表道歉声明说,他已修补了 bug,并完成了确认。
在政府层面,早些时候,意大利 PDA已经发布了对 ChatGPT的禁令,并且对 OpenAI公司在意大利地区的资料进行了限定。但是,意媒体星期五报导,在将近一个月的时间里, ChatGPT公司又重新开始了其在国内的业务。
四月三十日,七国集团数字和科技部长们通过了一项关于人工智能的基于风险的规则。七国集团的官员们发表了一份共同的声明,这些法规还应该为发展 AI技术提供一个公开的、扶持性的环境。
此外,最近欧洲联盟也提交了一项新法案,将会规定像 ChatGPT这样的人工智能软件的开发者,必须公开其所运用的知识产权资料。这条规定将赋予出版商和内容创造者以利益分享的权利,因为像 ChatGPT这样的人工智能工具用作生成的内容作为素材。