谷歌的.jpg

出海痛点很多?点击这里解决


题图来源 | pexels

新浪科技讯,北京时间 6 月 16 日早间消息,据报道,知情人士表示,谷歌母公司 Alphabet 在全球范围内推销聊天机器人软件的同时,正警告内部员工在使用 Bard 等聊天机器人时应该保持谨慎。

消息称,基于长期以来的信息保密政策,Alphabet 建议员工不要将机密信息输入聊天机器人。

包括 Bard 和 ChatGPT 在内的聊天机器人可以用与人类类似的风格与用户对话。它们基于生成式人工智能技术,能根据用户输入的提示做出回复。然而在使用聊天机器人的过程中,人工审核员可能会阅读聊天记录。研究人员也发现,人工智能模型可以复制在训练过程中接收的数据,从而产生数据泄露风险。

一些知情人士还说,Alphabet 已经提醒工程师,避免直接使用聊天机器人去生成软件代码。

对于这一消息,Alphabet 回应称,Bard 可能会提出不合适的代码建议,但仍可以给程序员带来帮助。此外,该公司的目标是对技术局限性保持透明的态度。

这一消息表明,尽管谷歌推出了自己的软件与 ChatGPT 竞争,但谷歌也极力避免这样的软件对公司业务造成损害。谷歌正在与 ChatGPT 的开发者 OpenAI 和微软展开竞争,新的人工智能软件将对广告和云计算行业造成深远影响。

这也表明,在面对生成式人工智能技术时,企业正在制定新的信息安全标准,包括要求员工不使用公开的聊天机器人软件。

三星、亚马逊和德意志银行等公司都表示,全球越来越多的企业已经针对人工智能聊天机器人设置了“护栏”。有消息称,苹果也采取了类似做法。

社交网站 FishBowl 对近 1.2 万名受访者进行的一项调查显示,截至今年 1 月,大约 43% 的专业人士正在使用 ChatGPT 或其他人工智能工具,并且通常不会告知他们的老板。受访者中包括部分美国大公司的员工。

今年 2 月,谷歌曾对测试 Bard 聊天机器人的员工表示,在 Bard 推出之前不要向其输入内部信息。目前,谷歌正在 180 多个国家推出 40 多个语言版本的 Bard,辅助用户的创意工作。但同时,谷歌对内部员工的警示已经拓展到了 Bard 提供的代码建议。

谷歌表示,该公司已经与爱尔兰数据保护委员会进行了具体的对话,正在回答监管机构的问题。本周二有报道称,谷歌将推迟本周在欧盟推出 Bard 的计划,等待有关聊天机器人隐私问题的更多信息。

生成式人工智能技术可以起草电子邮件、文档,甚至开发软件本身,从而极大地加快任务的执行速度。然而,人工智能生成的内容中可能包含错误信息、敏感数据,以及《哈利波特》等小说中受版权保护的段落。

谷歌在 6 月 1 日更新的隐私声明中也写道:“不要在与 Bard 的对话中包含机密或敏感信息。”

一些公司已经开发软件来解决这方面担忧。例如,信息安全公司 Cloudflare 正在推广一项新服务,帮助企业标记和限制数据的对外流动。

谷歌和微软同时也在向商业客户提供非公开的人工智能对话工具。这些工具的价格更高,但不会将数据吸收到公开的人工智能模型中。Bard 和 ChatGPT 的默认设置会保存用户的对话历史,用户可以选择删除。

微软消费者业务首席营销官优素福·迈赫迪(Yusuf Mehdi)表示,公司不希望员工在工作时使用公开的聊天机器人,这是“有道理的”。他解释了微软免费的必应聊天机器人与企业版软件的不同,并表示:“公司采取适当的保守立场,(企业软件)的政策要严格得多。”

微软拒绝回应,是否会全面禁止员工将机密信息输入公开的人工智能软件,包括微软自己的软件。不过微软的另一名高管表示,他个人会限制对公开聊天机器人的使用。

Cloudflare 首席执行官马修·普林斯(Matthew Prince)说,在聊天机器人上输入机密信息就像“让一群博士生获得你的所有私人记录”。