当前位置:龙泉人才网 - 科技 -

谷歌内测员工称 Bard 为“病态的骗子”,为追赶 ChatGPT 不顾道德伦理?

  • 科技
  • 2023-04-24 13:28
  • CSDN

谷歌内测员工称 Bard 为“病态的骗子”,为追赶 ChatGPT 不顾道德伦理?

【CSDN 编者按】AI 行业的快速发展,已经从学术转向了工业化,在商业利益的诱惑下,各种 AI 正在涌现,但背后所带来的伦理道德、安全、敏感、有害等信息却逐步被忽视。

原文链接:https://www.bloomberg.com/news/features/2023-04-19/google-bard-ai-chatbot-raises-ethical-concerns-from-employees?leadSource=uverify%20wall

未经允许,禁止转载!

整理 | 王子彧

出品 | CSDN(ID:CSDNnews)

ChatGPT 一经面世就备受追捧,甚至成为各大企业竞相追逐的目标,而一直走在 AI 前沿的 Google 在发布 Bard 后却接连翻车,甚至引来自家员工的吐槽。根据内部讨论的截图,谷歌一位员工称 Bard 是个“病态的骗子”。另一个员工表示 Bard“令人尴尬”。一位员工写道,当他们向 Bard 询问如何降落飞机时,它给出导致坠机的建议;另一位员工则表示,Bard 提供的关于潜水的建议“可能会导致重伤或死亡”。

为追赶 ChatGPT,将道德伦理置之不顾

在 2020 年底和 2021 年初,因为撰写了一篇批评大型人工智能模型(包括谷歌开发的模型)危害的研究论文,谷歌裁掉了公司的两名研究人员 Timnit Gebru 和 Margaret Mitchell。

谷歌内测员工称 Bard 为“病态的骗子”,为追赶 ChatGPT 不顾道德伦理?

丑闻发生后,谷歌试图提高其公众声誉。2021 年,谷歌承诺,要将研究 AI 伦理道德的团队成员扩大一倍,并投入更多资源评估 AI 技术的潜在危害。然而,在 2022 年 11 月,随着竞争对手 OpenAI 的聊天机器人 ChatGPT 的火爆出圈,谷歌高级管理层就发出了“红色警报”。在内部开始要求尽快将生成式 AI 技术集成旗下所有主要产品中。

员工们表示,谷歌的管理层决定,只要把新产品称为“实验”,公众就可以原谅他们的缺点。当月,谷歌人工智能伦理负责人 Jen Gennai 召开了创新小组会议,她表示为了加快产品发布的步伐,谷歌可能有必要做出一些妥协。

谷歌分别为几个重要类别的产品进行打分,看看这些产品是否准备好向公众发布。在儿童安全等一些领域,工程师仍然需要 100% 解决潜在问题。在其他领域, Jen Gennai 表示,“我们可能只要到 80 分、85 分,或更高的水平,就可以满足产品发布的需求。”

在一份声明中, Jen Gennai 表示,这不仅仅是她这个层级的决定。在团队做出评估之后,她“列出了潜在风险清单,并将分析结果”升级提交给产品、研究和业务线的高级管理层。她表示,该团队随后判断,“可以通过有限制的实验性发布的形式向前推进,包括继续进行预训练,提高安全围栏,以及做出适当的

免责声明:本文内容来源于网络或用户投稿,龙泉人才网仅提供信息存储空间服务,不承担相关法律责任。若收录文章侵犯到您的权益/违法违规的内容,可请联系我们删除。
https://www.lqrc.cn/a/keji/10649.html

  • 关注微信

猜你喜欢

微信公众号