据《纽约时报》报道, 最近 OpenAI 的人工智能聊天机器人 ChatGPT 的推出在谷歌内部引起了警觉。现在,《泰晤士报》称,谷歌计划“今年展示其具有聊天机器人功能的搜索引擎版本”,并公布 20 多个由人工智能驱动的项目。
就在去年 12 月,我们还听说谷歌高管担心,尽管在 AI 技术上投入了大量资金,但如果行动太快而无法推出,可能会损害公司的声誉。但事情正在迅速变化。今天早上早些时候,谷歌宣布将裁员 12,000 多名员工,并将人工智能作为最重要的领域。
没有提到谷歌人工智能搜索演示的具体时间表,但纽约时报看到的幻灯片演示中的其他项目显然将在 5 月份的年度 I/O 活动中首次亮相,该活动此前推出了Duplex和谷歌眼镜等功能.
情况非常严重,以至于《泰晤士报》还报道说,谷歌创始人拉里佩奇和谢尔盖布林——他们仍然是谷歌母公司 Alphabet 的控股股东——已经向公司领导人“提供建议”,批准了计划,并在与高管会面时提出了想法谈论上个月的 ChatGPT。它指出,这种重新参与的程度是他们在 2019 年离开日常工作后发生的转变,是应谷歌 / Alphabet 首席执行官桑达尔皮查伊的邀请而来的。
聊天机器人搜索的演示表示,谷歌将优先考虑“正确处理事实、确保安全和消除错误信息”,希望解决人工智能自信、清晰地响应错误信息查询的问题。与此同时,它还在研究加快审查流程的方法,这些审查流程应该检查技术,看看它是否以公平和道德的方式运作。
报告中提到的新产品发布由包括负责其研究和人工智能部门的 Jeff Dean 在内的高管小组介绍,其中包括一个“创建和编辑图像”的图像生成工作室、一个用于测试产品原型的应用程序,以及一组其他企业可以使用这些工具在名为 MakerSuite 的浏览器窗口中创建 AI 原型。该公司还在开发一种名为 PaLM-Coder 2 的代码生成工具,该工具类似于微软的 GitHub Copilot软件,以及另一种有助于为智能手机构建应用程序的工具,名为 Colab + Android Studio。
与一些竞争对手相比,谷歌近年来在人工智能方面的做法较为保守
近年来,谷歌在发布新的人工智能产品时非常谨慎。在解雇了人工智能领域的两位著名研究人员Timnit Gebru 和 Margaret Mitchell之后,该公司发现自己处于人工智能伦理争论的中心。两人提出了对 AI 语言模型的批评,指出了挑战,例如它们倾向于放大训练数据中的偏差并将虚假信息呈现为事实。
尽管谷歌的 AI 研究被认为与其他知名科技公司一样先进,但它只测试了具有特别限制性护栏的软件。例如,该公司的 AI Test Kitchen 应用程序提供对类似于 OpenAI 的 DALL-E 和 ChatGPT 的图像和文本生成工具的访问。但是,Google 严格限制用户可以对这些系统提出的请求。该公司已经展示了自己的一些聊天类 AI 产品,包括 2021 年的非公开演示,类似于 ChatGPT 的系统。
然而,随着 OpenAI 的 ChatGPT 的推出,以及关于谷歌即将倒闭的危言耸听的警告,该公司似乎正在修改其策略。过去,谷歌曾表示,由于潜在的“声誉损害”,它避免推出某些人工智能产品。现在,它想要避免的名声似乎是落伍了。