谷歌搜索今年迎来 25 周年,虽然生日还没到,但今天公司高管宣布,搜索功能将迎来一些备受期待的 AI 增强更新。除了搜索,谷歌还在扩展其 AI 能力,为翻译服务、地图以及在艺术和文化领域的工作带来新功能和改进。
在周一宣布推出名为 Bard 的 ChatGPT 类 AI 聊天机器人版本后,谷歌高级副总裁 Prabhakar Raghavan 于周三在从法国巴黎直播的谷歌 AI 活动上现场演示了 Bard。
Raghavan 强调,谷歌在 Transformer(一种用于语言模型和机器学习的神经网络架构)方面的开创性研究,为我们今天看到的许多生成式 AI 奠定了基础。他指出,虽然基于纯事实的查询是如今我们所熟知的 谷歌搜索 的主要业务,但那些“没有唯一正确答案”的问题,可以通过生成式 AI 更好地解决,后者可以帮助用户组织复杂的信息和多方观点。
他们新推出的对话式 AI Bard,是基于他们 2021 年开发的语言工具 LaMDA 的一个较小模型构建的,其目的是,例如,帮助用户在购买车辆时权衡不同车型优缺点。Bard 目前正在小范围测试中,并将很快扩展到更多用户。
[相关:谷歌自己的 AI 聊天机器人将借鉴其搜索引擎的强大功能]
然而,这次亮相并没有公司计划的那么顺利。 多家 出版物 注意到,在谷歌分享的关于新 AI 搜索功能的一篇 社交媒体帖子 中,Bard 在回答演示问题时提供了错误信息。具体来说,当被问及:“我可以告诉我 9 岁的孩子关于詹姆斯·韦伯太空望远镜的哪些新发现?”时,Bard 回答说:“JWST 拍摄了我们太阳系外行星的首批照片”,这是不准确的。据 《路透社》 和 NASA 称,首批太阳系外行星的照片是由欧洲南方天文台的甚大望远镜 (VLT) 于 2004 年拍摄的。
考虑到昨天微软宣布将 ChatGPT 的 AI 集成到公司 Edge 浏览器和搜索引擎 Bing 中的轰动效应,这次失误的时机非常不巧。
尽管 Bard 的发布有些磕绊,但谷歌确实宣布了许多 AI 增强功能将陆续应用到其其他核心服务中。
[相关:谷歌即将更好地理解复杂问题]
在基于谷歌图像识别技术的 Lens 应用中,谷歌将在未来几个月内为 Android 用户带来“屏幕搜索”功能。这将允许用户点击他们消息、网页浏览器和其他应用中的视频或图片,然后让 Google Assistant 查找可能出现在视觉内容中的物品或地标的更多信息。例如,如果一位朋友发送了她巴黎之行的视频,Google Assistant 可以搜索视频的屏幕,并识别其中出现的landmarks,如卢森堡宫。这是谷歌将视觉、音频和文本等不同模式混合到搜索中的更广泛努力的一部分,以帮助其处理 更复杂的查询。
在 地图领域,谷歌在去年的 2022 年 I/O 大会上预告的沉浸式视图 (Immersive View) 功能今天开始推出。沉浸式视图使用一种称为神经辐射场的方法,通过二维图像生成三维场景。它甚至可以重现光照和物体纹理等细微细节。
[相关:谷歌 I/O 回顾:所有正在进行的很酷的 AI 驱动项目]
除了沉浸式视图功能,谷歌还将为地图带来 Live View 搜索功能,让用户可以通过手机摄像头扫描周围的街道,即时获取附近商店和企业的增强现实信息。该功能目前在伦敦、洛杉矶、纽约、巴黎、旧金山和东京可用,但很快将扩展到巴塞罗那、都柏林和马德里。对于电动汽车驾驶员,AI 将用于建议充电站并规划考虑交通、能源消耗等因素的路线。用户可以期待这些改进逐渐应用到谷歌正在进行的基于数据 Namely 的项目中,例如 环境洞察浏览器 和 Project Air View。
最后,谷歌展示了其在 艺术和文化 项目中利用 AI 设计工具的一些成果。正如一些人可能记得的,过去几年谷歌曾利用 AI 在古老艺术中 找到你 和 你宠物的“分身”。除了解决帮助社区保存语言词汇表、数字修复绘画和其他 文化遗产 以及揭示女性在科学领域历史贡献等研究挑战外,AI 还被应用于更具趣味性的方面。例如,Blob Opera 是基于对真实现场歌剧演唱家声音训练的算法构建的。然后,神经网络会根据其人类歌唱模型,对如何演唱和和声进行自己的解读。
完整演示视频如下:
更新于 2023 年 2 月 13 日:本文已更新,以澄清 Bard 在社交媒体帖子中提供了错误信息,而不是在直播活动本身。本文还更新了删除一条关于直播结束与谷歌发布活动视频之间延迟的句子。