谷歌今天宣布,它正在为搜索添加新的人工智能功能。不,这与谷歌声名狼藉的BardAI会话聊天机器人无关。您需要了解的第一件事是,AI对Google搜索来说并不陌生。
正如该公司指出的那样,“自搜索早期以来,人工智能帮助我们理解语言,使结果更有帮助。多年来,我们加深了对人工智能的投资,现在可以理解多种形式的信息——从语言“理解图像理解、视频理解甚至理解现实世界。今天,我们分享了一些新方法,我们正在应用我们在AI方面的进步,使探索信息更加自然和直观。”
GoogleLens现在将“搜索您的屏幕”
因此,我们要讨论的第一个Google功能是GoogleLens,它是一个人工智能搜索引擎,使用您的照片或实时相机预览而不是文字。想要惊喜吗?镜头每月使用超过100亿次。Lens的更新将在接下来的几个月内发布,这将允许Android用户“搜索你的屏幕”。更新后,您将能够使用Lens从网站、消息和视频应用程序中搜索照片和视频,而无需离开应用程序。凉爽的。
谷歌举了一个例子。“假设你的朋友给你发了一条消息,里面有他们探索巴黎的视频。如果你想了解更多关于你在背景中发现的地标的信息,你只需长按Android手机上的电源或主页按钮(这会调用你的GoogleAssistant),然后点击“搜索屏幕。Lens将其识别为卢森堡宫,您可以点击了解更多。”
Google的multisearch允许用户使用GoogleLens同时使用文本和图片进行搜索。假设您要搜索特定项目。在Google应用程序中,您可以点击显示屏顶部搜索栏右侧的镜头图标。假设您想知道在哪里可以买到Lindy'sHomemadeItalianIce。所以你拍了一张容器的照片。但是假设您正在寻找一种特定的口味。以下是添加此信息的方法。
Multisearch很快将可用于“您附近”的本地搜索
拍摄图像后,结果会部分显示在屏幕底部。向上拖动标签支架,您将看到镜头搜索的结果,顶部有一个按钮,上面写着“+添加到您的搜索”。点击该按钮,将出现一个字段,您可以在其中添加文本。在这种情况下,我们想找到Lindy的西瓜冰,所以我们输入“西瓜”并点击QWERTY右下角的放大镜图标(通常是“Enter”),您将获得更有针对性的结果页面.
Multisearch可在全球范围内通过移动设备以及您可以使用GoogleLens功能的所有语言和国家/地区使用。但您现在可以通过在Lens搜索中添加“靠近我”一词来进行本地搜索,以找到离您更近的您想要的东西。此功能现在以英语为美国用户提供,并将在未来几个月内在全球范围内添加。更令人兴奋的是,在接下来的几个月中,您将能够对在移动版Google搜索结果页面上找到的任何图像使用多重搜索。
谷歌再次举了个例子。“例如,您可能正在搜索“现代客厅创意”并看到一张您喜欢的咖啡桌,但您更喜欢它的另一种形状——例如,矩形而不是圆形。您将能够使用multisearch添加文本“矩形”以找到您正在寻找的样式。我们正在创造更自然和视觉化的搜索体验——但我们只是触及了表面。未来,在AI的帮助下,可能性将是无限的。”