除了新的 Lens AR 翻译体验外,Google 还在今天的年度搜索活动中宣布了一系列搜索增强功能。该公司透露,其多搜索工具将很快以70多种语言提供,今年5月在I / O上展示的新多搜索“附近我”功能将于今年秋天向美国用户推出。Google还让我们第一次看到了未来几个月即将推出的一些非常酷的功能。以下是Google在今天的活动中讨论的一些最值得注意的功能的简要概述。
增强的视觉效果
Google搜索将很快提供增强的视觉体验,以帮助用户探索某个主题。即将到来的更改将为查询提供更多相关和有用的信息,包括来自开放网络上的创作者的内容。例如,Google表示,在搜索城市等主题时,用户将看到访问过该城市的人的故事和短视频。
在白色背景上显示 Google 搜索中新视觉体验的屏幕截图。
此外,Search还将显示有关如何探索城市,要做的事情以及如何到达那里以帮助用户轻松计划旅行的提示。这项新体验将在未来几个月内在美国以英语推出。谷歌目前尚未分享任何更广泛推广的计划。
谷歌搜索也获得了新的体验,“更好地反映了人们如何自然地探索信息,从更容易提问开始。在搜索框中键入内容时,新体验将提供关键字或主题选项,以帮助用户轻松形成搜索查询。
例如,当您在墨西哥查找目的地时,“搜索”将通过提供“墨西哥最适合家庭的城市”等选项来自动帮助您指定问题。通过这种新体验,Google旨在帮助用户找到任何主题的更相关的结果。谷歌计划在未来几个月内在美国推出英文版。
除了帮助用户形成查询之外,谷歌还将开始显示相关主题,以帮助用户“更深入地了解或找到某个主题的新方向”。用户将能够添加或删除主题,从而允许他们在生成查询时发现他们可能没有想到的内容。
Google应用程序将很快使用户可以访问搜索栏下方的几个有用的快捷方式。这些快捷方式可让您一键“购买屏幕截图,使用相机翻译,嗡嗡声搜索等”。此功能将首先在美国以英文版在iOS的谷歌应用程序上推出,谷歌可能会在不久的将来为Android用户发布此功能。
最后,Google还在重新构想如何在搜索中显示结果,以更好地反映用户如何浏览主题。在接下来的几个月中,搜索结果将开始向用户显示来自各种来源的更多相关内容,无论格式如何。从本质上讲,搜索结果将不限于文本,而是包含相关的图像和视频。