Google uvedl v život povedenou funkci ve své stejnojmenné aplikaci, kterou představil loni na podzim. Jedná se o tzv. Multisearch, tedy pokročilé vyhledávání, které tento proces posouvá na novou úroveň. Odpadá u něj zdlouhavý postup, kdy uživatel musí při vyhledávání vysvětlovat celý dotaz.



Multisearch v aplikaci Google dokáže porozumět kontextu z fotografie a reagovat na relevantní dotazy z vyhledávání.
Stačí například naskenovat fotoaparátem určitý objekt a následně jen napsat dotaz, který vás okolo předmětu na obrázku zajímá. Google využívá pokročilou technologii pro vyhledávání zvanou MUM – Multitask Unified Model, která dokáže pochopit mnohem komplexnější dotazy. Na loňské prezentaci jsme mohli vidět působivé demo, kdy stačilo telefonem vyfotit rozbitou přehazovačku u kola a jen napsat dotaz, jak se dá opravit. Telefon rozpoznal kolo a dokázal najít návod.
Aplikace je však vytrénovaná i pro jiné úkoly. Specialitou je například nakupování. Například stačí vyfotit kus oblečení v některé barvě a zeptat se zda existuje i v jiné a aplikace by měla být schopna jej vyhledat. Hodit se může i zahrádkářům, kteří budou moci vyfotit rostlinu a rychle zjistit návod jak se o ni starat. Možnosti využití jsou mnohem širší a rozhodně budou přibývat.
To, co se ještě na podzim mohlo vzdát jako vzdálená budoucnost, nyní přichází v první beta verzi. Brzy bude dostupná finální aplikace Google pro uživatele Androidu i iOS, nejdříve ji dostanou už tradičně uživatelé ve Spojených státech. Vzhledem k tomu, že je ale aplikace Google globální záležitostí, je jen otázkou času, než bude použitelná i u nás.
Demo Multisearch v Google Lens:
Zdroj: Google