Non c'è niente come un anniversario per spostare la tua prospettiva sulle cose.
Certo, ci costringe a guardare le cose a posteriori – dove eravamo allora, e dove siamo ora, comunque molti anni dopo. E per commemorare il suo 20 ° anniversario, questo è ciò che Google ha fatto oggi con un evento a San Francisco.
C'era una celebrazione, naturalmente – ma erano meno passati antipasti e altro, "Ecco dove andremo dopo."
Ecco alcuni degli annunci più importanti fatti oggi.
1. Modifiche ai risultati visivi
Una nuova (più grande) casa per le storie di AMP
Potresti avere familiarità con il progetto AMP (Accelerated Mobile Pages): l'iniziativa di Google per aiutare e incoraggiare i publisher a creare pagine che caricano rapidamente e offrono un'esperienza utente positiva generale.
All'inizio di quest'anno, Google ha introdotto AMP Story: contenuti a caricamento rapido quasi completamente visivi e molto coinvolgenti.
Se non hai mai visto storie di AMP, va bene – Google ha annunciato oggi che saranno più individuabili, elencandole sia nei risultati di ricerca di Google Immagini, sia in Google Discover (in precedenza Google Feed – altro su più tardi).
video correlati
Google ha anche annunciato oggi che sta utilizzando ciò che suona come machine learning per aiutare gli utenti a scoprire i contenuti video più utili per le loro query di ricerca.
Utilizzando l'esempio di visitare un parco nazionale per la prima volta, l'azienda spiega che ora comprende i contenuti di un video abbastanza bene da essere in grado di mostrarti i video più adatti alla tua situazione, ad esempio i punti di riferimento più importanti vedere all'interno di quel parco.
Credito immagine: Google
Più contesto per i risultati della ricerca di immagini
Per alcuni di noi, una ricerca di immagini di Google è un passatempo preferito (solo dicendo). A partire da questa settimana, durante l'evento di oggi, l'azienda ha dichiarato che i risultati della ricerca di immagini avranno ora più contesto, ad esempio didascalie che indicano chiaramente dove viene pubblicata l'immagine e più suggeriti, termini di ricerca simili nella parte superiore della pagina.
Credito immagine: Google
Alcune di queste modifiche erano già state introdotte sui dispositivi mobili: ora, avranno effetto sul desktop.
Google Lens per i risultati della ricerca di immagini
Google ha introdotto Lens – una tecnologia potenziata da intelligenza artificiale (AI) che aiuta a rispondere alle domande delle persone sulle foto scattate, come capire la razza di un cane – a maggio alla conferenza annuale sugli sviluppatori I / O.
Ora, Lens sarà disponibile nei risultati di ricerca di immagini per contribuire a fornire un ulteriore contesto. Sembra che il caso d'uso più pertinente qui sia per lo shopping. – Ad esempio, se si visualizza un'immagine con diversi oggetti al suo interno, Lens può analizzare (e in genere identificare) ciascuno di questi oggetti.
Gli utenti possono quindi selezionare uno di questi oggetti, dopodiché Google farà galleggiare i link verso i luoghi in cui possono essere acquistati.
Credito immagine: Google
2. L'alimentazione di Google è ora scoperta
Google ha prima distribuito la funzione Feed all'interno della sua app per lo stesso motivo per cui molte altre reti e piattaforme hanno un feed: per aiutare gli utenti a vedere le novità e scoprire i contenuti.
Google ha annunciato oggi che si sta appoggiando a quel secondo scopo: la scoperta. Quindi, Google Feed ha un nuovo nome: Scopri.
Ma ha anche un nuovo aspetto, secondo la dichiarazione ufficiale della compagnia – ancora una volta, per fornire più contesto. All'interno di Discover, il contenuto descritto avrà un'intestazione di argomento per consentire all'utente di sapere perché lo sta vedendo. E, se l'utente vuole esplorare ulteriormente questo argomento, sarà un processo nativo e senza soluzione di continuità.
Credito immagine: Google
Scopri sarà anche più personalizzato. Oltre a consentire agli utenti ulteriori opzioni di personalizzazione per i contenuti presenti nella scheda Scopri, in più lingue, non prenderà più in considerazione l'età del contenuto, a condizione che sia pertinente.
Ad esempio, se visito Honolulu per la prima volta e voglio cercare ristoranti vegani, Discover potrebbe mostrarmi contenuti intorno a quella query che non è necessariamente nuova, ma che personalmente non ho mai visto prima – e comunque risponde la mia domanda.
Credito immagine: Google
Non hai l'app Google? Nessun problema. Discover verrà distribuito anche sulla home page di Google.com su tutti i browser mobili. Ciò che non è così chiaro è se gli utenti debbano o meno essere connessi a Google per utilizzare correttamente Discover, ma data l'enfasi sulla personalizzazione, è probabile che lo facciano.
3. Raccogliendo da dove sei rimasto fuori con le schede di attività
Non sono sicuro di te, ma quando cerco una storia, ho la pessima abitudine di trovare una risorsa utile, di leggerla e di abbandonarla.
Cioè, finché ho bisogno di visitare di nuovo quella risorsa per una storia di follow-up, che porta a una ricerca spesso inutile per una pagina che ho già visitato.
Fortunatamente, Google ha introdotto le schede attività per aiutare i ricercatori dimenticati e tempestosi come me "a ripercorrere i tuoi passi". Pensa a queste carte come a rappresentazioni visive della tua cronologia delle ricerche, tranne che, invece di dover passare al setaccio, le pagine che hai visitato in precedenza mentre la ricerca dello stesso argomento verrà visualizzata nei risultati della ricerca.
Credito immagine: Google
Una nuova funzione aggiuntiva per aiutare gli utenti ad aggrapparsi a risorse utili è Raccolta, che consente di aggiungere una pagina dalle proprie carte attività a una raccolta di parti di contenuto su un determinato argomento.
Credito immagine: Google
4. Il nuovo livello del grafico della conoscenza
C'era un tema di fondo in tutti gli annunci di oggi: capire cosa l'utente sta cercando. Dopotutto, per un bel po 'di tempo, questo è stato l'assioma di Google dietro le modifiche dell'algoritmo e le nuove funzionalità "intelligenti" introdotte in altri prodotti, come Gmail.
Un modo in cui Google migliorerà ulteriormente la sua comprensione delle query degli utenti – per aggiungere più contesto a loro, renderli più pertinenti e aiutare l'utente a saperne di più su un determinato argomento fino al dettaglio di ciò che vuole sapere – è di aggiungendo un altro livello al suo Knowledge Graph: il livello degli argomenti.
Il Google Knowledge Graph è essenzialmente la tecnologia utilizzata dalla società per rendere queste funzionalità "intelligenti" – nelle sue stesse parole, per creare "connessioni tra persone, luoghi, cose e fatti su di loro". È così che è in grado di suggerire argomenti come "ristoranti a Los Angeles" se, per esempio, stai anche cercando i voli lì.
The Topic Layer aggiunge un altro livello di comprensione delle molte sfumature di un determinato argomento, in parte "analizzando tutti i contenuti esistenti sul Web per un determinato argomento e sviluppando centinaia e migliaia di argomenti secondari".
Ovviamente, ciò che Google non dice nei suoi annunci è che gran parte di questa analisi eseguita per conto di un determinato utente si basa sul precedente comportamento di ricerca di quella persona: ciò che ha cercato in passato, i viaggi che ha prenotato e il contenuto o pagine che ha ripetutamente visualizzato.
Infatti, con la pletora di nuove opzioni per il salvataggio dei contenuti per il futuro, è giusto prevedere che Google utilizzerà quell'archivio per aiutare a informare i suoi risultati di ricerca.
Non è un concetto nuovo, ma in questo caso particolare – si presta al credo del motore di ricerca di, in poche parole, davvero capire noi.
Credito immagine in primo piano: Google