Con l'aggiornamento v21, Ray-Ban Meta e Oakley Meta HSTN incorporano Due funzioni di intelligenza artificiale focalizzate sulla conversazione e sul contesto: una modalità per sentire meglio la persona con cui stiamo parlando in ambienti saturi di suoni e un'integrazione con Spotify che incrocia ciò che le telecamere catturano con le nostre preferenze musicali.
Un nuovo passo avanti negli occhiali intelligenti di Meta
La versione software v21 viene distribuita gradualmente e rafforza l'idea che Gli occhiali Meta funzionano come una piattaforma in continua evoluzionePiuttosto che essere un prodotto chiuso, i modelli attuali acquisiscono funzionalità attraverso miglioramenti software senza dover cambiare l'hardware, un fattore chiave in un segmento ancora giovane come il mercato degli smartphone. dispositivi indossabili leggeri per la realtà aumentata.
Queste nuove funzionalità si concentrano su due aree molto specifiche: da un lato, migliorare l'esperienza di ascolto in ambienti difficilie d'altra parte, l'uso del visione computerizzata per collegare ciò che l'utente vede con servizi esterni come Spotify. Entrambi gli approcci puntano nella stessa direzione: rendere gli occhiali più pratici nelle situazioni del mondo reale, non solo come novità tecnologica.
Meta ha chiarito che l'aggiornamento è progettato per entrambi i Ray-Ban Meta prima e seconda generazione per quanto riguarda Oakley Meta HSTN, che amplia il numero di utenti che possono accedere a queste funzionalità, a condizione che si trovino in uno dei paesi inclusi nel lancio.
Approccio conversazionale: ascoltare meglio senza isolarsi dall'ambiente
La caratteristica principale dell'aggiornamento è Conversation Focus, un sistema che mira a rendere le conversazioni più piacevoli in luoghi con molto rumore ambientale, come bar o mezzi pubbliciA differenza delle cuffie intrauricolari o degli auricolari classici, gli occhiali Meta utilizzano altoparlanti aperti, quindi non sigillano il condotto uditivo né ti isolano completamente dall'ambiente circostante.
Ciò che fa questa funzione è sfruttare i microfoni e gli algoritmi di intelligenza artificiale per per mettere in risalto la voce della persona con cui stiamo parlando rispetto al mormorio di sottofondoIl risultato non è un silenzio assoluto, ma la sensazione che l'altra persona parli in modo più chiaro e vicino, abbastanza da poter continuare una conversazione senza doverle chiedere di ripetere ogni frase.
Il livello di amplificazione audio non è fisso: l'utente può Aumenta o diminuisci l'intensità facendo scorrere il dito lungo la basetta destra dagli occhiali, oppure regolarli dal menu delle impostazioni nell'app. Questa combinazione di sensori, elaborazione locale e controlli touch mira a eliminare la necessità di estrarre il telefono dalla tasca per effettuare una semplice regolazione.
Le situazioni tipiche in cui questa caratteristica può fare la differenza includono: ristoranti affollati, carrozze ferroviarie affollate o terrazze affollate anche riunioni informali in luoghi con musica ad alto volume. Meta insiste sul fatto che non intende sostituire un dispositivo medico, ma piuttosto coprire quel segmento di utilizzo in cui alcune persone iniziano a notare che, in determinati ambienti, comprendere gli altri diventa difficile.
Per il momento, Conversation Focus debutta negli Stati Uniti e in CanadaMeta raccoglierà feedback e dati di utilizzo prima di valutare l'estensione ad altre regioni. Si tratta di un approccio cauto che consente di adattare il comportamento del sistema in base alle situazioni reali.
Musica collegata a ciò che vedi: integrazione Spotify
La seconda grande novità dell'aggiornamento v21 è l'integrazione diretta con Spotify, che applica l' IA multimodale per abbinare l'immagine catturata dalle telecamere alla musica riprodotta. L'idea è che l'utente possa richiedere vocalmente una canzone o una playlist adatta alla scena che ha di fronte, senza dover aprire il telefono o cercare manualmente.
Con un comando come "Ehi Meta, riproduci una canzone che corrisponda a ciò che sto vedendo", gli occhiali inviano le informazioni visive catturate ai sistemi di Meta, che le incrociano con preferenze musicali e cronologia utente su SpotifyDa lì, il sistema sceglie una traccia o una playlist che, in teoria, si adatta a quel contesto.
In pratica, questo può funzionare in modo molto letterale o in modo più creativo. Se l'utente si concentra, ad esempio, su copertina di un album fisicoIl sistema potrebbe scegliere una canzone di quell'artista. Ma se la scena è una strada con le luci di Natale, un'area verde o una terrazza al tramonto, la selezione propende maggiormente verso playlist ambient, canzoni festive o musica rilassante, a seconda del momento e delle abitudini musicali di ciascuno.
Meta riconosce che questa funzionalità ha una componente sperimentale e giocosa, ma la vede come una un'anteprima di come intende combinare la visione artificiale, il riconoscimento del contesto e i servizi di terze parti in un unico flusso. L'idea è che il dispositivo "capisca" meglio cosa succede intorno a te e agisca senza che tu debba dare istruzioni dettagliate.
Per quanto riguarda la sua portata, l'integrazione Spotify è disponibile in inglese ed è offerta in un buon numero di mercati internazionaliTra i paesi menzionati ci sono la Spagna e diversi stati europei come Francia, Germania, Italia, Belgio, Austria, Danimarca, Finlandia, Norvegia, Svezia, Irlanda o Regno Unito, nonché territori come Brasile, Messico, India, Emirati Arabi Uniti, Canada, Australia e Stati Uniti.
Programma di distribuzione graduale e accesso anticipato
Meta non ha scelto di rilasciare la v21 tutta in una volta a tutti. L'azienda sta implementando un lancio progressivo che inizia con il suo programma di accesso anticipatoSi tratta di un programma di accesso anticipato che richiede la registrazione e la convalida da parte dell'azienda. Questi utenti sono i primi a ricevere nuove funzionalità e a fornire feedback sulle proprie prestazioni.
Man mano che questo feedback viene raccolto, Meta perfeziona i dettagli e prevede di estendere l'aggiornamento al resto dei possessori di Ray-Ban Meta e Oakley Meta HSTN Nei mercati supportati. Non è stata annunciata una data precisa per l'accesso di tutti gli utenti, il che lascia un certo margine di incertezza, ma consente anche all'azienda di adattare la propria strategia prima della disponibilità su larga scala.
Questo modello di lancio non è una novità nel settore tecnologico, ma assume un significato particolare nel caso degli occhiali intelligenti. Stiamo parlando di prodotti che, oltre a fotocamere e microfoni, incorporano sempre più funzionalità funzioni sensibili relative all'audio ambientale e al riconoscimento delle scenePertanto, un'implementazione graduale riduce i rischi relativi a comportamenti imprevisti o potenziali problemi di privacy.
In Europa, gli utenti provenienti da paesi come Spagna, Francia, Germania o Italia Possono trarre particolare vantaggio dall'integrazione con Spotify, mentre l'approccio conversazionale, almeno nella sua prima fase, rimane limitato al Nord America. Non sorprenderebbe se, con risultati positivi, Meta valutasse l'idea di estendere questo strumento di ascolto ad altre lingue e regioni.
L'aggiornamento v21 rafforza l'impegno di Meta nei confronti degli occhiali che si basano sull'intelligenza artificiale per ottenere un'utilità pratica: dall'ascoltare meglio la persona che abbiamo di fronte al riempire di musica i momenti catturati dalle loro telecamereTutto questo tenendo presente che il lancio è graduale e varia significativamente da Paese a Paese. Per gli utenti europei e spagnoli interessati a questi dispositivi, questo sviluppo dipinge un quadro in cui questi occhiali non sono più solo un capriccio tecnologico, ma stanno iniziando a occupare un posto più definito all'interno del loro ecosistema digitale personale.