O Meta Display é o novo óculos inteligente apresentado pela Meta na CES 2026, em Las Vegas. Equipado com uma tela na lente direita, ele exibe mapas, traduções e notificações com brilho alto, facilitando o acesso a informações sem atrapalhar a visão.
A interação é feita por uma pulseira com sensores que reconhecem gestos musculares para controlar comandos, como a criação de textos no ar. A bateria oferece até 30 horas com carregamento portátil e as lentes adaptam-se à luminosidade ambiente.
Além de oferecer uma experiência visual discreta, o Meta Display conta com a função de transcrição em tempo real das conversas. Contudo, esse recurso pode gerar desconforto para interlocutores. O modelo ainda destaca-se pela baixa interferência visual e usabilidade prática em diferentes ambientes.
Depois do sucesso do Meta Ray-Ban, a Meta lançou em setembro o Meta Display, um óculos inteligente com uma pequena tela na lente direita. Essa tela exibe informações como mapas, traduções e notificações, oferecendo até 5.000 nits de brilho, superior ao de alguns smartphones, e pode ser desligada com um gesto do usuário. A experiência, porém, depende bastante do foco visual para alternar entre a tela e o ambiente.
O kit inclui um carregador e uma pulseira que integra uma interface neural, usando sensores de eletromiografia. A pulseira interpreta os impulsos musculares para permitir comandos aos óculos, como criar textos ao escrever no ar. O ajuste correto da pulseira no braço é fundamental, pois a leitura dos gestos pode falhar se não estiver bem posicionada.
O display tem baixa interferência visual, com apenas 2% de vazamento de luz, e fica na lateral da lente direita para não atrapalhar a visão do usuário. As lentes se adaptam à luz do sol, mudando de cor. A bateria dura até 30 horas com a caixa de carregamento, ou 18 horas sem ela. Um recurso interessante é a transcrição em tempo real das conversas, que aparece como legenda, mas pode causar desconforto para quem está participando do diálogo.
O Meta Display esteve em destaque na CES 2026, em Las Vegas, onde foi possível testá-lo e observar sua aplicação prática como uma fonte rápida e discreta de informações no campo de visão do usuário.
Via TecMundo