AirPods com câmeras para inteligência visual: a revolução da segurança pessoal da Apple?
Veja por que a Apple pode ser uma ótima opção para colocar câmeras nos AirPods
Resumo:
- A Apple ainda está trabalhando na integração de câmeras nos AirPods.
- A inteligência visual do iOS 18 está no centro dos planos da Apple.
- Os recursos ainda estão “a gerações de distância”.
Já sabemos o "o quê" há algum tempo — a Apple está experimentando integrar câmeras aos AirPods — e agora podemos saber o "porquê". Um novo relatório esclarece os planos da Apple para os futuros AirPods e, se a tecnologia cumprir o prometido, poderá ser um recurso de segurança pessoal realmente importante. A Apple está desenvolvendo AirPods com câmeras integradas, tornando-os dispositivos mais inteligentes e capazes.
No entanto, há uma ressalva importante: esses recursos ainda estão “pelo menos a gerações de distância de chegar ao mercado”.
O relatório vem de Mark Gorman, um profissional bem relacionado, da Bloomberg, que diz que “o plano final da Apple para inteligência visual vai muito além do iPhone”. E os AirPods são uma parte importante desse plano. Vazamentos indicam que a empresa está trabalhando na integração de câmeras nos AirPods para melhorar a segurança pessoal.
De acordo com Gorman, a inteligência visual — reconhecer o mundo ao seu redor e fornecer informações úteis ou assistência — é muito importante na Apple, e a empresa planeja colocar câmeras no Apple Watch e no Apple Watch Ultra também. Assim como os AirPods, “ele ajudará o dispositivo a ver o mundo exterior e usar inteligência artificial para fornecer informações relevantes”. Relatórios também sugeriram que a Apple está considerando adicionar câmeras aos seus smartwatches para melhorar seus recursos de inteligência visual.
Como os AirPods funcionarão com o Visual Intelligence?
A Inteligência Visual, introduzida no iOS 18 para o iPhone 16, permite que você aponte sua câmera para algo e aprenda mais sobre isso: o tipo de planta, a raça do cachorro (como mostrado na imagem acima), o horário de funcionamento do café que você acabou de encontrar, etc. Essa tecnologia também é conhecida como "inteligência visual" e é um dos recursos mais importantes da atualização.
A Inteligência Visual também pode traduzir textos e, um dia, poderá ajudar pessoas com memória fraca para nomes e rostos. Essa tecnologia pode facilitar a vida diária de muitas pessoas.
Mas o grande problema com o Visual Intelligence é que você precisa pegar seu telefone para usá-lo. Há circunstâncias em que você não quer fazer isso. Lembro-me de quando a Apple disponibilizou o Maps no Apple Watch: tornar possível usar o Maps sem mostrar a todos na vizinhança "Não sou daqui e estou completamente perdido. E também tenho um celular caro" era um importante recurso de segurança pessoal.
Pode ser isso também. Se a Apple tornasse possível invocar a Inteligência Visual com um aceno de cabeça e um toque nas hastes dos AirPods, você conseguiria obter informações importantes — como traduzir uma placa de direção em outro país — sem precisar balançar o telefone.
Ainda estamos muito longe de realmente ter esses recursos — não espere vê-los nos AirPods Pro 3, que provavelmente chegarão no final de 2025. Mas estou animado com essa perspectiva: imagine o Apple Intelligence, mas melhor.
Comentários estão fechados.