Meta ve Austin’deki Texas Üniversitesi’nden bir küme araştırmacı Metaverse için ortak bir çalışma başlattılar
Meta Esat travesti Yapay Zeka Araştırma Yöneticisi Kristen Garuman’ın açıklamasına nazaran artırılmış ve sanal gerçeklik AR ve VR için birlikte çalışacak bu grup sanal görüntülerin gerçek hayattan ayırt edilemeyecek biçimde görünmesi için bilhassa Esat travestileri ses üzerine ağırlaşacak Garuman yaptığı açıklamada bunun nedenini ses içinde bulunduğu ortam tarafından şekillendirilir diyerek açıkladı Ayrıyeten bir odanın geometrisi kelam konusu odada ne olduğu ve birinin bir kaynaktan ne Travesti Esat kadar uzakta olduğu üzere şeylerin ses ile anlaşılabileceğini belirtti
Meta bu gayeyle hem sesi hem de görüntüyü tek bir yerden ileten AR gözlükleri kullanmayı akabinde bir dizi yapay zeka modelini kullanarak kaydı dönüştürmeyi ve optimize etmeyi hedefliyor Böylelikle bir görüntü oynatıldığında olaylar çabucak önünüzde gerçekleşiyor üzere hissedebileceksiniz Konutta dar bir alanda dahi olsanız yapay zeka modelleri bulunduğunuz odayı hesaba katacak ve çabucak etrafa ahenk sağlayarak size imgeyi aktaracak
Meta’nın uzun vakittir AR gözlüklerine odaklandığı biliniyor Geçtiğimiz günlerde Mark Zunckerberg tarafından birtakım gözlüklerin prototipleri de tanıtılmıştı
Meta bu projesiyle Metraverse’de konser üzere bir ortamın imajlarını ve seslerini aktararak şahsen oradaymışsınız üzere hissetmenizi sağlayacak
GERÇEKLİK İÇİN YAPAY ZEKADAN YARARLANILACAK
Meta Görsel Akustik Eşleştirme modeli ya da kısa ismiyle AViTAR metodunu kullanarak bu amacında muvaffakiyete ulaşmayı hedefliyor AViTAR sesi yeni bir ortama uyacak biçimde dönüştürmek için yapay zekadan yararlanıyor
Meta ilerleyen vakitlerde ise herkesin bir çift AR gözlükle görüntü kaydederek anıların her vakit canlı kalacağı bir proje üzerinde çalışıyor AR gözlükle kayıt altına alınan görüntüler daha sonra yine izlendiğinde yapay zeka yardımıyla o anlar tekrar yaşanabilecek