
"O problema de criar um espelho digital é que o sistema precisa ser duplo", disse Igarashi. "Em primeiro lugar, é importante modelar uma ampla gama de roupas em diferentes tamanhos. Depois, é essencial que essas roupas possam ser sobrepostas de forma realista em um vídeo do usuário. Nossa solução é única na forma como funciona, usando um manequim robótico sob medida e uma IA de última geração que traduz roupas digitalizadas para visualização."
Tamanhos variados
Para digitalizar roupas, a equipe projetou um manequim que pode se mover, expandir e contrair de diferentes maneiras para refletir diversas poses e tamanhos corporais. O fabricante precisa vestir esse robô com uma peça e, em seguida, permitir que ele faça uma variedade de gestos, enquanto as câmeras capturam imagens de todos os ângulos possíveis. Essas fotos são enviadas para uma máquina de IA, que aprende como traduzi-las para que funcionem também em um usuário ainda não visto. No momento, a captura da imagem de um item leva cerca de duas horas, mas, depois que alguém veste o manequim, o resto do processo é automatizado.
Em seguida, vem a interação do usuário. Alguém que deseja experimentar roupas diferentes precisa ir até a loja e ficar em frente a uma câmera e uma tela. A pessoa coloca uma peça chamada vestimenta de medição, para que o computador estime como o corpo está posicionado no espaço. Conforme o usuário se move, a máquina sintetiza uma imagem plausível da vestimenta, que segue o seu movimento. A equipe reconhece que ainda há diversas limitações, mas está entusiasmada com os resultados obtidos até agora.