Kinect For Windows v2 ahora trae caras


facerecog

El nuevo SDK de Kinect trae unas cuantas cosas muy interesantes, como un editor de gestos (un gran ejemplo de para qué sirve el machine learning) y vuelve el reconocimiento de caras, una por cada usuario :).

No os esperéis que el SDK os reconozca a vosotros y os distinga de los demás, eso, por lo menos por ahora, lo tendréis que desarrollar (o adaptar) vosotros, o comprar alguna de esas librerías que funcionan tan bien. Trae 94 puntos de identificación para hasta 5 usuarios simultáneos. Lo que tendréis, en la versión simple, es la posición de ojos, nariz y boca del usuario.

Con eso ya podremos saber si el usuario mira a la pantalla o dónde tiene metida la nariz, en tiempo real. Aquí vemos los puntos que reconoce:

namespace Microsoft.Kinect.Face
{
    public enum FacePointType
    {
        None = -1,
        EyeLeft = 0,
        EyeRight = 1,
        Nose = 2,
        MouthCornerLeft = 3,
        MouthCornerRight = 4,
    }
}

También podremos utilizar la versión HD que nos dará mucha más información, como, por ejemplo, si los ojos están abiertos o cerrados, o si abrimos la boca, etc..:

namespace Microsoft.Kinect.Face
{
    public enum FaceShapeAnimations
    {
        JawOpen = 0,
        LipPucker = 1,
        JawSlideRight = 2,
        LipStretcherRight = 3,
        LipStretcherLeft = 4,
        LipCornerPullerLeft = 5,
        LipCornerPullerRight = 6,
        LipCornerDepressorLeft = 7,
        LipCornerDepressorRight = 8,
        LeftcheekPuff = 9,
        RightcheekPuff = 10,
        LefteyeClosed = 11,
        RighteyeClosed = 12,
        RighteyebrowLowerer = 13,
        LefteyebrowLowerer = 14,
        LowerlipDepressorLeft = 15,
        LowerlipDepressorRight = 16,
        Count = 17,
    }
}

Lo primero que haremos todos (yo ya lo he hecho XD) es proyectar nuestra cara sobre un modelo 3D, pero si nos paramos a pensar un poco podremos saber si el usuario se divierte o si se está durmiendo, algo que no podremos saber con un teclado y ratón… o si?

Cat Six seems to approve of my ergonomic keyboard

Anuncios

Un Comentario

  1. Juandi

    Buenas tardes,
    Lo primero, felicitaciones por el blog. La verdad es que acabo de descubrirlo y lo encuentro muy interesante.
    Soy alumno de ingeniería de telecomunicaciones y actualmente estoy terminando mi proyecto de fin de grado. Estoy usando Kinect V2 para detectar expresiones faciales y he encontrado en este post mucha información importante, pero tengo una pequeña duda relacionada con las “FaceShapeAnimations”. Según he comprobado, devuelven un valor del tipo “float” entre 0 y 1 y no se como interpretarlo. ¿Cómo podría saber si por ejemplo tengo las dos cejas levantadas?
    Muchas gracias y un saludo

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s