Etiquetado: NUI

El efecto Kinect en Imagine Cup

Kinect desensamblado

Este año voy a seguir Imagine Cup con especial interés, pues acompaño como mentor a un equipo de estudiantes de Illes Balears. Han decidido participar en las categoría de Game Design: Phone, también participarán en algún reto y estoy seguro que harán un buen papel.

Uno de los retos que a mi más me gustan y a algún que otro compañero es el de Kinect Fun Labs. Para añadirle más emoción, los 100 primeros de la primera ronda recibirán un dispositivo Kinect For Windows!

Hay hasta el 6 de marzo para presentar ideas para la primera ronda y mañana día 14 de febrero habrá un Live Meeting donde podremos resolver nuestras dudas sobre el concurso.

¡Quién fuera estudiante! Nos vemos en Australia 🙂

Anuncios

SUR 40

Aprovechando que estaba de viaje por Redmond estos días he hecho una breve visita al equipo de desarrollo de Surface. Me ha recibido Luis Cabrera, al que debo agradecerle que me haya atendido pues me presenté casi por sorpresa y como imaginaréis están en un momento de gran cantidad de trabajo.

He podido ver y tocar la nueva SUR40, un dispositivo impresionante fabricado por Samsung, con el que se da un gran paso adelante, pues se han resuelto los mayores problemas que había en la primera versión, además de la reducción de precio:

  • A nivel de hardware: peso, tamaño y orientación ya no suponen ningún problema, gracias a Pixelsense ya no son necesarios ni proyectores ni cámaras, cada píxel es a su vez un sensor que le permite al dispositivo ver lo que pongamos sobre él. Esto ha reducido el grosor de la mesa que ahora también es posible colgar en la pared y funcionar en modo kiosco. Además se ha incrementado la resolución hemos de tener en cuenta que es tecnología LCD y por lo tanto muy superior a la calidad de retroproyección que teníamos en Surface 1.0.
  • Software: funciona sobre Windows7, utiliza un SDK común para el resto de dispositivos “Touch” y el interface tiene bastantes novedades que lo hacen mucho más amigable, por ejemplo:
    • Algunas acciones que podían ser confusas como la de cerrar una aplicación ahora son más explícitas y se evita la confusión o el cierre por error.
    • El interface de usuario contiene grandes mejoras, muy parecido al concepto Metro de WP7, aumentando la importancia del contenido sobre el contenedor.
    • Están trabajando en controles que nos facilitarán mucho el trabajo, tengo ganas de probar el SDK ya 😀

Aparte de las novedades, para los que ya habéis hecho alguna aplicación en Surface os daré una buena noticia, las aplicaciones que ya teníamos hechas para Surface 1.0 serán muy fáciles de migrar. Nosotros ya estuvimos probando dcon el SDK 1.5 y no tuvimos ningún problema para migrar las aplicaciones.  Parece ser que para 2.0 la base sigue siendo muy parecida así que podremos aprovechar no sólo el know how sino el código también.

Le conté algunos de nuestros proyectos en el MICTT enfocados a turismo y a integrar las diferentes tecnologías que tenemos como Kinect y WP7 junto a Surface, así él me ha dado su visión de cómo usando Surface + Kinect se pueden crear experiencias muy ricas para el usuario, demostrándome una vez más que NUI va mucho más allá de “touch” y que estamos en un momento completamente revolucionario.

Al día siguiente anunciaron el SDK de Kinect en Channel 9 así que ya tenemos con qué ponernos a jugar durante una buena temporada.

Fue una charla corta pero muy interesante, espero en breve dar una buena sesión sobre NUI en el MICTT como introducción a un gran evento que haremos después de verano.

Una casa sin ratones

fuente CERNHace ya más de 40 años que se creó el primer prototipo de ratón para ordenador, una pequeña caja de madera con unas ruedas que indicaban el desplazamiento horizontal y vertical; formaba parte de una iniciativa de su inventor, Douglas Engelbart, para aumentar el intelecto humano de manera colectiva. En el año 68 Engelbart hizo la primera demostración pública del dispositivo, junto con otras innovaciones como el hipertexto o los escritorios compartidos.

En aquellos tiempos la potencia de los ordenadores era un millón de veces más pequeña que los de ahora …

…y aún seguimos usando el ratón y el teclado tal como fueron diseñados.

Entonces las aplicaciones conocieron a los usuarios

Nadie duda de la revolución que supusieron los ratones para el desarrollo de software: impulsaron el paso del CLI (interfaz de línea de comando) al GUI (interfaz gráfico de usuario) y se empezó a tener en cuenta al usuario como parte del sistema.

Los ratones evolucionaron técnicamente: se les añadieron botones, deslizadores, láser, manteniendo la idea original con sus bonanzas, pero también con sus limitaciones: un principiante no sabe qué hacer cuando se le acaba la mesa y aun con experiencia es muy difícil realizar ciertas tareas, como por ejemplo dibujar.

Junto al ratón, el paradigma del GUI, tal como apareció en el primer Xerox Star a finales de los 70, ha seguido vigente durante mucho tiempo. Las metáforas que se definieron en sus inicios, como ventanas, botones y diálogos, han sufrido muy pocos cambios conceptuales a pesar de sus muchas carencias. El mismo diseño se intentó replicar en otros entornos, como el móvil, donde en muchos casos no había ratón ni teclado.

Cuando más es menos

A medida que la capacidad de computación aumentaba se iba añadiendo funcionalidad, flexibilidad y potencia a los sistemas con la finalidad de hacer más felices a los usuarios, pero, tanta flexibilidad hacía que los sistemas fueran demasiado difíciles de usar, incrementando innecesariamente la curva de aprendizaje, mientras que, por lo general, el 80% de los usuarios sólo usaban el 20% de las funcionalidades.

Entonces, a mediados de los 90 Don Norman acuñó el término UX (eXperiencia de Usuario) para designar la doctrina que iba a salvar a nuestros usuarios de ser aplastados por la “flexibilidad y potencia” de los sistemas. User eXperience Design incorporó la psicología, la sociología, el diseño gráfico, la ergonomía y otras muchas disciplinas para crear interfaces de usuario amigables y centrados en las personas. Ya entrado el siglo XXI, las nuevas tendencias en UX se aplicaron a las GUIs y consiguieron mejorar mucho la usabilidad del software. Se simplificaron las interfaces y empezaron a ser realmente intuitivas, dando al usuario lo que necesitaba según el contexto.

Aún así, sólo se mejoró lo que ya estaba, la GUI. Entonces, ¿qué estaba limitando la innovación? ¿Qué había que cambiar?

La respuesta es natural

Llegados a este punto el ratón nos imponía más barreras, dolores de espalda y problemas en las muñecas que las ventajas que suponía, pero para poder realizar una nueva revolución hacía falta un cambio de paradigma: la NUI (Natural User Interface).

La interfaz natural de usuario es un concepto que incorpora al cuerpo humano como el medio para comunicarse con el ordenador sin intermediarios visibles; nos olvidamos de los controles WIMP (Windows, Icons, Menus, Pointer) y pasamos a interactuar directamente con los objetos.

Visualizar y organizar nuestras fotos ya no se realiza con las metáforas habituales de botones y ventanas, sino que esparcimos las fotos guardadas sobre un escritorio tal como haríamos con las de papel.

Este sistema nos abre un nuevo mundo de posibilidades y también de retos, pues hay que cambiar completamente la manera en que diseñamos nuestros interfaces. Por ejemplo: el botón derecho ya no existe, pero podemos usar todos los dedos de las dos manos simultáneamente, comunicarnos mediante la voz y gestos e interactuar con otros usuarios. En resumen, ya no estamos limitados a un único punto de entrada.

La transición a NUI no será de golpe como tampoco lo fue la de CLI a GUI. Al principio nos costará distinguir qué es NUI, para ello he aquí algunas características que pueden cumplirse, aunque no son obligatorias ni las únicas que tiene, sino que son un comienzo:

  • Entrada multi-táctil: ya no hace falta imaginar que el puntero del ratón toca una ventana, movemos los objetos directamente con nuestras manos.
  • Gestos: el sistema reconoce lo que pretendemos hacer por los movimientos que realizamos
  • Orientada a los objetos: ya no usamos metáforas como las ventanas sino los elementos directamente.
  • Multi-usuario: varios usuarios a la vez pueden interactuar con el sistema y con nosotros.

Algunos ejemplos de dispositivos que implementan un NUI son Surface, Kinect, Windows Phone 7; con características diferentes entre ellos, pero con una cosa en común: nosotros somos los protagonistas.

        

              

¿Qué nos depara el futuro?

La revolución NUI acaba de empezar y va más allá de lo táctil: reconocimiento de voz, de gestos faciales… de emociones. Se están eliminado las barreras para crear una nueva experiencia. Para saber cual será el siguiente paso, para ver la tecnología que habrá dentro de 20 años, no hay mas que mirar qué se cuece ahora en los laboratorios de I+D:

http://www.microsoft.com:80/presspass/silverlightApps/videoplayer3/standalone.aspx?contentID=research_lightspace&src=/presspass/presskits/nextintech/channel_embed.xml

Referencias

MouseSite: http://sloan.stanford.edu/MouseSite/1968Demo.html

Alex Papadimoulis’ .Net Blog: http://weblogs.asp.net/alex_papadimoulis/default.aspx

Coding Horror: http://codinghorror.com

Sketching User Experiences, Bill Buxton: http://billbuxton.com

Computer History: http://www.computerhope.com/history/

Daniel H. Pink: A Whole New Mind

http://www.microsoft.com/surface

http://www.microsoft.com/windowsphone/es-es/features/default.aspx

http://www.xbox.com/es-ES/