Etiquetado: Usabilidad

Yes We Touch! El SDK de Surface 2.0 ya está disponible

Surface 2.0
Ayer día 12 se publicó el nuevo SDK de Surface 2. El nombre nos da una pista de qué podremos hacer con él, pero nos esconde un potente conjunto de herramientas que podremos utilizar con otros dispositivos más sencillos.

No voy a repetir lo que ya cuentan en muchos blogs sobre el SDK pues es mejor leer directamente la fuente original. Así que os resumiré algunos puntos que me parecen importantes para afrontar el desarrollo sobre el mismo.

No sólo Surface

Tal como anunciaron hace tiempo en su versión 1.5, se han unificado todos los dispositivos táctiles que utilicen un interfaz HID. Esto tiene una parte muy buena y otra mala…

  • La mala, que Surface 1 no tiene interfaz HID, así que los que tenemos una no podremos realizar la actualización
  • La buena, que podremos crear aplicaciones para todos los dispositivos táctiles que funcionen en Windows 7 con el mismo SDK

Guía de diseño e interacción

Surface Interaction

Con la documentación del SDK viene un enlace al documento que considero el más importante de todos: Surface Application Design Guidelines. Antes de empezar cualquier aplicación es altamente recomendable (yo lo haría obligatorio) que todo el equipo implicado en el desarrollo y diseño lean, estudien, revisen, comenten y vuelvan a leer este documento. Son 70 páginas, pero que no se asuste nadie, en su mayoría son imágenes que nos harán comprender de una manera sencilla y natural los nuevos retos que deberemos afrontar y cómo recomienda el equipo de Surface resolverlos. La guía de diseño no podía ser de otra forma.

Metro

Aunque no aparezca la palabra en la guía de diseño, ya sabemos que el lenguaje Metro ha salido de los dominios de WP7 y Surface era el candidato perfecto. Los contenedores se vuelven invisibles para dar el protagonismo al contenido, tenemos una librería de iconos minimalistas y los principios de diseño son:

  1. Simple: ligero y abierto
  2. Organizado: jerárquico y estructurado
  3. Auténticamente Digital: real y honesto
  4. Orientado a Contenido: enfocado y explorable
  5. Vivo: reacción instantánea, movimiento
Los que habéis estado en alguna presentación de Windows Phone ya habréis oído estos principios. Y por si os falta algún argumento para convenceros, Surface incluye una nueva fuente adaptada al entorno 360 que permite leer fácilmente el texto en el dispositivo: Segoe 360
Segoe 360

Touch!

Insisto, leed la guía de diseño e interacción, es muy inspiradora y ahora ya no es exclusiva para Surface. Muchos de los próximos dispositivos van a incorporar capacidades táctiles y (casi) todos los actuales se pueden beneficiar de aplicaciones con una interfaz mucho más natural y preparada para lo que está por venir.

Anuncios

Las redes sociales y nuestras aplicaciones de Windows Phone 7.1

social media
Hasta ahora, añadir recursos de redes sociales en nuestras aplicaciones era algo tedioso, no sólo para nosotros, sino también para los usuarios.

Por nuestra parte teníamos que o bien programar un conector para cada red social, con la consecuencia de que además debíamos crear un sistema para guardar las credenciales usadas, solicitar una clave para la api de cada red social (facebook, twitter, etc), o bien hacer una “chapucilla” usando una URL que nos redirigiera a la red social usando una WebBrowserTask. Las soluciones de terceros no nos solucionan demasiado la vida.

Del lado del usuario también se complicaba bastante, pues la primera solución implicaba la introducción los datos de su cuenta en cada aplicación, complicando en exceso el mantenimiento en múltiples aplicaciones. La segunda solución es aún peor pues cada vez que se quiere compartir algo se salta a un navegador donde hay que introducir las credenciales.

Afortunadamente, la filosofía de hubs de Windows Phone 7 va a simplificar muchísimo esta tarea tan natural en el ser humano de compartir lo que sea que estemos haciendo. Como dicen en los anuncios de WP7: la gente tiene amigos, no aplicaciones.

¿Cómo se soluciona esto? Pues integrando las redes sociales en el sistema operativo del móvil. Gracias a esto y a una nueva Task que incluye el teléfono, compartir cualquier cosa desde nuestra aplicación de WP7 va a ser tan complicado como llamar a la ShareLinkask:

new Microsoft.Phone.Tasks.ShareLinkTask()
{
Title="Comparto link!",
Message="Aquí tenéis mi link compartido...",
LinkUri=new Uri("https://jmservera.wordpress.com")
}.Show();

Y si sólo es un mensaje es aún más fácil, basta con la ShareStatusTask:

new Microsoft.Phone.Tasks.ShareStatusTask(){
Status="Estoy compartiendo!"}.Show();

Pasadlo bien… y compartid! 😀

Una casa sin ratones

fuente CERNHace ya más de 40 años que se creó el primer prototipo de ratón para ordenador, una pequeña caja de madera con unas ruedas que indicaban el desplazamiento horizontal y vertical; formaba parte de una iniciativa de su inventor, Douglas Engelbart, para aumentar el intelecto humano de manera colectiva. En el año 68 Engelbart hizo la primera demostración pública del dispositivo, junto con otras innovaciones como el hipertexto o los escritorios compartidos.

En aquellos tiempos la potencia de los ordenadores era un millón de veces más pequeña que los de ahora …

…y aún seguimos usando el ratón y el teclado tal como fueron diseñados.

Entonces las aplicaciones conocieron a los usuarios

Nadie duda de la revolución que supusieron los ratones para el desarrollo de software: impulsaron el paso del CLI (interfaz de línea de comando) al GUI (interfaz gráfico de usuario) y se empezó a tener en cuenta al usuario como parte del sistema.

Los ratones evolucionaron técnicamente: se les añadieron botones, deslizadores, láser, manteniendo la idea original con sus bonanzas, pero también con sus limitaciones: un principiante no sabe qué hacer cuando se le acaba la mesa y aun con experiencia es muy difícil realizar ciertas tareas, como por ejemplo dibujar.

Junto al ratón, el paradigma del GUI, tal como apareció en el primer Xerox Star a finales de los 70, ha seguido vigente durante mucho tiempo. Las metáforas que se definieron en sus inicios, como ventanas, botones y diálogos, han sufrido muy pocos cambios conceptuales a pesar de sus muchas carencias. El mismo diseño se intentó replicar en otros entornos, como el móvil, donde en muchos casos no había ratón ni teclado.

Cuando más es menos

A medida que la capacidad de computación aumentaba se iba añadiendo funcionalidad, flexibilidad y potencia a los sistemas con la finalidad de hacer más felices a los usuarios, pero, tanta flexibilidad hacía que los sistemas fueran demasiado difíciles de usar, incrementando innecesariamente la curva de aprendizaje, mientras que, por lo general, el 80% de los usuarios sólo usaban el 20% de las funcionalidades.

Entonces, a mediados de los 90 Don Norman acuñó el término UX (eXperiencia de Usuario) para designar la doctrina que iba a salvar a nuestros usuarios de ser aplastados por la “flexibilidad y potencia” de los sistemas. User eXperience Design incorporó la psicología, la sociología, el diseño gráfico, la ergonomía y otras muchas disciplinas para crear interfaces de usuario amigables y centrados en las personas. Ya entrado el siglo XXI, las nuevas tendencias en UX se aplicaron a las GUIs y consiguieron mejorar mucho la usabilidad del software. Se simplificaron las interfaces y empezaron a ser realmente intuitivas, dando al usuario lo que necesitaba según el contexto.

Aún así, sólo se mejoró lo que ya estaba, la GUI. Entonces, ¿qué estaba limitando la innovación? ¿Qué había que cambiar?

La respuesta es natural

Llegados a este punto el ratón nos imponía más barreras, dolores de espalda y problemas en las muñecas que las ventajas que suponía, pero para poder realizar una nueva revolución hacía falta un cambio de paradigma: la NUI (Natural User Interface).

La interfaz natural de usuario es un concepto que incorpora al cuerpo humano como el medio para comunicarse con el ordenador sin intermediarios visibles; nos olvidamos de los controles WIMP (Windows, Icons, Menus, Pointer) y pasamos a interactuar directamente con los objetos.

Visualizar y organizar nuestras fotos ya no se realiza con las metáforas habituales de botones y ventanas, sino que esparcimos las fotos guardadas sobre un escritorio tal como haríamos con las de papel.

Este sistema nos abre un nuevo mundo de posibilidades y también de retos, pues hay que cambiar completamente la manera en que diseñamos nuestros interfaces. Por ejemplo: el botón derecho ya no existe, pero podemos usar todos los dedos de las dos manos simultáneamente, comunicarnos mediante la voz y gestos e interactuar con otros usuarios. En resumen, ya no estamos limitados a un único punto de entrada.

La transición a NUI no será de golpe como tampoco lo fue la de CLI a GUI. Al principio nos costará distinguir qué es NUI, para ello he aquí algunas características que pueden cumplirse, aunque no son obligatorias ni las únicas que tiene, sino que son un comienzo:

  • Entrada multi-táctil: ya no hace falta imaginar que el puntero del ratón toca una ventana, movemos los objetos directamente con nuestras manos.
  • Gestos: el sistema reconoce lo que pretendemos hacer por los movimientos que realizamos
  • Orientada a los objetos: ya no usamos metáforas como las ventanas sino los elementos directamente.
  • Multi-usuario: varios usuarios a la vez pueden interactuar con el sistema y con nosotros.

Algunos ejemplos de dispositivos que implementan un NUI son Surface, Kinect, Windows Phone 7; con características diferentes entre ellos, pero con una cosa en común: nosotros somos los protagonistas.

        

              

¿Qué nos depara el futuro?

La revolución NUI acaba de empezar y va más allá de lo táctil: reconocimiento de voz, de gestos faciales… de emociones. Se están eliminado las barreras para crear una nueva experiencia. Para saber cual será el siguiente paso, para ver la tecnología que habrá dentro de 20 años, no hay mas que mirar qué se cuece ahora en los laboratorios de I+D:

http://www.microsoft.com:80/presspass/silverlightApps/videoplayer3/standalone.aspx?contentID=research_lightspace&src=/presspass/presskits/nextintech/channel_embed.xml

Referencias

MouseSite: http://sloan.stanford.edu/MouseSite/1968Demo.html

Alex Papadimoulis’ .Net Blog: http://weblogs.asp.net/alex_papadimoulis/default.aspx

Coding Horror: http://codinghorror.com

Sketching User Experiences, Bill Buxton: http://billbuxton.com

Computer History: http://www.computerhope.com/history/

Daniel H. Pink: A Whole New Mind

http://www.microsoft.com/surface

http://www.microsoft.com/windowsphone/es-es/features/default.aspx

http://www.xbox.com/es-ES/

Menos es más

Ayer, tras un buen rato discutiendo sobre una opción difícil de comprender (y por lo tanto de explicar) en un menú que además cada uno entendía a su manera, decidimos quitarla para facilitarle la vida al usuario.
Muchas veces tendemos a desarrollar software tremendamente flexible, basando nuestro GUI directamente en la parte estructural y sin tener en cuenta que toda esa flexibilidad va a acabar despistando del todo al usuario.
De esta manera olvidamos que el GUI debe esconder al usuario la lógica de la aplicación. Muchas de las opciones que le queremos dar vienen implícitas en las acciones que el usuario ejecuta.

Como apunta David Carmona en una entrada de su blog: piensa en el usuario.