Diseño en el blog

Notifica. Desplaza. Cierra. Repite…

3 Abr, 2019, por Sergio.

La interfaz de un teléfono inteligente es como un interruptor gigante, el cual siempre está activo. Vivimos constantemente con una pulsión irracional a desactivarlo.

Esta excitación no es intrínseca al uso del dispositivo, existen numerosas decisiones de diseño que han llevado a que nuestra relación con los móviles no sea del todo sana. Son muchas las personas que, saturadas por su uso cotidiano, se han visto obligadas a casi hackear las opciones por defecto que ofrecen los terminales (desactivando las notificaciones, activando opciones de accesibilidad como el modo en blanco y negro, reduciendo al mínimo el número de aplicaciones instaladas…) , todo ello con la intención de volver a recuperar sus cerebros, e incluso evitar lesiones articulares en las manos.

Pero… ¿Cómo empezó todo?¿Por qué los pioneros en el diseño de aplicaciones y sistemas operativos para móviles tomaron este tipo de decisiones?

La sopa infinita de Aza

Corre el año 2006, época dorada de los blogs. Por aquel tiempo la mejor forma de enterarse de las novedades en nuestros sites favoritos era mediante los agregadores de contenido (o lectores RSS), un programa que captura las fuentes de sindicación de los sitios web y muestra las novedades. Aún hay personas que los utilizan, pero no son muy populares. Por aquel entonces, la mayoría de ellos eran programas de escritorio que se tenían que descargar e instalar, con interfaces llenas de paneles, árboles jerárquicos con carpetas de contenido, barras de desplazamiento… en definitiva, una experiencia bastante tediosa.

Un joven Aza Raskin, que en aquella época trabajaba en Humanized, desarrolla junto con su equipo un nuevo paradigma para su lector RSS: el desplazamiento infinito, una funcionalidad que permite leer contenidos de forma continua sin necesidad de hacer ningún esfuerzo de navegación.

Raskin ideó este nuevo paradigma con toda su buena intención, para evitar que el usuario abandonase su línea de pensamiento cuando estaba leyendo, evitando así tener que romper el flujo de lectura para bucear por las carpetas y los menús de navegación.

Su creador se había inspirado en un popular experimento psicológico publicado un año antes: El tazón de sopa sin fondo, basado en la premisa de que si le das a alguien un tazón de sopa que se repone automáticamente en secreto, tomará más cantidad de la habitual. Los sujetos del experimento a pesar de haber consumido de media un 73% más de sopa de la capacidad del tazón, no tenían la sensación de haber  consumido más, ni se se sentían más saciados que aquellos que habían tomado una cantidad normal de sopa, simplemente por que no tenían señales visuales de que la sopa se había terminado.

Estos hallazgos eran consistentes con la sabiduría del refranero popular: “comer antes con los ojos que con el estómago”. Básicamente si ponemos mucha cantidad de comida en un plato, por reglas generales solemos aumentar la ingesta habitual, ya que esta influye en nuestras expectativas de consumo y reduce nuestro autocontrol. Al parecer las personas usamos los ojos para contar calorías, en lugar de la memoria de nuestros estómagos.

12 años más tarde, el mismo Raskin afirmaba en una entrevista para la BBC, que se sentía culpable de haber creado este patrón de interacción, ya que se había extendido como un estándar en la mayoría de las redes sociales. Muchos diseñadores, presionados por los objetivos económicos y modelos de negocio de las empresas, se habían visto obligados a inventar estratagemas para que la gente invierta más tiempo en las aplicaciones:

«Para obtener la próxima ronda de financiación, para aumentar el precio de las acciones… la cantidad de tiempo que la gente invierte en la aplicación tiene que aumentar. Entonces, cuando pones tanta presión en ese número, empiezas a inventar nuevas formas de que la gente se quede enganchada”.

De la misma forma que pasa con la comida, el uso del patrón de desplazamiento infinito para cargar contenidos irrelevantes, llevó este problema del estómago a nuestro cerebro, saturando nuestras mentes con más información de la que podemos asimilar.

Las señales visuales pueden llevar a una persona a subestimar o sobreestimar las cantidades de consumo, ya sea de comida o de información basura. Eliminando elementos referenciales de las interfaces como la barra de desplazamiento, la paginación, o las marcas de página de la  última visita, estamos engañando a las personas, haciéndolas perder su capacidad de control y rompiendo uno de los modelos mentales más básicos que existen: la concepción de que las cosas suelen tener un límite o una capacidad.

El problema es que este patrón de interacción ha contribuido a generar comportamientos adictivos, no le damos tiempo a nuestro cerebro a asimilar la información, simplemente continuamos desplazándonos de forma compulsiva, cargando así nuevo contenido. Aunque el desplazamiento infinito esté pensado para la serendipia en contextos de uso de ocio (explorar un catálogo de películas o una galería de imágenes), a las personas no nos gusta dejar las cosas a medias, nos sentimos incómodos cuando empezamos algo y no lo terminamos.

Dejar una tarea a medias nos suele generar una cierta preocupación. Al completarla se libera esta tensión y nos sentimos aliviados, generando un cierto bienestar. Realizar una lectura en diagonal de un contenido, comprobar su tamaño para sopesar nuestro esfuerzo y, de alguna forma, verificar o llegar hasta el final de la página, nos libera de esa pequeña tarea que nos hemos auto-impuesto.

¿Pero por qué nos inquieta tanto esto?

La memoria del camarero de Bliuma

Los camareros profesionales tienen una capacidad increíble para recordar pedidos de diferentes mesas por muy complejos que sean, siendo capaces de entregarlos a la persona correspondiente. Esta capacidad llamó la atención de la psicóloga de la Gestalt y psiquiatra soviética Bliuma Zeigárnik, quien a mediados de la década de 1920s, después de observar en una terraza a un camarero que era capaz  de retener en su cabeza varios pedidos mientras la mesas no estaban servidas.

Esta virtud no parecía tener mucha relación con un esfuerzo mental sostenido, sino más bien con la capacidad de mantener estas tareas incompletas en la memoria a corto plazo. A medida que se generaban más pedidos y estos no eran servidos o pagados, los camareros parecían sentirse irritados.

La doctora Zeigarnik intentó reproducir esta hipótesis realizando experimentos en su laboratorio de la Universidad de Berlín, bajo la supervisión de Lev Vygotsky. Durante el estudio, se les pidió a los participantes que realizaran varias tareas o puzzles, algunos de ellos eran interrumpidos a mitad de los ejercicios y se les solicitaba empezar a trabajar en otras tareas, lo cual alteraba bastante a los participantes. Cuando en la entrevista final se les solicitaba a los sujetos recordar qué tareas habían realizado, Zeigarnik concluyó que las personas que no habían finalizado tareas, además de estar más inquietas, tenían más capacidad para recordarlas con más detalle que aquellas a las cuales se les había permitido completarlas.

Cuando tenemos varias cosas que recordar en nuestra memoria a corto plazo (listas de la compra, pedidos, números para hacer operaciones…), tenemos que enumerarlas continuamente para retenerlas en nuestra mente, de lo contrario desaparecerían. Esto requiere mucho esfuerzo mental, que naturalmente se incrementa cuanto mayor es el listado. Nuestro cerebro tiende a recordar solo aquellas tareas que están incompletas, de lo contrario nos volveríamos locos reteniendo detalles intrascentales.

Además esta inquietud puede mantenerse durante un período más largo, un fin de semana o incluso unas vacaciones, ya que nos solemos preocupar por aquellas cosas que no hemos conseguido cerrar.

Los guionistas de televisión saben utilizar muy bien esta debilidad psicológica, es el denominado efecto cliffhanger, y la principal razón por la cual la mayoría de la población del primer mundo esté enganchada a la series de televisión. En diseño de interacción se suele utilizar este efecto mediante la inclusión de barras de progreso, pasos, listas de tareas… elementos visuales incompletos que nos incitan a continuar con un proceso.

Recuérdame

Hasta la llegada de los motores de búsqueda como Google y más tarde de los teléfonos inteligentes, las personas solíamos utilizar de forma más intensiva los objetos físicos para evocar nuestra memoria externa, una memoria que utiliza señales del entorno para ayudarnos a recordar: Listas de la compra sujetadas por imanes en la nevera, apuntes de clase, libros que nos evocan ideas…

Pero ahora esta memoria externa no es gestionada por nosotros, hemos delegado estas capacidades a la tecnología, olvidando toda la información que creemos irrelevante, teniendo la certeza de que siempre que necesitemos algo estará disponible en los motores de búsqueda como Google, y que en todo caso, llegado el momento, ya recibiremos una alerta recordándonos que es hora de ir a buscar a nuestros hijos a la escuela.

Pero en todo caso, estas notificaciones, si nos recuerdan tareas relevantes, suelen ser útiles para nuestro día a día, o al menos esto era así en los inicios de los teléfonos inteligentes. Cuando Apple lanzó el iPhone, en la primera versión de iOS de 2007, las notificaciones sólo se ofrecían en las aplicaciones de productividad propias del sistema, básicamente se limitaban a los mensajes de texto, las llamadas perdidas y los nuevos correos electrónicos. Tuvieron que pasar 2 años para que las notificaciones push se ofrecieran a las aplicaciones de terceros, abriendo la caja de pandora a una cacofonía de notificaciones e inaugurando la era de la economía de la atención.

Nuestro sistema nervioso está optimizado para percibir cambios en el entorno y reaccionar en milésimas de segundo, es un mecanismo natural de defensa fruto de millones de años de evolución, que compartimos con el resto del mundo animal. Pero a diferencia de la sopa de Aza, este tiene un límite, y se puede llegar a saturar por exceso de estímulos, generando hipersensibilidad o incluso anestesia, como mecanismo de defensa.

Además, lo curioso es que, por mucho que seamos conscientes de estos mecanismos…

Nos cuesta mucho evitar estas trampas.

Daphne Oram, pionera de la música electronica y las interfaces naturales

22 Sep, 2018, por Sergio.

Londres, corre el año 1942. Daphne Oram, una talentosa pianista, organista y compositora de tan sólo 18 años, rechaza una plaza en la Royal College of Music por un empleo en la BBC como ingeniera junior de estudio y “ecualizadora de música”.

A los pocos años de trabajar allí descubre los avances en sonido sintético. En 1946 la BBC acababa de adquirir unos magnetófonos que usaba de forma puntual para realizar grabaciones de ópera, y empieza a experimentar por su cuenta con estos: recogía todos los magnetófonos disponibles y los desmontaba en un estudio, quedándose a menudo en él hasta altas horas de la madrugada. Grababa sonidos en las cintas, las cortaba y hacía loops con ellas, jugaba bajando y subiendo la velocidad de reproducción, las reproducía al revés… Cuando amanecía, volvía a dejar todos los magnetófonos en su sitio.

Daphne Oram en su estudio

Daphne Oram fue una visionaria que desde el primer momento tuvo claro el potencial creativo de las máquinas:

«Así como la cámara y la película de cine han explotado las ideas de tiempo y espacio para contar historias, seguramente el micrófono y la cinta podrían hacer lo mismo con la música»

Mientras experimenta con estas nuevas tecnologías, también se dedica a componer música, creando piezas emblemáticas como Still Point, la primera composición de la historia que combina orquesta clásica con sonidos electrónicos. No obstante, nunca fue interpretada en directo, la propia BBC la rechazó y permaneció únicamente como partitura durante 70 años, hasta el 24 de junio de 2016, cuando la Orquesta Contemporánea de Londres interpretó Still Point en directo por primera vez.

No tardó mucho en ser directora de estudio, y en 1958 ella junto con su colega Desmond Briscoe, convencieron a la BBC para crear el Radiophonic Workshop, uno de los primeros estudios especializados en efectos de sonido, atmósferas y música de fondo. Su trabajo aquí fué seminal, sentando la base de técnicas para la creación música electrónica, y colaborando en la creación de temas emblemáticos como el de la série de TV Doctor Who.

Pero Daphne iba demasiado deprisa para la época, en todos los sentidos, su compañeros masculinos la consideraban “una persona muy difícil, voluntariosa y obstinada, atributos muy malos para una mujer”. Así que en el año 59 deja la BBC para montar su propio estudio-laboratorio en un granero del condado de Kent, donde desarrolla su propia técnica para crear sonidos electrónicos: Oramics.

Oramics es un artefacto completamente disruptivo incluso a día de hoy, es como un eslabón perdido en los instrumentos de música electrónica. Daphne tenía conocimientos sobre grabación óptica y su uso en los proyectores de películas, y quería controlar su sistema dibujando directamente en tiras de película. La técnica de Oramics consiste en dibujar ondas en películas fotográficas de 35mm, estos dibujos eran leídos por células fotoeléctricas que a su vez generaban una carga eléctrica, controlando así la frecuencia, el timbre, la amplitud y la duración del sonido. La máquina era monofónica, sólo podía reproducir un sonido a la vez, por lo que si quería añadir variables al sonido, como el tono o el eco, tenía que utilizar varias cintas en paralelo.

La flexibilidad y el control sobre los matices de los sonido no tenía parangón en los sintetizadores analógicos de la época. Además la interfaz era completamente intuitiva y natural (NUI), había una relación directa entre la imagen gráfica y la señal de audio, bastaba con jugar experimentando con las formas de las ondas para crear sonidos. Daphne llegó a depurar tanto la técnica en su cabeza, que podía imaginar visualmente los sonidos que quería reproducir.

Daphne Oram trabajando con Oramics

Por desgracia Oramics tuvo un recorrido muy corto, a pesar de que fué utilizada en los 60s en varias películas y obras teatrales, su uso práctico fue reemplazado una vez que la tecnología de control del voltaje se introdujo en los sintetizadores, sin embargo inspiró a desarrollos posteriores en software.

Daphne Oram también dejó escritos sobre música electrónica y técnicas de estudio, su obra principal  An Individual Note of Music, Sound and electronics es un libro muy especial y raro, se podría decir que es como un manual de electrónica desde una perspectiva filosófica-mística.

An Individual Note of Music, Sound and electronics

La idea de un sistema de «música gráfica» obsesionó a Oram durante toda su vida. A pesar de sus grandes aportaciones, fue un personaje anónimo en vida. Su legado empezó a salir a la luz después de su muerte en 2003.

Su perspectiva de la música electrónica, no como algo mecánico y sin alma, sino como algo potencialmente orgánico e imperfecto (como cualquier otra música), es muy humanista y democrática. La interfaz gestual de Oramics permitía que cualquier persona pudiera componer su música de forma experimental e intuitiva. Su trabajo, aunque suene ingenuo desde una perspectiva actual, nos invita a huir del cinismo y el pragmatismo, alentandonos a crear herramientas creativas y accesibles.

Bibliografía:

 

100 años de diagramas de flujo

24 Ene, 2016, por Sergio.

Como diseñadores de interacción, gran parte de nuestro trabajo es documentar de forma gráfica aspectos conceptuales como procesos y funciones, descripciones de modelos que pueden afectar tanto al software o servicio que estemos diseñando. Uno de los modelos más utilizados, a la hora de representar algoritmos o procesos, son los diagramas de flujo: un artefacto que describe de forma visual y secuencial las instrucciones de un proceso.

Su historia se remonta a principios del siglo XX, más o menos entre 1908 y 1924, cuando Frank y Lillian Gilbreth estudiaron de forma sistemática los movimientos que realizaban los trabajadores con el objetivo de mejorar sus tareas. Documentaron este estudio, mediante películas y modelos en 3D de los movimientos.

Para proyectar gráficamente esta investigación sistemática, crearon un alfabeto visual denominado “Therbligs” (Gilbreth leído del revés), dando nombre a cada una de las acciones involucradas en una tarea.

Therbligs

Mediante la diagramación de therbligs de forma secuencial, podían identificar aquellas aquellas tareas que eran innecesarias o ineficientes, eliminando incluso fracciones de segundo en tiempo perdido, creando así los primeros gráficos de procesos.

Frank Gilbreth presentó en 1921 el primer diagrama de flujo a los miembros de la ASME. En su ponencia «Process Charts – First Steps in Finding the One Best Way«, resultado de la investigación conjunta con su mujer, ya enfatiza el propósito sintético e iterativo del artefacto:

The Process Chart is a device for visualising a process as a means of improving it. Every detail of a process is more or less affected by every other detail; therefore the entire process must be presented in such form that it can be visualised all at once before any changes are made in any of its subdivisions. In any subdivision of the process under examination, any changes made without due consideration of all the decisions and all the motions that precede and follow that subdivision will often be found unsuited to the ultimate plan of operation.

La intención de los Gilbreth era representar de una forma gráfica, abstracta y sintética, las condiciones actuales de un proceso, con el objetivo de optimizarlo para hacerlo más rentable y eficiente. Diagramando un proceso es más fácil de detectar un error y posibles incoherencias, ya que se tiene una visión general de todo el sistema.

Diagrama de flujo para cargar una granada, creado por los Gilbreth.

Pronto llegaron a la conclusión de que también era una forma eficaz de presentar una idea desde el punto de vista del negocio o servicio, ya que se trata de una visualización muy estructurada.

A principios de los años 30, Allan H. Mogensen, un ingeniero industrial que había estudiado los métodos de los Gilbreth, después de realizar trabajos de consultoría en empresas como Kodak, se unió a la Lillian Gilbreth y asociados comenzando a formar a gente de negocios en los métodos de simplificación del trabajo a través del modelado de procesos.

El uso de diagramas de flujo, era una buena herramienta para mediar entre los diferentes departamentos y actores implicados, ayudando a la solución de problemas de comunicación y limando posibles discrepancias. También permitía identificar patrones y similitudes entre procesos, haciendo posible un uso más eficiente de las tareas y facilitando la transferencia de habilidades.

Mogensen formó a muchas personas en las “Work Simplification Conferences”, un programa intensivo de seis semanas que tenía lugar en Lake Placid (New York) y que desde 1937 influyó durante casi 50 años a profesionales como Art Spinanger y Ben S. Grahan, que mediante su programa “Métodos Deliberados de Cambio”, contribuyeron a ahorrar miles de millones de dólares en empresas como Procter & Gamble. Grahan contribuyó además a llevar más lejos el diagrama original que se presentaba en las conferencias de Mogensen, expandiéndolo a múltiples flujos de información.

Mogensen y Grahan

Pocos años más tarde, en pleno fervor del Scientific Management, en 1947 la ASME adoptó un conjunto de 5 símbolos, derivados del trabajo original de los Gilbreth, como el estándar para los diagramas de proceso. El mismo año Herman Goldstine y John von Neumann crearon el actual alfabeto visual de los diagramas de flujo en ingeniería informática, que corresponde a las funciones o instrucciones básicas de una computadora, facilitando así la traducción posterior en un lenguaje de programación.

Símbolos de diagramas de flujo en ingeniería informática.

  • Terminación (rectángulo ovalado), donde empieza o termina el diagrama.
  • Proceso (rectángulo), muestra los cálculos realizados.
  • Decisión (rombo), indica una situación de verdadero o falso.
  • Entrada / salida, indica leer y escribir funciones.

En diseño de interacción se suelen utilizar estos últimos, en una versión más o menos sofisticada según el contexto, y de una forma más flexible combinándolos con otros elementos gráficos.

Sorprende que pese a ser un artefacto utilizado en multitud de disciplinas y metodologías de innovación, se trata de una herramienta con más 100 años de historia diagramada.

Bibliografia:

 

Visiones sesgadas de la Experiencia de Usuario

15 Abr, 2013, por Sergio.

Se dice que el trabajo del profesional de la Experiencia de Usuario (o UX) es explicar qué es la Experiencia de Usuario. Aunque pueda parecer a broma, no hay nada más lejos de la realidad. Detrás de un concepto tan vago como la definición del Arte: la creación y de definición de experiencias a través de la tecnología (en su más amplia acepción), se engloba una amalgama de profesionales con menos cosas en común de las que desearían como colectivo y con discursos a veces completamente opuestos.

El término UX fue acuñado por Don Norman a mediados de los 90’s, cuando era vicepresidente del Grupo de Tecnología Avanzada de Apple, pero tiene sus raíces en la ergonomía (o factores humanos). La experiencia de usuario abarca todos los aspectos de la interacción del usuario con la empresa, sus servicios y/o sus productos.

Pero los productos y servicios tecnológicos son cada vez más complejos, y requieren de una aproximación holística para llevarlos a buen puerto, además de ser evolutivos y flexibles. Se trata un concepto que engloba tantas disciplinas, técnicas y metodologías, que autodenominarse “experto en UX” es casi proclamarse una deidad.

Malentendidos con las disciplinas implicadas

Dan Saffer diseñó para su libro Designing for Interactions, un diagrama de Venn recientemente rediseñado por Thomas Gläser, que intenta hacer una fotografía panorámica con todas las disciplinas que interactúan en la UX.

Las disciplinas de la Experiencia de Usuario (Dan Saffer / Thomas Gläser)

A pesar de ello, hay muchas personas que, aún dedicándose profesionalmente a una de estas parcelas, siguen confundiendo el bosque de la UX con un sólo árbol. Veamos algunas de las facetas que más se prestan a confusión:

El diseño de interfaces

Es muy habitual confundir “Experiencia de Usuario” con el diseño de interfaces, sin embargo diseñar pantallas no es lo mismo que definir sistemas. Tradicionalmente la palabra “diseño” ha sido siempre confundida con “maquillaje”, como el último barniz que embellece el producto, pero las decisiones del diseño tienen su raíz en la estructura.

La estética es un aspecto importante y con un gran impacto en la experiencia final, pero sólo si entendemos el diseño como “proceso”, como estrategia, no como decoración, podremos aportar nuestro granito de arena a la UX.

Además, teniendo en cuenta que la interacción persona-máquina también puede abordarse desde otros sentidos del hombre (por ejemplo mediante interfaces gestuales o auditivas), el componente visual no ha de ser un factor decisivo de la UX.

La última tecnología

En muchas ocasiones los departamentos de I+D se dedican a desarrollar tecnologías y luego buscan una aplicación práctica para las mismas, muchas tecnologías se imponen simplemente porque son nuevas, sin dar apenas tiempo a los usuarios a que se familiaricen con la anterior.

La amortización de una nueva tecnología puede implicar a veces sobre el usuario, la impostura de necesidades que antes no existían. También la voluntad de adoptar rápidamente una tecnología emergente, simplemente porque está de moda (véase la actual burbuja de aplicaciones para móviles) se antepone a la lógica de encontrar la mejor tecnología para resolver un problema de la forma más sencilla para el usuario, o aportar mayor valor.

La usabilidad

10 años atrás, la usabilidad era un concepto muy de moda en internet, muchos de los que nos dedicamos al diseño de interacción aún lo utilizamos como punta de lanza en cualquier proyecto. Sin embargo, hay muchos sistemas en los cuales la eficiencia y la efectividad no son factores determinantes en la UX: la curva de aprendizaje, el componente visceral y las respuestas emocionales son muy importantes en algunos productos y servicios (videojuegos, ocio, productos aspiracionales…). Si bien es cierto que cualquier profesional de la UX que se precie, ha de tener interiorizados los principios básicos de usabilidad y ergonomía, para que siempre estén presentes, en menor o mayor medida, equilibrándose con otros aspectos.

El usuario

El usuario es el foco de la UX, pero no todo ha de girar alrededor del usuario. Hay otros aspectos como la viabilidad y la factibilidad del proyecto que condicionan muchísimas decisiones.

Las 3 patas de una start up: Negocio, UX y tecnología (Des Traynor)

Aunque hay muchos proyectos cuyo objetivo de éxito no es el económico, eso no implica que no deban regirse por las leyes de la viabilidad y del mercado. ¿Cómo se financiará el proyecto? ¿Cómo se conseguirán usuarios? ¿Cuáles serán los objetivos y cómo se medirá su éxito? También tener en cuenta condicionantes tecnológicos como las plataformas utilizadas, la escalabilidad y la seguridad del sistema. No es lo mismo realizar un proyecto para una entidad financiera que para el público infantil, en ambos los aspectos de seguridad y confidencialidad son claves pero se rigen por leyes muy distintas.

Otro aspecto que se ignora muchas veces son las personas implicadas en el proyecto, los propios miembros del equipo también son usuarios, cuya felicidad y eficiencia condiciona mucho el éxito del proyecto.

Disputas entre metodologías, prácticas y procesos

El sector ha madurado lo suficiente como para que los profesionales se especialicen en muchos contextos y ámbitos, lo cual también ha derivado en diversos enfoques metodológicos que a menudo entran en conflicto. Veamos algunas de las polémicas más recientes:

Diseño centrado en la actividad vs. diseño centrado en el usuario

El Diseño Centrado en la Actividad se trata de planteamiento de alto nivel que pone su foco de atención en las tareas y metas en lugar de focalizarse en el usuario como ente individual, dando más importancia a lo que la gente hace, o a lo que como profesionales pretendemos que sean capaces de hacer. Tiene su origen en la Teoría de la Actividad, uno de los principales enfoques psicológicos de la antigua URSS, siendo ampliamente utilizada en psicología, educación, formación profesional, la ergonomía y la psicología del trabajo. El paradigma permaneció prácticamente desconocido fuera de la Unión Soviética hasta mediados de 80s, cuando fue recogido por investigadores escandinavos. Esta perspectiva puede ser muy atractiva en situaciones en las que la base de usuarios es muy diversa y los objetivos múltiples, pero las actividades principales son menos numerosas y más fáciles de definir.

Uno de los puntos fuertes de la Teoría de la Actividad es que cierra la brecha entre el sujeto individual y la realidad social, dirigiendo su atención a la psicología del trabajo y del aprendizaje.

Mike Long, en su polémico artículo Stop Designing for “Users”, promueve la idea de que debemos tratar de ver «la fotografía panorámica» de un sistema y la forma en que las personas interactúan con él, defendiendo que tal vez sea mejor buscar actividades en común y diseñar para fortalecerlas, en lugar de acercarse demasiado y enfocar nuestros esfuerzos de diseño en la satisfacción de las necesidades de los individuos.

Los defensores de esta metodología advierten sobre los peligros de “escuchar demasiado a los usuarios”: aunque la filosofía básica del Diseño Centrado en el Usuario es escucharlos (teniendo muy en cuenta sus quejas y críticas), acceder a sus peticiones pueden dar lugar a diseños demasiado complejos. También es cierto que las personas nos adaptamos a la tecnología y que la propia mejora de la herramienta facilita nuestro trabajo.

Los usuarios nos darán pistas, pero nunca soluciones de diseño. El diseño para todos no ha de ser diseñado por todos, sino por un profesional con autoridad que escuche a los usuarios y que traduzca sus inputs en requerimientos de diseño. Lo cual nos lleva a la siguiente polémica.

El genio solitario vs. el diseño del comité

La metodología tradicional del Diseño Centrado en el Usuario enfatiza la importancia de la observación de las personas utilizando la interfaz, la investigación de usuarios, los test y la opinión de todos los actores implicados en el proyecto. Pero este enfoque tiene muchos detractores que creen que esta metodología tiene tendencia a crear “diseños por comité”, que si bien, aunque puedan resultados satisfactorios, no está orientado a la creación de soluciones sobresalientes o innovadoras.

En contraste, el enfoque tradicional del diseño, sigue defendiendo la figura del director de orquesta. La creación de soluciones dirigidas por el diseñador experto que controla todas las decisiones del proyecto y con una visión clara, global y consistente.

Aunque a priori, la aproximación del director de arte pueda parecer la que ofrece mejores soluciones, es en realidad la excepción que cumple la regla. Los genios no abundan y el talento es una capacidad humana difícil de transmitir en una organización muy grande.

Luego está el riesgo al fracaso, por ejemplo Jeff Hawkins antes de crear la Palm Pilot, tanteó con otras tentativas de PDAs (GRiDPadSize, Zoomer) que no fueron comercialmente viables. Por lo tanto muchas organizaciones, defiende la metodología tradicional del Diseño Centrado en el Usuario, simplemente por aumentar las posibilidades de éxito.

Apple vs. Google (Peter Arkle)

Lean UX vs. Agile UX

Lean y Agile son dos palabras muy de moda en el sector, en realidad simplemente se trata de darle más importancia dos aspectos fundamentales en la UX: el qué y el cómo.

En el modelo tradicional de UX, la investigación es algo que se hace antes de empezar a crear el producto, para saber qué es lo que vamos a construir. En un enfoque lean, se crean y recopilan continuamente métricas sobre lo que estamos creando. Los experimentos y las hipótesis se validan de forma continua, creando prototipos y validándolos con los usuarios, en un ciclo continuo de creación y test.

Agile es una metodología creada por desarrolladores que ven la creación del producto desde su perspectiva, con el objetivo de crear software funcional de alta calidad de la forma más rápida y eficiente. Pero esto implica la colaboración de personas, y por lo tanto la metodología agile ofrece un cambio de paradigma sobre la forma de trabajar de los equipos y en especial afecta a los profesionales de UX y sus entregables, los cuales han de entregar documentos orientados a la colaboración con los desarrolladores.

UX tradicional, agile y lean (Anders Ramsay)

Lo cierto es que ambas metodologías se pueden solapar según las necesidades del proyecto, y cada organización suele tener el coctel metodológico que le ofrece mejores resultados.

Organizaciones diferentes, profesionales diferentes

Posiblemente los dos principales factores que determinan la diferencia entre un trabajo de diseño brillante y uno mediocre, son el contexto y la cultura de la organización: el tiempo, la falta de recursos, cambios en la estrategia, conflictos de prioridades entre los miembros… Como comentaba hace tiempo Alan Cooper, los problemas en el producto son los síntomas de que algo va mal en la organización.

Por lo general, la figura del diseñador o experto de UX en una organización se acerca más a la del gestor o el manager. Hay organizaciones en las cuales tiene un papel protagonista y directriz, y otras en las que su figura es más de mediador entre negocio y tecnología. Dependiendo del contexto de trabajo, la figura y el rol del diseñador de UX variará para adaptarse a las peculiaridades de la organización.

Kim Goodwin, en su charla “Your Toughest Design Challenge” del User Interface 17 en Boston, apuntaba cuatro tipologías de organizaciones: las adhocracias, los clanes, las jerarquías y los mercados. Según Goodwin, cada una de ellas requeriría un perfil de profesional de UX con ciertas peculiaridades:

Adhocracia

Son organizaciones en las cuales reina un caos generalizado, no existe ningún proceso consolidado y las cosas están siempre en constante reinvención. Hay una cierta resistencia la documentación pero sin embargo son organizaciones donde prima la novedad, la experimentación y están centradas en el crecimiento.

Los profesionales de la UX en una adhocracia son “ninjas de pizarra”, que traducen la visión del grupo en diseños funcionales, elaborando prototipos rápidos y recogiendo el feedback de los usuarios y del resto del equipo para avanzar en los proyectos.

El Clan

Organizaciones donde se presta mucha atención a las relaciones laborales. En los clanes las cosas toman mucho tiempo, todo el mundo participa de las decisiones. Las reuniones suelen ser largas y con muchos participantes, no hay una atribución clara de las responsabilidades y se evitan los conflictos.

En los clanes los profesionales de la UX son facilitadores y entrenadores. Su labor es muy pedagógica e invitan al resto del equipo a su proceso de investigación y diseño, donde se potencia el intercambio de ideas y el aprendizaje del colectivo.

La jerarquía

Organizaciones con mucha especialización. En las jerarquías existen procesos rígidos, roles y títulos de trabajo, sus miembros están enfocados hacia el interior de la organización y hay una cierta aversión al riesgo.

De hecho, el la reducción del factor riesgo es el argumento que más vende en las jerarquías, por esta razón, los profesionales de la UX en una jerarquía son expertos. Son fuentes de confianza que aseguran el mínimo error posible en la implementación de los proyectos.

El mercado

Los mercados son compañías enfocadas al exterior, donde los productos se elaboran a partir de la investigación, la monitorización y la agilidad. El rol del profesional de UX dentro de un mercado se parece al de un científico, el cual puede medir la implementación de todas las decisiones de diseño (por pequeñas que sean) y demostrar su impacto mediante el análisis de datos.

Independientemente del rol dentro de la organización, el papel del Diseñador de Experiencia de Usuario, será el de facilitador, educador, constructor empatía y defensor del usuario / cliente. No sólo es experto en el usuario, sino que es el experto en el proceso. Ha de saber qué herramientas y técnicas a utilizar en según la situación y el estado del proyecto, haciendo las preguntas correctas y dando sentido a las respuestas.

Los profesionales más destacados no sólo evangelizan los principios y la filosofía de la experiencia del usuario en su día a día, sino que además involucran a todo el equipo y construyen una cultura de trabajo en toda la organización.

No obstante, a pesar de la enorme evolución y especialización entre los profesionales, sigue existiendo una sensación de incertidumbre y dinamismo, inherente al trabajo de diseño y a la inexistencia de soluciones absolutas.

It depends (Kevin Cheng)

UXSpain y la necesidad de un encuentro entre profesionales

Pese a estas diferencias y peculiaridades, los profesionales de la UX siempre se han caracterizado por compartir los recursos e intereses con la comunidad de una forma u otra, por lo general de forma virtual, y en los últimos años se había producido un gran lapso de tiempo sin ningún evento que sirviera como pretexto para desvirtualizar y aglutinar en un mismo espacio físico a la comunidad de UX en España.

UXSpain se presentó en su primera edición el año pasado, como una nueva oportunidad para sumar esfuerzos, así como un espacio de reflexión y encuentro para construir comunidad. El evento superó todas nuestras expectativas, superando en más de 400 personas el número de asistentes, y sirvió como detonante de otros eventos y actividades en diferentes ciudades que han propiciado el lanzamiento de propuestas innovadoras con las que seguir aprendiendo.

Para la edición de este año, el encuentro sigue manteniendo su misma filosofía, se organiza sin ánimo de lucro y todos ingresos de destinan a sufragar los gastos del evento. Tendrá lugar los días 10 y 11 de mayo en Valladolid y tendremos a nuestra disposición un edificio completo: el Palacio de Congresos Conde Ansúrez, de la Fundación General de la Universidad de Valladolid. Esperamos poder disfrutar tanto como lo hicimos el año pasado.

Bibliografía

Intervenciones superficiales

15 Feb, 2013, por Sergio.

En la calle Bon Pastor de Barcelona, hay una pequeña joya arquitectónica escondida en un callejón en pleno centro de la ciudad, se trata de la intervención que el artista Joan Brossa realizó para la fachada del Colegio de Aparejadores y Arquitectos Técnicos de Barcelona.

Un edificio oscuro en el cual el artista superpuso grandes letras de colores que indican el nombre de la institución. En el espacio que queda entre las ventanas, las mismas letras se agrupan verticalmente siguiendo un orden sistemático y alfabético. Luego, si sois capaces de no romperos el cuello y mirar más arriba, en el tejado, veréis que sobre el edificio se posa una gigantesca langosta de acero, diseñada por Brossa y realizada por el pintor Josep Pla-Narbona.

Fachada del Col·legi d'Aparelladors de Barcelona, de Joan Brossa

Cuando le preguntaron a Brossa por la elección de aquel insecto, este permaneció callado esbozando una de sus sonrisas picaruelas, asegurando de que se trataba de un “homenaje inconsciente al talento de los aparejadores”.

Una sola pantalla, a veces el rediseño de una sola pantalla puede provocar debates internos que generan cambios estructurales en una organización y en la forma de trabajar de sus miembros. Porque, por muy funcional que queramos que sea nuestro trabajo, este se presta siempre a la interpretación. La función siempre choca o se solapa inevitablemente con el significado.

La impostura tecnológica

17 Sep, 2012, por Sergio.

El uso de una tecnología emergente es siempre una tentación, es muy probable pensar que el factor «novedad» o «de moda» facilitará el éxito de un proyecto, o que al menos llamará la atención sobre los medios, aumentando así su difusión.

Cuando me refiero a tecnología emergente no estoy hablando de nada del otro mundo, puede ser simplemente la impostura de crear una aplicación para móviles, el uso de códigos QR para ofrecer información contextual de un lugar turístico o simplemente el hecho de añadir una interfaz a cualquier objeto, con el peligroso riesgo de caer en el ridículo.

Al igual que la incrustación de interfícies por doquier, con los códigos QR estamos viviendo un boom durante los últimos años, de pronto estaban por todas partes, se pusieron muy de moda para dar acceso a información contextual sobre puntos de interés turístico, en placas de hierro cortadas al láser, tallados en rocas… A veces pienso que los arqueólogos del futuro los interpretarán como señales e indicios de una civilización alienígena que nos visitó.

Muchas veces estos códigos se ubican sin instrucciones, de forma críptica, por no decir emplazados en lugares sin cobertura 3G, ni WIFI disponible. ¿No sería sido más fácil colocar un panel informativo en el punto de interés? Quizá sí, pero entonces el ayuntamiento de turno no habría tenido acceso a una subvención de I+D, ni habría ganado un premio a la innovación tecnológica en la provincia.

Con las apps pasa ¾ de lo mismo. El desarrollo de una aplicación específica para un dispositivo puede tener muchos beneficios, ya que entre muchas razones facilita el acceso a la tarea o servicio y en principio la hace más ágil y potente, ya que al estar optimizada para el dispositivo aprovecha al máximo los recursos del mismo para ofrecer u optimizar las funcionalidades. Pero en muchas ocasiones, quizá la mayoría, las motivaciones para desarrollar una aplicación están muy lejos mejorar la experiencia del servicio y son simplemente subterfugios para la captación de nuevos usuarios, con la intención de el introducir un pie en su dispositivo y acabar ofreciendo un acceso directo a funcionalidades muy similares a las que se puede encontrar en el sitio web, por no hablar de réplicas incrustadas del mismo.

Recientemente nos vino a visitar un potencial cliente, que venía con las ideas muy claras y la intención de desarrollar una aplicación. La persona en concreto no tenía experiencia con proyectos digitales, pero había oído hablar de que una aplicación era «lo que tocaba hacer ahora». Cuando le pregunté sobre sus requerimientos y necesidades, honestamente no era nada que no se pudiera resolver mejor, más rápido y más barato con una landing page o con unos flyers.

Como profesionales, aunque sea una tentación trabajar en un proyecto con una nueva tecnología o técnica, estamos obligados a orientar al cliente con la mejor solución en función de sus necesidades y posibilidades, si conocemos bien nuestro oficio, no es ético vender una solución tecnológica de tendencia, para una necesidad que se pueda solucionar de forma más sencilla y eficiente.

De los últimos trimestres en el estudio, los proyectos en los que hemos tenido la oportunidad de trabajar y que mejor resultados y satisfacción han tenido por parte de los clientes, han sido aquellos que se soportan en una tecnología consolidada y familiar para los usuarios:

  • Un flujo de comunicaciones mediante SMS para situaciones de emergencia.
  • Una lista de distribución para solicitar alojamiento mediante una única dirección de email.
  • Distribución de informes automáticos en PDF por email.

El diseño de interacción no se debe acotar tan sólo a una interfaz, sino analizar el servicio en su globalidad para encontrar la pequeña microinteracción que haga mover todo el engranaje con el mínimo esfuerzo. Como decía recientemente en un artículo la gente de Cooper: The best interface is no interface.

Rudolf Arnheim y el Pensamiento Visual

22 Jun, 2012, por Sergio.

Seguramente muchos de vosotros, aún hoy en día, os habréis encontrado con entregables de UX plagados de texto, instrucciones y frases descriptivas, que intentan solucionar mediante el uso del lenguaje escrito lo que no se ha podido solucionar visualmente. Este tipo de soluciones, generalmente, entorpecen mucho la interfaz y la hacen poco fluida, ya que no hacen otra cosa que parchear problemas de diseño.

Esta inercia, cada día más en desuso, quizá sea debida a que durante mucho tiempo en este país, el diseño o lo visual tuvo mucho descrédito entre los profesionales de la Usabilidad y la Arquitectura de la Información. El diseño estaba completamente separado de los atributos de la usabilidad, era muy común oír frases del tipo “eso es ya un problema de diseño” o “que lo solucione el diseñador”. Esto fue en gran parte condicionado por el background multidisciplinar de los pioneros de la profesión.

Pero ¿por qué este rechazo y dificultad para interpretar y valorar lo visual?

En las culturas occidentales, el lenguaje (y por tanto el pensamiento) está basado en una estructura semántica, percibimos el mundo por una serie de conocimientos descriptivos lo cual nos lleva inevitablemente a una lógica científica y lineal, buscamos un sentido inequívoco de las cosas: qué, cómo, cuándo y por qué.

El lenguaje y pensamiento visual no funcionan así, los elementos visuales no tienen un sentido inequívoco, lo cual ya choca con la forma de pensar de la mayoría.

Uno de los pioneros en analizar y dignificar el pensamiento visual fue Rudolf Arnheim, psicólogo y filósofo nacido en Berlín en 1904, muy influido por la psicología de la Gestalt y la Hermenéutica. Para Arnheim, el hombre moderno está permanentemente acosado por el mundo del lenguaje y lo utiliza demasiado para relacionarse con el mundo.

Rudolf Arnheim

En su libro Visual Thinking (1969), un clásico en las escuelas de Arte y Diseño, plantea que existen otras formas de aprehender el mundo basadas en los sentidos, por ejemplo, en la vista. El lenguaje nos sirve para nombrar lo que ya ha sido escuchado, visto o pensado, pero abusar de él nos puede paralizar en la resolución de problemas mediante la creación intuitiva.

«All perceiving is also thinking, all reasoning is also intuition, all observation is also invention.»
Rudolf Arnheim, Art and Visual Perception: A Psychology of the Creative Eye (1954)

¿Cómo pensamos de forma visual?

Para Arnheim, la inteligencia es imposible sin percepción. Las ideas o conceptos que tenemos de un objeto nos condicionan cómo los percibimos. Percepción y pensamiento actúan de forma recíproca. Por ejemplo, un estímulo visual sobre un objeto desconocido nos llama más la atención que otro con el que estamos familiarizados (por ejemplo una fruta exótica). Esta continua retroalimentación entre estímulo e intelecto nos facilita nuestra vida cotidiana.

Mediante la creación de artefactos visuales (con mayor o menor definición o conceptualización), no hacemos otra cosa que proyectar nuestras ideas, ponerlas en orden sobre el papel para volver a percibirlas y elaborarlas mejor. La representación visual de los conceptos nos ayuda a pensar y conectar las ideas con el mundo real, para Arnheim es vital estar con los pies en la tierra. No podemos enseñar matemáticas sin dar ejemplos prácticos.

“We shape our tools and thereafter our tools shape us”
Marshall McLuhan, Understanding Media (1964)

¿Cómo analizamos lo que percibimos visualmente?

Según Arnheim hay tres actitudes de observación:

  1. La forma más común es aislar el objeto para percibirlo en un estado puro, es decir, sintetizar su idea / concepto en su forma más simple. Esta es la forma de como nos enseñan a dibujar desde pequeños, por ejemplo garabateando la típica casa.Cuando dibujamos de memoria, a partir de nuestros “diseños internos” evocamos imágenes eidéticas, imágenes impresas en la memoria o los conceptos de los estímulos que hemos recibido. A mayor nivel de abstracción, mayor capacidad de representación universal tendrá la imagen.
  2. Otra actitud es no aislar el objeto de su contexto, sino fundirlo con él para que los atributos de los dos se mezclen. Esta sería la mirada pictórica, en la cual, cuando se analiza una imagen se perciben luces, sombras y colores para intentar construir un representación similar a la que percibimos con la vista.
  3. La tercera opción es analizar el objeto de forma creativa, desde múltiples puntos de vista y posibilidades. Cambiando su sentido, buscando nuevos usos y posibilidades de interpretación.

Estas 3 formas de observación y pensamiento visual son de uso contínuo y combinado en nuestra profesión. Por ejemplo, la primera sería utilizada para representar diagramas y conceptos abstractos. La mirada pictórica sería la propia del diseñador visual, que necesita una aproximación realista al producto final. Y la tercera es la que utilizamos para idear y buscar nuevas posibilidades, tanto de interpretación visual de los elementos de la interfaz como de la interacción.

Aprender a dibujar es cuestión de práctica, no hace falta que el dibujo sea entendido por los demás si a tí te sirve para proyectar tus ideas. Como bien decía Albert Einstein «Si no puedo dibujarlo, es que no lo entiendo».

Osteópatas

23 Ene, 2012, por Sergio.

En The Pipeline to your corporate soul, uno de los artículos que más hondo me caló el pasado año, Alan Cooper hablaba de las similitudes entre el lenguaje corporal y el software, y de cómo muchas compañías contratan a profesionales del diseño de interfaces sólo para realizar cambios estéticos cuando en realidad necesitan cambios más profundos.

Software has become like body language in the way it reveals your inner personality to a patient observer. Your body language always tells the truth, even when you are trying to hide an ugly secret, and it will give you away every time. You simply can’t create likable software if you are a dysfunctional company.

Cuanto más tiempo me dedico a esto, más profundamente creo que los cambios se tienen que introducir primero a nivel de organización, para que estos afloren a la superficie, es decir a la interfaz.

Incluso si eres capaz de entregar un trabajo de diseño y definición de experiencia de usuario excelente, de nada sirve interpretado en manos de una empresa con trabajadores desmotivados o consejos de administración multitudinarios; será raro que la implementación final se asemeje algo proyecto entregado. Por eso cada vez creo menos en el concepto de acuerdo por entregables, y más nuestra integración dentro del equipo del proyecto.

De otra forma nos convertimos en osteópatas de las interfaces, nuestro día a día transcurre corrigiendo los vicios posturales de la empresa, pero si está no adquiere buenos hábitos, estos suelen volver a aparecer pasado un tiempo.

Notificación de actualizaciones en Chrome

19 Dic, 2011, por Sergio.

Chrome es un navegador lleno de sutilezas de diseño, algunas son tan diminutas y efímeras que cuesta incluso ser consciente de ellas. Una de ellas es el cambio de color en el icono de notificación de actualizaciones.

Si sois de los reiniciais el ordenador y los programas muy de tanto en tanto, una vez cada 2 o 3 semanas, quizá os habréis dado cuenta del sutil cambio de color en este icono: durante los primeros días (quizá 5 o 7, no estoy seguro), el icono aparece en color verde, pasado este tiempo, el icono hace un sutil cambio de color a marrón, como si fuera la hoja de un árbol caduco en otoño.

Cambio de color en el icono de notificaciones en Chrome

Una forma muy poco intrusiva y elegante de llamar la atención sobre la necesidad de reiniciar el navegador, y a la vez, porqué no, una bonita metáfora visual: Tiempo de podar las ramas o dejar que caigan las hojas.

Glitchificar

1 Dic, 2011, por Sergio.

A menudo nos obsesionamos con resolver un problema de forma racional, siguiendo una metodología y perdiendo un poco la visión periférica sobre lo que ocurre alrededor. A veces se producen encuentros inesperados, producidos por accidentes o de forma casual, que nos pueden inspirar a encontrar nuevas soluciones.

Un glitch es un error breve en un sistema. A menudo se utiliza para describir un fallo transitorio que se resuelve solo de forma espontánea, y por lo tanto difícil de detectar y solucionar. El término es particularmente común en la informática y la electrónica, y muy popular entre los jugadores de videojuegos, aunque se puede aplicar a todo tipo de sistemas, incluyendo organizaciones humanas y la naturaleza.

En entornos de entretenimiento, el glitch aporta a veces más riqueza al producto, rompe las reglas establecidas y lo hace más divertido.

Por poner ejemplos, en diseño visual y motion graphics, las cortinillas del canal de televisión 3XL me tienen totalmente enganchado desde hace muchos meses. Explotan visualmente los típicos errores de pérdida de conexión de video online.

No sólo en términos estéticos se pueden buscar nuevas direcciones, quien sabe si los creadores del videojuego Portal, encontraron la inspiración después de experimentar un glitch que permitía al personaje atravesar los muros en otro videojuego.

Al igual que es muy humano reírse del mal ajeno, sacar partido de los errores de un sistema puede ser, en parte, un camino para humanizar dicho sistema.