Título: La iteración persona-ordenador

Página 362-392

Resumen

Capítulo 9: Estándares y guías

El diseño del software se centra en que es fundamental la experiencia del usuario. Al principio, el software no consideraba a los usuarios, ya que estos se debían adaptar al sistema. A comparación, actualmente una buena interfaz debe conectar con los usuarios para poder guiarlos y adaptarse al sistema. Asimismo, es importante la necesidad de entender el modelo mental y las capacidades del usuario.

Por lo que, todos estos aspectos han sido plasmados en unos principios generales del diseño de interfaces del usuario. Además, se proponen reglas de diseño que pueden ser estándares o directrices.

Las guías de estilo reflejan el cómo asociar principios  abstractos a entornos de programación específicos, es decir, son convenciones para diseñar entornos y así ayudar a los diseñadores a tomar decisiones adecuadas.

1. Principios y directrices

Los principios son sentencias generales que se basan en la investigación sobre cómo los usuarios aprenden y trabajan, se puede definir como ideas abstractas y de alto nivel que son aplicables de manera general en el diseño de interfaces.

Algunos de los principios expuestos por diferentes autores son:

SIMPSON

  • Definir a los usuarios
  • Dejar el control a los usuario
  • Minimizar el trabajo de los usuarios
  • Hacer programas sencillos
  • Mantener la consistencia
  • Proporcionar realimentación
  • No cargar la memoria de trabajo
  • No abusar de la memoria a largo plazo

PREECE

  • Estudiar la población de usuarios, es decir, considerando los distintos tipos de usuarios para adaptarse a las necesidades.
  • Reducir la carga cognitiva, evitando la necesidad de aprender detalles complicados.
  • Aplicar la ingeniería para resolver el problema
  • Mantener la consistencia

MANDEL

  • Colocar a los usuarios en el control de la interfaz
    • Emplear los modos de forma adecuada
    • Permitir el uso del teclado y del ratón
    • Permitir a los usuarios cambiar la atención
    • Mostrar mensajes descriptivos
    • Proporcionar acciones inmediatas, reversibles y realimentación
    • Adaptarse a los usuarios que tienen diferentes niveles de habilidad
    • Crear una interfaz transparente
    • Permitir la personalización de la interfaz
    • Permitir que los usuarios puedan controlar objetos de la interfaz
  • Reducir la carga de memoria
    • Aliviar la carga de memoria a corto plazo
    • Confiar en el reconocimiento
    • Proporcionar pistas visuales
    • Ofrecer opciones por defecto
    • Proporcionar atajos
    • Proponer la sintaxis objeto-acción
    • Usar metáforas del mundo real
    • Emplear relevación progresiva para evitar la saturación del usuario
    • Fomentar la claridad visual
  • Hacer la interfaz más consistente
    • Conservar el contexto de trabajo del usuario
    • Seguir la consistencia dentro y entre los productos
    • Mantener los resultados para las mismas interacciones
    • Animar al usuario explorar la interfaz

DIX

Facilidad de Aprendizaje:  los principios son los siguientes:

  • Capacidad de predicción
  • Capacidad de síntesis
  • Familiaridad
  • Generalización
  • Consistencia

Flexibilidad: es la multiplicidad de formas que el usuario y los sistemas pueden intercambiar información. Algunos principios son:

  • Tener iniciativa en el dialogo
  • Soporte multi-hilo
  • Migración de tareas
  • Capacidad de sustitución
  • Configurabilidad

Robustez: que permiten cumplir los objetivos y su evaluación. Los principios son los siguientes:

  • Capacidad de observación
  • Capacidad de recuperación
  • Tiempos de respuesta aceptables
  • Adecuación las tareas  

SCHNEIDERMAN

  • Reconocer la diversidad de usuario, para así distinguir las características detalladas de los usuarios y las situaciones que surgen antes de comenzar a diseñar
  • Prevenir los errores antes de que surgan
    • Utilizar las reglas de diseño
    • Utilizar atajos para usuarios experimentados
    • Ofrecer realimentación informativa
    • Proporcionar realimentación de la información
    • Ofrecer prevención de errores y una gestión sencilla de errores
    • Permitir la devolución de accionesDisminuir la carga cognitiva de la memoria a corto plazo.

IBM

  • Simplicidad: no sacrificar la usabilidad por la funcionalidad
  • Apoyo: ofrecer control al usuario y asistencia para facilitar tareas
  • Familiaridad: construir el producto según el conocimiento del usuario para facilitar su progreso
  • Evidencia: hacer objetos y controles visibles e intuitivos, utilizando representaciones para facilitar su progreso.
  • Estímulo: hacer acciones previsibles y reversibles, generando resultados esperados
  • Satisfacción: crear una sensación buena del progreso y logro de usuario
  • Disponibilidad: hacer que todos los objetos estén disponibles en cualquier momento y en cualquier secuencia.
  • Seguridad: evitar errores proporcionando ayuda de forma automática o con una solicitud del usuario
  • Versatilidad: soportar diversas técnicas de interacción para que el usuario elija la más adecuada
  • Personalización: permitir a los usuarios adaptar la interfaz a sus necesidades
  • Afinidad: diseño visual que refleja la vida cotidiana, incluyendo los siguientes:
    • Diseño substractivo: suprimir los elementos que no ayudan a la comunicación visual
    • Herencia visual: proporcionar una jerarquís de las tareas del usuario dependiendo de la importancia, empleando la posición relativa, contraste de colores y tamaño.
    • Similitud
    • Esquema visual

Las directrices son recomendaciones específicas que se obtienen de los principios de diseño más generales, son más concisas y requieren menos experiencia para comprenderlas. Se basan en acciones específicas para lograr objetivos.

Se crean a partir de los principios y son más aplicables a los usuarios, entornos y tecnologías específicas. Permiten garantizar la consistencia a lo largo de un sistema o un conjunto de sistemas.

Según Brown en el libro “Human Computer Interface Guidelines”, las directrices deben cumplir varios objetivos que son fundamentales:

  • Aprovechar la experiencia práctica
  • Incorporar experiencia experimental que sea aplicable
  • Añadir reglas de sentido común
  • Promover la consistencia entre los diseñadores responsables de diferentes partes de la interfaz
  • Reconocer posibles fallos y utilizar pruebas de usabilidad para resolverlos

2. Estándares

Son requisitos, reglas o recomendaciones que se basan en los principios probados y acordados por un grupo de profesionales autorizados a nivel local, nacional o internacional. Estos pueden ser:

  • Locales: el diseño o la práctica que es aceptada desde una industria, organización profesional o una empresa
  • Nacionales: convención aceptada por una amplia variedad de organizaciones dentro de una nación
  • Internacionales: consenso entre organizaciones de estándares a nivel internacional

El principal objetivo es hacer las cosas más fáciles, definiendo las características de los objetos y sistemas que se utilizan a diario. Asimismo, benefician al proporcionar:

  • Terminología común
  • Mantenimiento y evolución
  • Identidad común
  • Reducción en la formación
  • Salud y seguridad

Existen dos tipos de estándares:

  • Iure: generados por comités oficiales que están avalados por el apoyo del gobierno o una institución y requieren un proceso complejo que requiere, los siguientes pasos:
    • Elaboración de un documento preliminar que se hace público
    • Cualquier persona o empresa puede presentar correcciones del documento, las cuales deben ser comentadas y resueltas
    • Después de mucho tiempo e incluso años, se conigue un consenso y se acepta como estándar nuevo

En informática, existen muchisimos comités, pero los más destacados son los siguientes comités:

  • ISO(International Organization for Standardization/Organización Internacional de Estándares): promueve el desarrollo de la estandarización a nivel mundial para facilitar el intercambio internacional de bienes y servicios, y así desarrollar la cooperación en el ámbito económico, científico, tecnológico e intelectual. Inclute todos los campos excepto el de la ingeniería eléctrica.
  • IEC (International Electrotechnical Commission/ Comisión Electrotécnica Internacional): organización no gubernamental compuesta por comités de más de 40 países. Se basa en estándares relacionados con la ingeniería eléctrica y electrónica y tecnologías relacionadas. Coopera estrechamente con la ISO. Esta coordinación es gracias a Comité Técnico de Conexión (Joint Technical Committee, JTC).
  • ANSI(American National Standards Institute/ Instituto Nacional Americano para Estándares): Es privado y sin ánimo de lucro. Administra y coordina la estandarización voluntaria en EEUU. Su principal misión es ampliar la competitividad de las empresas de EEUU a través de los estándares.
  • IEEE(Institute of Electrical and Electronics Engineers/ Instituto de Ingenieros Eléctricos y Electrónicos Americano): asociación profesional técnica sin ánimo de lucro. Desarrolla y publica estándares generalmente aceptados en ingeniería eléctrica, electrónica e informática, así como el resto de ramas de ingeniería o artes y ciencias relacionadas. Trabaja con otros organismos de estandarización, nacionales e internacionales.

Dentro existe la IEEE Standards Association que son los responsables de gestionar los estándares, donde se compone por dos organismos: consejo directivo y consejo de estándares (encargado de fomentar, coordinar el desarrollo y revisión de estándares, así como la aprobación de proyectos)

  • CEN(Comité Européen de Normalisation/ Comité Europeo para la Estandarización): principal proveedor de estándares europeos y especificaciones técnicas. Única organización europeos reconocida para planear y adoptar estándares europeos en todas las áreas de actividad económica, excepto la electrotecnología (European Committee for Electrotechnical Standardization, CENELEC). Si misión es promover la coordinación técnica voluntaria en europa en conjunción con cuerpos internacionales y socios de europa.
  • W3C (World Wide Web Consortium/ Consorcio para World Wide Web): constribuye la estandarización de tecnologías web, incluyendo aspectos relacionados con las interfaces de usuario.
  • Facto: surgen de los productos de la industria o desarrollo de grupos de investigación de universitarios que logran un éxito y difusión en el mercados, convirtiéndose en estos tipos de estándares debido a su amplio y generalizado uso. Su definición se encuentra en manuales, libros o artículos, y son muy valiosos y utilizados. Ejemplo: sistema X de Windows.

3. Estándares de iure en IPO

Es un tema reciente, aunque es una preocupación desde hace años. La organización más activa es la ISO, encargada de los estándares internacionales.

Existen estándares de iure relacionados con el diseño de sistemas interactivos. Algunos ya están publicados, mientras que otros están en proceso de elaboración; ya que para su creación es un proceso largo y complejo.

Algunos de los implicados en el proceso de desarrollar un estándar ISO son:

A continuación, vamos a mostrar una posible clasificación de los estándares que están relacionados con IPO, aunque es importante mencionar que estos están en continua evolución, por lo que alguna información puede tener modificaciones.

ISO/IEC 9126

Define la usabilidad como una parte significativa e independiente a la calidad del software, que está enfocado en el diseño y la evaluación de la interfaz del usuario y la interacción. Asimismo, se establecen métricas específicas para medir tanto la usabilidad como la calidad de uso en los sistemas o productos software.

ISO 9241

Centrado en los requisitos ergonómicos para el trabajo con terminales de presentación visual (VDT), donde engloba tareas de oficina. Al principio, estaba centrada en los requisitos de hardware de los terminales, pero con el tiempo amplió a los requisitos de software. Se divide en 17 partes en las que encontramos 4 áreas principales:

  • Introducción y descripción general (parte 1-2)
  • Requisitos de hardware (parte 3-0)
  • Requisitos del entorno (parte 6)
  • Requisitos de software (parte 10-17)

ISO/IEC 10741

Define cómo los usuarios deben iniciar, controlar y supervisar las capacidades del sistema para poder manejar los cursores en sistemas de texto mediante funciones de control. Al principio, constaba de dos partes, pero la parte 2 fue cancelada, dejando únicamente como estándar internacional desde 1995.

ISO/IEC 11581

Es un estándar internacional que consta de seis partes que se aplican a los iconos que se visualizan en la pantalla del ordenador, donde representan datos o funciones del sistemas con los que los usuarios interactúan o manipulan.

ISO 11064

Es un estándar que se divide en ocho partes en la que se ofrecen los principios económicos, recomendaciones y directrices destinadas al diseño de centros de control.

ISO 13406

Es un estándar que establece los requisitos ergonómicos de calidad de imagen para el diseño y evaluación de presentaciones visuales que se basan en paneles planos. Asimismo, detalla métodos específicos para determinar la calidad de imagen de los sistemas

ISO/IEC 14754

Consiste en una parte que establece un conjunto de comandos de gestos y las respuestas correspondientes para distintas interfaces. Los gestos definidos incluyen acciones como seleccionar, borrar, mover, etc.

ISO/IEC 15910

Estándar que establece un proceso mínimo para la creación de documentación destinada al software que cuenta con una interfaz de usuario, donde contiene el formato impreso, manuales de usuario, referencia rápida y documentación en línea.

ISO 13407

Estándar que ofrece pautas para las actividades de diseño que están centradas en el usuario durante el ciclo de vida de los sistemas interactivos. Describe el diseño centrado en el usuario como una disciplina multidisciplinaria que integra factores humanos, técnicas ergonómicas y conocimientos para mejorar la efectividad, eficiencia y condiciones de trabajo.

ISO/IEC 14598

Estándar que conste de seis partes donde se detalla el proceso de la evolución del software.

ISO TR 18529

Estándar que se utiliza para evaluar el nivel de implementación del diseño centrado en el usuario de una organización. Consta de una lista formal y estructurada de procesos centrados en el usuario.

ISO 10075

Estándar que consta de tres partes. Las dos primeras son reconocidas como estándares internacionales donde se definen términos y principios ergonómicos asociados a la sobrecarga mental. La tercera parte todavía no ha sido aprobada como estándar, está centrada en la medición y evaluación de la carga mental.

4. Guías de estilo

Son herramientas esenciales para asegurar la consistencia en el diseño de interfaces de usuario a lo largo de diferentes partes de un sistema o en una familia de sistemas. Permite a los desarrolladores basar sus diseños en principios y directrices específicos, facilitando la transferencia de conocimientos a los usuarios. Distinguimos dos tipos:

  • Comerciales: producidas por fabricantes de software y hardware, y a menudo son consideradas estándares de facto. Se basan en principios específicos, ofreciendo órdenes con mucho detalle. Algunas de ellas son:
    • Apple
    • CUA
    • Common Desktop Environment (CDE)
    • Motif
    • Open Look
    • Java Look and Feel
  • Corporativas: son elaboradas en las empresas para su propio uso.

Guías de estilo para la Web

Es diferente a diseñar para software, aunque comparten similitudes como sistemas interactivos y diseño de software. Sin embargo, algunos de los principios de diseño de interfaces tradicionales son aplicaciones, a comparación de las web consideraciones únicas ya que se basa en las interfaces gráficas tradicionales.

Es importante, la falta de interfaces de usuario es notable, ya que la prioridad suele ser lograr una interfaz atractiva y distinta para atraer y retener a los usuarios. Algunas de empresas han publicado guías de diseño para la web, varían ofreciendo principios generales mientras que otras proporcionan detalles más específicos. Podemos destacar:

  • Apple: lanzando un sitio web que presenta los principios generales de diseño de interfaces de usuario  aplicables para el diseño de web.
  • IBM: proporciona una guía de diseño de nivel medio que abarca principios abstractos hasta convenciones específicas.
  • Sun: libro destinado a ayudar a las personas a crear mejores páginas web.
  • W3C: consorcio internacional que promueve la evolución e interoperabilidad en la web. Dentro de las áreas se encuentra la accesibilidad.

Las guías tienen un papel clave en la consecución de una web accesible explicando cómo emplear las tecnologías web para crear sitios accesibles, navegadores u herramientas de autor. La WAI ofrece tres guías, estas son:

  • Web Content Acccesibility Guidelines (WCAG): contienen principios de diseño destinados a hacer que los sitios sean accesibles, para ello se abordan escenarios comunes que pueden presentar problemas para usuarios con discapacidades.
  • Authoring Tool Acccesibility Guidelines (ATAG): guías para ayudar a los desarrolladores en el diseño de las herramientas del autor para que produzcan contenidos web que sean accesibles y asistan a los desarrolladores en la creación de interfaces de autor.
  • User Agent Acccesibility Guidelines (UAAG): aborda la navegación con teclado, opciones de configuración, documentación, comunicación con software especializado y otras características de las interfaces de usuario pueden ayudar a las personas con discapacidades cognitivas y neurológicas.
  • Yale Center for Advanced Instructional Media: ha desarrollo una guía de estilo que detalla los principios de diseño utilizados para crear las páginas en su sitio. Ampliamente reconocida y engloba todos los elementos fundamentales relacionados con la creación en la interfaz y los principios de diseño gráfico para el diseño web, ya que ofrece orientación sobre la planificación y organización de objetos y estrategias de diseño para un sitio y el diseño de paginas individuales.
  • Natinal Cancer Institude (NIC): publica en su sitio web 50 directrices sobre usabilidad y diseño web, que están basadas en investigaciones y datos contrastados.

Diseña y gestiona numerosos sitios web para esta enfermedad. Las guías fueron desarrolladas para ayudar a gestores de web, diseñadores y autores a mejorar sus esfuerzos de diseño y tomar decisiones.

5. Guías de estilo corporativas

Se centran en establecer pautas, comportamientos y técnicas para ser usadas por todos los productos de una empresa. Su objetivo es mantener y fortalecer la identidad corporativa mediante el uso de colores, gráficos e iconos que reflejen el logotipo de la compañía en todas las interfaces de sus productos.

Un método para la creación de las mismas implica basarse en una guía de estilo de la industria, como es el método de Theo Mandel

A veces, se pueden necesitar guías para un grupo de productos relacionados o individuales

6. Consideraciones sobre los estándares y las guías de estilo

Las consideraciones sobre los estándares y las guías de estilo aunque se sigan no asegura que el producto sea usable, ya que son parte de un proceso grande que abarca el diseño, usabilidad y comprensión de los usuarios. Sin embargo, muchas veces es mejor no seguirlas para conseguir un diseño mejor.

Para implementar las guías de estilo, es importante dar herramientas a los diseñadores y programadores, destacando el uso de ejemplos para la presentación de guías y la importancia de tener herramientas que permitan diseñar interfaces de acuerdo a las guías de estilo.

7. Conclusiones

Las consideraciones sobre los estándares y las guías de estilo aunque se sigan no asegura que el producto sea usable, ya que son parte de un proceso grande que abarca el diseño, usabilidad y comprensión de los usuarios. Sin embargo, muchas veces es mejor no seguirlas para conseguir un diseño mejor.

Para implementar las guías de estilo, es importante dar herramientas a los diseñadores y programadores, destacando el uso de ejemplos para la presentación de guías y la importancia de tener herramientas que permitan diseñar interfaces de acuerdo a las guías de estilo.

Título: La iteración persona-ordenador

Página 348-361

Resumen

Capítulo 8:  Internacionalización

El objetivo de muchas empresas de desarrollo de software es expandirse a los mercados internacionales, por lo que implica un aumento de los usuarios. Sin embargo, esto requiere esfuerzos adicionales para adaptar la interfaz de usuario, documentación y a veces la funcionalidad dependiendo del destino.

Los sitios web, deben considerar la accesibilidad a los usuarios internacionales desde el principio, para así poder ofrecer servicios a la mayoría de los usuarios posibles, ya que se tiene que evaluar la compatibilidad con las culturas, idiomas y preferencias.

Se proporcionan orientaciones sobre como lograr una buena internacionalización del producto. Se aborda la distinción entre internacionalización y localización, elementos de interfaz que estan relacionados con la internacionalización pueden variar dependiendo de la versión del software, idioma, evaluación de la internalización correcta, aspectos técnicos y organizativos de equipo de trabajo necesarios.

1. Internalización y localización

Internacionalización: es el desarrollo de un diseño que pueda ser utilizado en todo el mundo, mientras que si la configuración es regional implica la creación de distintas versiones para una región o zona específica. El proceso de adaptarlos elementos a un país o región se llama localización. Internacionalizar implica minimizar en el interfaz los elementos dependientes del país o de la cultura, utilizando un lenguaje sencillo y elementos gráficos que transcienden en las barreras culturales.

La configuración regional implica la traducción y adaptación del programa, permitiendo la modificación de elementos dependientes del idioma o de la cultura de la región. Para las páginas web, suele ser la estrategia más efectiva para que se puede adaptar a todos los usuarios, aunque puede ser difícil.

La localización, incluye la traducción de idiomas, es un proceso que consume tiempo, pero también se debe considerar otros elementos como:

  • Iconos
  • Texto
  • Clips de audio
  • Ayuda en línea
  • Formato de moneda
  • Fechas
  • Números
  • Calendarios
  • Medidas
  • Colores
  • Gráficos
  • Números de teléfono
  • Direcciones
  • Títulos honoríficos

2. Elementos de la interfaz

Algunos elementos de la interfaz que deben evaluarse para evitar la incompatibilidad con otros países y culturas, estos son:

Iconos y gráficos: la comunicabilidad de cualquier representación depende del contexto compartido entre el emisor y el receptor para interpretar los signos dentro de una lógica similar a como fueron codificados. Por ejemplo, el icono utilizado para el buzón de correo puede no ser reconocido por usuarios estadounidenses.

Existen iconos que muestran una dependencia significativa de una lengua o cultura especifica. Por ejemplo. Un icono que representa el corrector ortográfico puede no ser apropiado para lenguajes no occidentales, ya que “ABC” puede no corresponder a su alfabeto. Además, el doble significado de este icono se basa en el concepto de la lengua inglesa, donde la palabra “spelling” puede significar deletrear o verificar ortografía.

El símbolo “tick” como sinónimo de comprobación en un icono. Sin embargo, este símbolo no es común en todos los países y puede resultar difícil de comprender, especialmente su asociación con la verificación de nuevo correo.

Colores: suelen tener asociados los significados en la mayoría de las culturas

  • Calendarios, formatos y separadores de fecha y hora: el calendario usado en el mundo occidental es llamado calendario gregoriano. Sin embargo, existen otros calendarios en uso del mundo como budista, islámico, chino, etc.

El calendario gregoriano hay distintos formatos que deben ser manejados de forma adecuada, estos son:

  • aaaa/mm/dd
  • aaaaddd
  • mm/dd/aaaa
  • dd/mm/aaaa

También, es necesario considerar los formatos para representar horas, minutos, etc.

Números y monedas con sus formatos: los países tienen monedas y símbolos de monedas diferentes, y por tanto deben ser respetados.

Los formatos numéricos también pueden diferir entre países, siendo una diferencia conocida entre los países de habla inglesa y los de Europa occidental, donde se utiliza el punto (.) para distinguir entre decimales y la coma (,) para separar miles en el primer caso, y viceversa en el segundo.

Ordenaciones: es un aspecto importante y puede ser complejo. En principio, la regla general es ordenador de la A a la Z, primero las mayúsculas y las minúsculas, y los números de 0 a 9. Sin embargo, esta regla se complica cuando los idiomas contienes letras compuestas.

Unidades de medida: la mayoría han adaptado el sistema métrico, excepto EEUU que utiliza por ejemplo la milla y la pulgada.

3. Lenguajes

Las escrituras se pueden clasificar en ideogramas y escrituras fonéticas. Los ideogramas tienen significados especiales que no estan relacionados con la pronunciación, mientras que las escrituras fonéticas representan sonidos específicos.

Existen tres sistemas de escritura más importante:

Occidental: tiene las siguientes caracteristicas:

  • Fonéticas
  • Se leen de izquierda a derecha en una línea horizontal
  • Utilizan letras mayúsculas y minúsculas
  • Utilizan númeracion arábiga: 0, 1, 2, 3, 4, 5, 6, 7, 8 y 9

Las escrituras occidentales son:

  • Escritura latina: es la más utilizada en el mundo y tiene su origen en el Imperio Romano. Se expandió por toda Europa durante la Edad Media y actualmente es empleada en la mayoría de las naciones Europas, algunas asiáticas, casi todas las naciones africanas y todas las naciones de América y Oceánica para expresarse en sus idiomas.

Aunque el latín contaba con 24 letras que eran: A, B, C, D, E, F, G, H, I, K, L, M, N, O, P, Q, R, S, T, U, V, X, Y y Z, se amplió con dos letras más: J y W. Además, algunas lenguas utilizan letras adicionales y marcas diacríticas para representar diferentes sonidos.

Las marcas diacríticas se colocan sobre las letras para indicar cambios en el sonido del formato sin marcas, como el acento grave (à), el agudo (á), el circunflejo (^), la tilde (~), la diéresis (¨), el círculo (˚), y el slash (/). Estas se combinan con vocales y varían según el idioma. Además, hay diferencias en la puntuación, como los símbolos de inicio de exclamación e interrogación (¡ y ¿) en español, y en el uso de ligaduras, como ‘ß’ en alemán y ‘æ’ en algunos idiomas.

  • Escritura griega: utilizan el sistema de la antigua Grecia, aunque la versión moderna es diferente a la antigua, consiste en las 24 letras de la siguiente tabla:

Utiliza marcas diacíticas.

Oriente Medio

Extremo Oriente: estan basadas en los caracteres ideográficos chunos, que son únicos por su sistema especial de construcción, su historia y pronunciación. Se remonta a 400 años y se utiliza de esta forma desde hace 200.

4. Zonas de internalización

El conjunto básico de caracteres son unos 20.000 y el conjunto extendido incorpora términos científicos, etc. incluyendo 50.000 caracteres. Los mínimos para tener una comunicación cada día son 3.000.

5. Metodología de trabajo

Para garantizar una implementación adecuada de la internacionalización del software es necesaria una metodología de trabajo. Donde abordamos tres aspectos importantes:

Composición del equipo de trabajo: Kano destaca que la internacionalización y localización en el desarrollo de software a menudo no se abordan de forma adecuada. Los desarrolladores y directores suelen subestimar el esfuerzo necesario para llevar a cabo estas tareas, y a veces dejan la adaptación a mercados internacionales como tarea posterior a la creación del código original.

Organización del código: se basa en la separación de la parte principal de las partes que dependen de cada región. Esto implica dos bloques conceptuales:

  • Bloque código fuente
  • Bloque de datos

    Evaluación de la internacionalización: Nielsen sugiere que es recomendable realizar pruebas con usuarios para evaluar la calidad de productos. Aunque idealmente se podrían tener directrices para evaluar sin conceptos empíricos, actualmente no existen estas guías.

Para las páginas web, las pruebas son relativamente fáciles si los usuarios de prueba acceden a ellas desde sus países. Sin embargo, cuando el software está diseñado para uso local, se requieren viajes para realizar las pruebas.

El método de evaluación no difiero de mucho de otras evaluaciones y puede incluir tareas asignadas a usuarios sin conocimientos previos del sistema, seguido de una revisión detallada del software.

Es importante realizar pruebas del idioma local, y se mencionan opciones como visitar el país de forma personal, pruebas de usuarios remotas o contratar un consultor local. Otros aspectos son la selección de participantes, la claridad de instrucciones, el material, la no interferencia durante las tareas, aceptación de comentarios, sugerencias y expresar agradecimiento a los participantes.

6. Conclusiones

La internacionalización de interfaces ya no es una opción, sino una necesidad y una obligación debido a la interconexión global de los ordenadores personales y las telecomunicaciones. En el mercado informático, la competencia exige desarrollar programas accesibles para clientes de todo el mundo. Por lo que es fundamental considerar desde el principios los desafíos de internacionalización en el diseño de interfaces.

Título: La iteración persona-ordenador

Página 334-347

Capítulo 7:  Accesibilidad

Resumen

Es muy importante el diseño de interfaces de usuario ya que debemos considerar la diversidad humana para lograr la usabilidad universal, es decir, intentando evitar barreras innecesarias basadas en las características de grupos específicos.

Las diferencias individuales muchas veces se etiquetan como discapacidades, donde se abordarán las más comunes y se propondrán soluciones para abordarlas, proporcionando adaptaciones que beneficiarán tanto a personas con limitaciones mayores como aquellas consideradas “normales”, sobre todo en entornos de trabajo.

Asimismo, se señalarán que las soluciones tienen componentes genéricos y otros que deben ser complementados por desarrolladores individuales. Por último, se aborda la importancia de la accesibilidad y su verificación por parte de los desarrolladores.

1. La importancia del diseño universal

EGAN destaca la importancia de considerar las diferencias individuales, sobretodo en el caso de personas con discapacidades en el desarrollo de productos de software.

Algunos desarrolladores no estan dispuestos a invertir esfuerzos para hacer sus productos accesibles, ya que la percepción de las necesidades especiales no es suficientemente importante, pero es un error; debido a que un gran porcentaje de la población tiene algún tipo de discapacidad, y a menudo las empresas contratan a individuos con discapacidad.

Además, es importante cumplir con las regulaciones y leyes que estan relacionadas con la accesibilidad.

Por último, se destaca el potencial de la tecnología para romper barreras físicas y ofrecer oportunidades a personas con discapacidad, subrayando la necesidad de diseño de productos y servicios que sean fácilmente utilizables para este grupo.

2. ¿Qué es el diseño universal?

Es un proceso que busca crear productos reutilizables por la mayor cantidad de personas en diversas situaciones, siendo comercialmente viable. Se basa en los siguientes principios:

  • Uso equitativo: los productos deben ser asequibles y accesibles para personas con diversas habilidades.
  • Uso flexible: debe adaptarse a un amplio rango de preferencias y habilidades.
  • Uso simple e intuitivo: debe ser fácil de entender, independientemente de la experiencia del usuario, conocimiento, habilidades lingüísticas y nivel de concentración.
  • Información perceptible: debe comunicar información de manera efectiva considerando las condiciones ambientales y las habilidades sensoriales del usuario.
  • Tolerancia al error: debe minimizar los incidentes ambientales y las consecuencias adversas de acciones imprevistas.
  • Esfuerzo físico mínimo: debe ser utilizado de forma eficiente, cómoda.
  • Tamaño y espacio adecuados: debe tener un tamaño y espacio apropiado para la aproximación, alcance y uso por parte del usuario.

3. Tipos de discapacidades y soluciones

Algunas de las discapacidades más importantes son:

Deficiencias visuales: las más comunes son:

  • Color: el ojo humano contiene bastones y conos (especializados en el color) que son sensibles a la luz. Los defectos en la percepción del color pueden surgir de la falta de alguno de los tres tipos de conos, afectando a la visualización de ciertos colores. Este problema es más común en hombres que en mujeres debido a la relacion con el cromosoma X.

La falta de percepción del azul es el problema más grave. Esto puede ocurrir debido a la falta de centrada de los conos en áreas específicas del espectro de colores y al procesamiento cerebral para compensar colores ausentes.

Los diseñadores de interfaces no deben depender exclusivamente de colores para codificar conductas importantes.

  • Visión reducida: las discapacidades audiovisuales pueden ir desde una falta de agudeza visual hasta la completa falta de visión. Muchas interfaces actuales dependen de elementos gráficos, por lo que se debería ofrecer opciones a los usuarios con visión reducida para utilizar estos elementos en la medida posible. Sin embargo, cuando esta estrategia alcanza los límites y los usuarios no pueden depender de la información visual, se debe tratar el diseño de interfaces desde una perspectiva diferente.

Los ampliadores de pantalla como programas que permiten la ampliación de parte de la pantalla, facilitando la lectura para usuarios con dificultades visuales. Aunque ayuda a la visualización, pueden introducir a problemas de navegación y orientación.

Es importante que algunas aplicaciones pueden ofrecer ayudas de manera natural como los que proporciona Microsoft Windows tiene una utilidad llamada Ampliador, que se considera básica e insuficiente para las necesidades de los usuarios con discapacidades visuales.

  • Ceguera: cuando las deficiencias visuales impiden el uso de la información visual en las pantallas, es necesario cambiar el canal de comunicación, como por ejemplo utilizar la voz sintetizada o las tablas Braille actualizables como canales de output. En estos casos, la información gráfica se convierte en descripciones textuales, y las utilidades de revisión de pantalla leen el texto y lo reproducen a través de medios alternativos.

Los elementos gráficos descritos mediante etiquetas insertadas por los programadores con normas estandarizadas de intercambio de información. Sin embargo, hay un problema en la estructura serial del texto, ya que no permite el procesamiento paralelo como la información visual. Para esto, las utilidades de revisión de pantalla deben ofrecer información relevante de manera oportuna y guardan el resto hasta que el usuario lo solicite.

Auditivas: se enfrentan a menos problemas con las interfaces actuales, ya que la mayoría se basan en claves visuales. Sin embargo, a veces es necesario convertir cierta información en texto para que los usuarios puedan acceder a ella. Algunos mensajes de alerta son codificados con sonidos pueden llegar a ser problemáticos ya que este tipo de usuarios pueden no ser conscientes de los riesgos asociados a esta situación.

Otro problema es el caso de personas que utilizan el lenguaje de señas desde su nacimiento, ya que tienen vocabulario reducido; por lo que hay que prestar atención a su lenguaje y adaptar la interfaz para su comprensión.

Movimiento: algunas personas presentan dificultades para realizar tareas físicas. En este caso, a veces no son capaces de usar teclado o ratón y puedes preferir sistemas alternativos de entrada de datos.

Para esto es recomendable que las aplicaciones proporciones un interfaz de teclado lo más completo posible. En el caso de sistemas de entrada vocal, las aplicaciones pueden utilizar etiquetas asociadas a cada elemento del interfaz.

Para personas que utilizan teclado, pero tienen dificultades para controlar sus acciones los programas que filtran las pulsaciones pueden ser útiles, ya que captan y corrigen automáticamente repeticiones de letras, errores ortográficos o respuestas demasiado lentas.

Cognoscitivas: para tratar estos problemas es necesario planificar los sistemas informáticos para que las personas con dificultades cognitivas también puedan utilizarles, siendo la solución la sencillez y la evaluación con personas apropiadas.

La accesibilidad, una necesidad general

Muchas de las ayudas diseñadas para usuarios con necesidades especiales pueden ser útiles para personas sin necesidades especiales, como indican en el siguiente cuadro:

4. Accesibilidad en la web

La accesibilidad en la web es fundamental, y la Web Accessibility Initiative (WAI) aborda esta importancia.

Una web accesible proporciona un acceso sin precedentes para personas con discapacidades y el envejecimiento de la población.

Esto beneficia a otros usuarios y situaciones. El W3C y WAI promueven la evolución e interoperabilidad de la web, ya que estan respaldados por diversas organizaciones e instituciones.

Las áreas de trabajo de WAI incluyen asegurar que las tecnologías web permitan la accesibilidad, desarrollar guías y herramientas.

Además, los diseñadores de páginas web deben conocer la legislación sobre la accesibilidad en distintos países.

5. Comprobación de la accesibilidad

Para comprobar la accesibilidad de interfaces sin necesidad de depender de los usuarios con discapacidades, se pueden seguir las siguientes indicaciones:

  • Lista de recomendaciones
  • Utilizar solo teclado
  • Herramientas básicas de accesibilidad
  • Ampliación de pantalla
  • Cambiar tipos y tamaños de letras

Estas acciones pueden proporcionar una idea de cómo mejorar la accesibilidad de una aplicación. Es crucial recordar que existen organizaciones dispuestas a ofrecer ayuda para tratar estos problemas.

6. Conclusiones

Lograr llegar a la mayoría de usuarios es una meta para muchos sistemas interactivos, y para poder lograrlo es esencial adaptarse a la mayoría de las diferencias individuales. Aunque cada problema por separado pueda afectar a un porcentaje reducido de usuarios, la suma de todos los problemas significa que un gran número de usuarios podría estar fuera de los límites de la llamada normalidad. Además, muchas adaptaciones necesarias para hacer las interfaces más accesibles pueden beneficiar a personas que trabajan en condiciones inusuales.

La tecnología actual ofrece la ventaja de proporcionar igualdad de oportunidades en el mundo laboral y social a personas. Sin embargo, es fundamental que quienes diseñan estas herramientas se esfuercen por evitar imponer barreras o limitaciones.

Título: La iteración persona-ordenador

Página 304-333

Resumen

Capítulo 6:  Dispositivos

10. Realidad Virtual (RV)

Basada en el hardware y el software para crear simulaciones inmersivas. Para ello, se requieren computadoras potentes, estaciones de trabajo  y supercomputadores.

Los dispositivos de entrada-salida especiales son esenciales para construir el entorno virtual.

Además, es fundamental la retroalimentación visual y se investiga la diferencia entre el tiempo de formación y la resolución gráfica en escenas 3D y 2D desde la perspectiva de hardware y software.

Seis grados de libertad

Permite el movimiento en tres direcciones espaciales y la orientación alrededor de los tres ejes. Los primeros tres grados corresponden al movimiento en los ejes X, Y, Z, pudiendo así determinar la posición del objeto en el mundo virtual desde la perspectiva del usuario. Los otros tres grados se refieren a la orientación del objeto alrededor de los ejes, conocidos como:

  • Pitch: es el desplazamiento angular del eje lateral en un plano horizontal perpendicular al eje lateral.
  • Yaw: es el desplazamiento angular del eje vertical.
  • Roll: es el desplazamiento angular del eje lateral.

Este término implica la capacidad de especificar la posición y orientación en seis coordenadas, permitiendo movimientos y giros completos en el espacio tridimensional.

Los usuarios utilizan los dispositivos de interfaz específicos para interacturar con los grados de libertad en entornos virtuales. Además, los valores  absolutos se refieren a la posición y orientación de medidas desde un único punto de origen constante en el espacio virtual, ignorando las coordenadas anteriores si un objeto se mueve y se toman medidas niebas

Audio 3D

La investigación en audio se centra en la simulación del sonido original para mejorar la experiencia del usuario en entornos virtuales. La incorporación de un campo de sonido tridimensional en el mundo virtual es esencial, ya que refleja las condiciones ambientales. La simulación requiere una gran potencia y velocidad computacional debido a la complejidad del sistema auditivo humano,

que aprovecha la forma del oído exterior y los retardos en la llegada del sonido para determinar la posición de la fuente.

La evolución del sonido 3D parte del sonido monofónico, donde todos los sonidos parecen venir de una sola fuente. El sonido estereofónico simula que el sonido viene de entre dos altavoces, utilizando retrasos en las señales. El sonido ambiental, utiliza la idea estéreo con múltiples altavoces y retardos para simular movimientos de sonido.

La solución al desafío de crear un campo de sonido tridimensional personalizado radica en sintonizar el sonido a la cabeza del individuo. Colocar un micrófono en el canal del oído permite crear sonidos de referencia para rel ordendador, que luego resuelve relaciones matemáticas llamadas Funciones de Transferencia Relacionadas (HRTFs). Sin embargo, las medidas de las HRTFs, utilizadas por sí solas, no pueden simular exactamente el ambiente acústico debido a la dificultad de realizar medidas y la falta de consideración del oído medio o interno.

El sonido realista

La producción de sonido de fondo representa una carga computacional significativa en entornos virtuales, siendo fundamental para la inmersión y credibilidad del usuario. Aunque el sonido de fondo no requiere tecnología de sonido 3D, esto limita la interactividad del usuario en el ambiente virtual.

Algunos investigadores sugieren el uso de sonidos pregrabados para liberar potencia computacional y centrarse en determinar la posición y dirección de la fuente de sonido. Sin embargo, este enfoque no funciona bien en un campo de sonido 3D, ya que los sonidos pregrabados no permiten interactividad. En un ambiente acústico 3D, los sonidos deberían cambiar de posición cuando el oyente se mueve, lo cual no ocurre con sonidos pregrabados. A pesar de estas limitaciones, un ambiente con sonido realista tiene el potencial de servir como interfaz para personas con discapacidades auditivas o visuales. Podría proporcionar una experiencia de aprendizaje espacial similar a la forma en que las personas memorizan rutas sin necesidad de ver, convirtiéndose en una aplicación valiosa para la movilidad y orientación en entornos virtuales.

Navegación

Dispositivos de Posicionamiento

Al diseñar o evaluar el sistema de realidad virtual que utiliza un posicionador, es crucial prestar atención a:

  • Latencia o retardo: es el tiempo de retardo entre el cambio en la posición y orientación del objetivo y su informe al ordenador, debe ser inferior a 50 milisegundos para evitar molestias.
  • Tasa de actualización: indica cuántas veces por segundo el posicionador reporta datos a la computadora, suele oscilar entre 30 y 60 actualizaciones por segundo.
  • Resolución: dependerá del tipo de posicionador utilizado y generalmente disminuye a medida que el usuario se aleja del punto de referencia fijo.
  • Exactitud del sistema: generalmente disminuirá a medida que el usuario se aleja del punto de referencia fijo.

Existen varios tipos de tecnologías para dispositivos de posicionamiento de seis grados de libertad, donde cada una tiene sus propias características y aplicaciones específicas en entornos de realidad virtual. Donde distinguimos:

  • Posicionadores Mecánicos: es una estructura articulada con eslabones rígidos, una base de soporte y un “órgano terminal activo” que se sujeta a la parte de cuerpo a posicionar, como puede ser un brazo robótico. Este es rápido, preciso. Sin embargo, también presenta limitaciones como que puede afectar al movimiento natural del usuario, etc.
  • Posicionadores Electromagnéticos: permite posicionar varias partes del cuerpo simultáneamente al generar tres campos electromagnéticos perpendiculares entre sí. La fuente produce estos campos, y el detector sobre el cuerpo del usuario mide la interacción con dichos campos y envía la información a la computadora. Esta última triangula la distancia y orientación de los ejes relativos a los campos electromagnéticos. Aunque son populares, presentan inexactitudes y sufren de problemas como latencia, distorsión de datos y vulnerabilidad a grandes cantidades de metal en el entorno o a otros campos electromagnéticos. Además, el detector debe estar dentro de un rango restringido desde la fuente para proporcionar información precisa, limitando el volumen de trabajo del usuario.
  • Posicionadores Ultrasónicos: utilizan tres emisores de ondas sonoras de alta frecuencia en una formación rígida como fuente, con tres receptores también dispuestos rígidamente en el usuario. Hay dos métodos para calcular la posición y orientación:
    • “Fase coherente”: se detecta la posición y orientación calculando la diferencia en fases de las ondas sonoras que llegan a los receptores desde los emisores. Pueden acumular errores con el tiempo
    • “Tiempo-de-vuelo”: se mide el tiempo que tarda el sonido, emitido en momentos conocidos, en llegar a los sensores. Tienen una baja tasa de actualización

A diferencia de los posicionadores electromagnéticos afectados por grandes cantidades de metal, los ultrasónicos no enfrentan este problema. Sin embargo, también tienen un volumen de trabajo limitado y requieren una línea de visión directa desde el emisor al detector.. Ambos tipos son sensibles a cambios de temperatura, presión y nivel de humedad en el entorno de trabajo.

  • Posicionadores Infrarrojos: utilizan emisores fijos dispuestos en un arreglo rígido, mientras que cámaras o “celdas cuadradas” capturan la luz infrarroja. Para determinar la ubicación, un ordenador realiza triangulación basada en los datos de las cámaras. No se ve afectado por grandes cantidades de metal, posee una alta tasa de actualización y una baja latencia. Sin embargo, los emisores deben estar directamente en la línea de visión de las cámaras o celdas cuadradas. Además, cualquier otra fuente de luz infrarroja, luz intensa u otro brillo puede afectar la precisión de la medición.
  • Posicionadores Inerciales: permiten al usuario moverse dentro de un volumen grande de trabajo sin la restricción de hardware o cables conectados a un ordenador. Estos dispositivos aplican el principio de conservación del momento angular. Los giroscopios en miniatura, que pueden sujetarse a los HMDs, son utilizados para medir el yaw, pitch y roll, pero pueden desviarse (hasta 10 grados por minuto) y ser sensibles a la vibración. Para el seguimiento de posición, se requiere otro tipo de seguimiento.

Los acelerómetros son una opción adicional, pero también pueden desviarse y su salida puede ser distorsionada por el campo de gravedad.

Elementos a tener en cuenta en un sistema de realidad virtual

Se deben tener en cuenta los siguientes elementos:

  • Dispositivos de interfaz y manipulación: donde distinguimos:
  • Guantes: para detectar la flexión de los dedos, se han desarrollado tres tipos de tecnología de guantes: sensores de fibra óptica, medidas mecánicas y galgas extensométricas. Un ejemplo es el DataGlove, PowerGlove o la Mano Maestra Diestra.

La principal ventaja es proporcionar una interfaz más intuitiva ya que permiten que el ordenador lea y represente gestos de la mano, lo que facilita acciones como agarrar y manipular objetos en el entorno virtual, apuntar en la dirección deseada y cerrar ventanas. Sin embargo, se destaca la necesidad de desarrollar conjuntos de comandos más avanzados y mejorar la retroalimentación para el usuario.

  • Ratones 3D: están basadas en una modificación del ratón convencional o bola de posicionamiento que incorpora un dispositivo para determinar la ubicación y orientación. Son familiares o intuitivos para los usuarios. Sin embargo, su utilidad se limita principalmente a la navegación y la selección de objetos.
  • Palancas de Mando: funciona de manera similar a la palanca de mando convencional, pero no está fija a una base en una mesa. Cuenta con un dispositivo para determinar su orientación, permitiendo que el usuario la sostenga y manipule libremente.
  • Tracking
  • Visualización: donde distinguimos:
  • Lentes LCD Resplandecientes: tienen la apariencia de anteojos y cuentan con un fotosensor para recibir señales de la computadora. Estas señales indican si se permite que la luz pase por el lente izquierdo o derecho. La pantalla del ordenador muestra la escena correspondiente al ojo izquierdo o derecho del usuario, alternando a 60 Hertz, generando un efecto tridimensional continuo mediante el paralaje. Aunque estas lentes son ligeras y sin cables, el usuario debe mirar fijamente la pantalla de la computadora para experimentar la escena tridimensional, limitando el campo de visión y afectando la inmersión en el entorno virtual.
  • Cascos: colocan una pantalla frente a cada ojo del usuario y controlan la vista mediante la orientación de los sensores incorporados. El movimiento de la cabeza es reconocido por el ordenador para generar una nueva perspectiva. Generalmente, se utilizan lentes ópticos y espejos para ampliar la vista y llenar el campo visual. Se discuten cuatro tipos de cascos para proporcionar experiencias inmersivas:
  • Dispositivo HMD con LCD: utilizan píxeles de cristal líquido para presentar la escena. Cuando se activa un píxel, bloquea la luz, y miles de estos píxeles forman una matriz bidimensional en cada pantalla. Aunque estos HMD son más ligeros, ofrecen un efecto de inmersión con baja resolución y contraste. La polarización de los cristales puede causar un ligero retardo, afectando la percepción de la posición de los objetos.
    • HMD Proyectado: con tecnología de cables de fibra óptica transmiten la escena a una pantalla parecida a un tubo de rayos catódicos (TRC), iluminando el fósforo con luz transmitida a través de las fibras. Aunque ofrecen una mayor resolución y contraste en comparación con los HMD de LCD, son más costosos y difíciles de fabricar. Proporcionan una visualización detallada y son livianos, pero su costo es una desventaja significativa.
    • El HMD con TRC Pequeño: utiliza dos TRCs posicionados en el lateral, con espejos para dirigir la escena hacia los ojos del usuario. A diferencia del HMD proyectado que emplea cables de fibra óptica para iluminar el fósforo, este utiliza un rayo de electrones convencional. Aunque similar al HMD proyectado, el HMD con TRC es más pesado y puede resultar incómodo para el usuario debido al calor generado por los componentes electrónicos y el peso del dispositivo.
    • El HMD con LED de Columna Única: utiliza una columna de LEDs y un espejo oscilante para reflejar la imagen hacia los ojos del usuario. Los LEDs se actualizan 720 veces por oscilación del espejo, formando la imagen de la pantalla virtual. Este tipo de HMD permite la interacción simultánea con el mundo virtual y real, creando una pantalla virtual que parece flotar en el entorno real. Un problema común en los HMDs es la restricción de movilidad causada por el cable que conecta el dispositivo a la computadora, lo que puede resultar en inconvenientes y fatiga para el usuario.
    • Monitor Omni-direccional Binocular (Binocular Omni-Orientation Monitor- BOOM): se monta en un brazo mecánico articulado con sensores de posicionamiento en las articulaciones y utiliza un contrapeso para mantenerse estable. Para ver el ambiente virtual, el usuario sostiene el monitor y el ordenador genera una escena basada en la posición y orientación del brazo mecánico. Este enfoque, conocido como despliegue BOOM, aborda algunos problemas asociados con los HMDs, ya que el usuario no tiene que llevar el dispositivo y puede cambiar fácilmente entre el mundo virtual y el real al apartar la vista del monitor.
  • La Cueva (the cave): es un entorno de vídeo y audio 3D de alta resolución multipersonal. Proyecta gráficos estéreo en tres paredes y el suelo, visualizados con gafas estéreo. Un usuario utiliza un sensor de posición que actualiza la perspectiva y las proyecciones estéreo mientras se mueve en los límites de visualización, creando la ilusión de imágenes 3D con presencia dentro y fuera de la sala de proyección. Para el usuario con gafas estéreo, las pantallas de proyección parecen transparentes, y el espacio de imágenes 3D da la sensación de extenderse al infinito.

Los objetivos incluyen lograr imágenes de alta resolución y visión envolvente sin distorsión geométrica, reducir la sensibilidad a errores de rotación de la cabeza, mezclar imágenes de realidad virtual con dispositivos reales, guiar y enseñar en mundos virtuales, y conectarse a la red y fuentes de información para mejorar el diseño. Proviene del acrónimo Cave Automatic Virtual Environment y hace referencia al “Símil de la Cueva” de Platón, explorando conceptos de percepción, realidad e ilusión.

  • Tecnología involucrada: tiene las siguientes especificaciones técnicas:
    • Tracker 6 DOF
    • Resolución de visualización: 2500 x 2000 por pantalla
    • Frecuencia de barrido horizontal: 15-130 kHz
    • Frecuencia de barrido vertical: 38-180Hz
    • Anchura de banda: 125 MHz
    • Dimensiones: 104″H x 73.5″ W x 84″ D
  • Aplicaciones: industria del petróleo, que aprovecha datos que han sido procesados en revisiones sísmicas parar proporcionar imágenes tridimensionales.
  • Ordenador: debe de ser rápido ya que trabaja en tiempo real. Una medida indirecta que puede servir es la potencia en megaflops. La medida directa es el número de polígonos por segundo (triángulos) que es capaz de procesar.
  • Software: lo podemos concretar como:
    • Bucle de eventos
    • Actualización de imágenes
    • Latencia del seguimiento del tracking

11. Interfaces hápticas

La realidad virtual enfrenta el desafío de la falta de estímulos para el sentido del tacto en los usuarios. La investigación en háptica se divide en dos subcampos:  

  • Retroalimentación de fuerza (quinesética): implica dispositivos que interactúan con músculos y tendones para proporcionar al usuario la sensación de aplicar una fuerza correspondiente al entorno virtual.
  • Retroalimentación táctil: se ocupa de dispositivos que interactúan con los nervios terminales de la piel para indicar la presencia de calor, presión y textura.

Los dispositivos hápticos, al combinarse con despliegues visuales, pueden ser más útiles que las interfaces visuales solas. Se ha demostrado en experimentos que afectan positivamente el aprendizaje de los usuarios en comparación con aquellos que no tienen acceso a retroalimentación háptica.

Anatomía y Fisiología

Es crucial considerarla.

  • Retroalimentación de fuerza: se deben tener en cuenta las proporciones y fuerzas promedio de las articulaciones, especialmente en las manos.
  • Retroalimentación táctil: se deben considerar varias variables del sentido del tacto humano.

Los estudios indican que existe una relación fuerte entre las sensaciones táctiles y los movimientos de la mano para adquirir información. El sistema háptico

humano comprende dos subsistemas: el motor y el sensorial, con una conexión significativa entre ambos. Se destaca la importancia no solo de lo que el sistema sensorial detecta, sino también de los movimientos utilizados para obtener esa información.

Se emplean dos formas de exploración háptica:

  • Activa: cuando el usuario controla sus propias acciones, y pasiva, cuando la mano o el dedo del usuario es guiado por otra persona.
  • Pasiva: a menudo muestra una mayor precisión en la identificación de formas. Además, los usuarios tienden a descomponer tareas multidimensionales en problemas de una o dos dimensiones.

Un factor crítico es la situación en la que hay contradicción entre pistas visuales y hápticas, donde la pista visual tiende a predominar sobre la háptica.

Dispositivos

Podemos distinguir:

  • CyberTouch: es un dispositivo háptico que se integra con Cyberglove y presenta pequeños estimuladores vibrotáctiles para cada dedoSon programables individualmente para ajustar la fuerza de la sensación táctil, permitiendo generar desde impulsos simples hasta vibraciones complejas. Los desarrolladores de software pueden diseñar perfiles de actuación personalizados para lograr sensaciones táctiles deseadas, como la percepción de tocar un objeto sólido en un entorno virtual. Es esencial para aquellos que desean interactuar con objetos en un mundo virtual utilizando las manos, brindando la capacidad de sentir y sostener objetos virtuales sin necesidad de mirar.
  • CyberGrasp: es un exoesqueleto ligero y no obstrusivo diseñado para trabajar en conjunto con CyberGlove®. Proporciona a los usuarios la capacidad de “tocar” objetos generados por ordenador y experimentar retroalimentación realista de fuerza a través de la mano. Este sistema permite explorar las propiedades físicas de objetos en 3D y manipularlos en un entorno virtual. Utiliza tendones y actuadores para ejercer fuerzas relacionadas con la manipulación de objetos, asegurando que los dedos del usuario no penetren ni aplasten los objetos virtuales. Con cinco actuadores, uno para cada dedo, el dispositivo permite movimientos completos de la mano sin obstrucciones y es ajustable para adaptarse a diversas manos.

Aplicaciones

Presenta diversas aplicaciones potenciales en el mundo real, abarcando áreas como la medicina, el entrenamiento y la simulación virtual, el diseño asistido por ordenador.

Especificaciones técnicas

Requisitos

1) Se necesita un CyberGlove de 22 sensores para usar CyberGrasp.

2) Un sensor de posiciones de 6 DOF. Los sistemas válidos en la actualidad son:

  • Ascension Flock of Birds™
  • Polhemus Fastrak® e Isotrak II®

12. Realidad Aumentada (AR)

Combina gráficos 3D y texto superpuesto sobre imágenes y vídeos reales en tiempo real para mejorar la información del entorno. Esta tecnología realza la realidad mediante información instructiva de objetos o datos, proporcionando a los usuarios información visual adicional relacionada con objetos en la realidad. La AR puede utilizar dispositivos similares a los utilizados en entornos virtuales.

13. Pantallas Táctiles

Permiten a los usuarios señalar y seleccionar objetos directamente en la pantalla mediante el dedo, eliminando la necesidad de un dispositivo apuntador adicional. Existen diversos tipos de pantallas táctiles. Este dispositivo es altamente intuitivo y no requiere asociaciones específicas para su funcionamiento. Son especialmente útiles en aplicaciones para el público en general. Entre sus ventajas se encuentran su facilidad de aprendizaje, falta de necesidad de espacio adicional, ausencia de piezas móviles y durabilidad. Sin embargo, presentan desventajas como la posible acumulación de marcas de grasa en la pantalla, fatiga con el uso continuo y limitada precisión en tareas detalladas como el dibujo.

14. El Lápiz

Utilizado principalmente para seleccionar objetos en la pantalla o realizar trazados. Es más intuitivo que un ratón, pero su aplicación es más limitada. El lápiz tiene un fotodetector en la punta que detecta la luz emitida desde el píxel en la pantalla. Al pulsar un botón, conectado al circuito de barrido de la pantalla, se determinan las coordenadas en las que está posicionado el lápiz. Puede haber problemas cuando el píxel no está iluminado, y para evitar esto, se pueden utilizar diversas alternativas, como seleccionar objetos encendidos, controlar un cursor que sigue al lápiz o iluminar la pantalla al presionar el botón del lápiz.

La principal ventaja del lápiz es su capacidad para apuntar y manipular la interfaz sin necesidad de una superficie de apoyo. Facilita la movilidad y permite la interacción en situaciones donde no se dispone de una superficie plana. Sin embargo, levantar el lápiz puede causar fatiga y obstruir la visión de la pantalla.

El hardware lo permite

La tecnología de digitalización es fundamental para el funcionamiento del ordenador con lápiz. Un digitalizador, una reja plana, genera coordenadas x, y cuando un lápiz se sitúa encima o muy cerca de él. La interacción del lápiz con el digitalizador produce una interrupción, y la tinta digital puede o no aparecer en la pantalla. Cuando el lápiz toca una región que acepta escritura. Si el lápiz toca un control que no espera escritura, se reconoce como un dispositivo apuntador, y no se genera tinta. Más allá del hardware especial para la entrada del lápiz, los sistemas con lápiz son prácticamente iguales a los ordenadores portátiles.

Tinta digital, gestos y Jot

Abarca dos componentes principales:

  • Escritura manual: produce tinta digital, que se guarda en una estructura de datos.
  • Gestos: son símbolos escritos, funcionan como comandos de aplicación.

La tinta digital requiere una estructura de datos para almacenar la escritura manual, y un API para manipularla. Esta información va más allá de un simple mapa de bits, ya que la orden de trazado y el tiempo en que se ha escrito también forman parte de la estructura de datos.

Jot

Es un estándar de intercambio de tintas que se refiere a la información capturada por un ordenador con lápiz al escribir en él. La tinta comprende más que simples datos de mapa de bits; además de las coordenadas x, y de los píxeles, incluye información detallada, el tiempo, la presión aplicada, el color, el ángulo del lápiz y los movimientos relativos, entre otros. Esta información no solo se visualiza como un mapa de bits en la pantalla, sino que puede convertirse en texto u objetos gráficos. Aunque es un estándar de facto en la industria, destaca por haberse establecido antes de las necesidades específicas del cliente.

Tecnología de reconocimiento de escritura manual

El reconocimiento de escritura manual puede ser de dos tipos:

  • Continua: implica una mezcla de caracteres escritos.
  • Discreta: implica levantar el lápiz entre cada letra.

Cada tipo de escritura requiere un enfoque diferente.

Algunos productos emplean el modelo matemático de Horabach, que define conjuntos de movimientos simulados de la mano basados en movimientos circulares. Este enfoque es eficaz para la escritura cursiva pero puede no funcionar tan bien para letras mayúsculas impresas.

Otras soluciones utilizan una aproximación más intuitiva, que implica el uso de plantillas y tramas. El reconocedor compara esquemas básicos con marcas a reconocer, subdivididos en subalfabetos para mapear la entrada a alfabetos específicos del lenguaje durante el proceso de reconocimiento.

Independientemente de la aproximación, los reconocedores de escritura manual se presentan en dos formas:

  • Entrenables: puede ser entrenado por el usuario.
  • No entrenables

15. Webcam

Son dispositivos de videocámara diseñados para ordenadores que digitalizan imágenes y las transmiten a través de internet.

Partes Básicas

Consta de tres componentes:

  • Cámara: tiene que ser compatible con el PC.
  • Tarjeta digitalizadora (Frame Grabber): recibe la imagen captada por la cámara y la digitaliza en frames. La captura se suele realizar a una velocidad de 15 a 20 cuadros por segundo (fps).
  • Software: controla la tarjeta o el chip digitalizador. El programa envía órdenes de captura a la cámara, esta recibe el intervalo de apertura del objetivo y devuelve una señal digital con la información en un formato compatible con los navegadores de Internet. Estos archivos, en el caso de imágenes secuenciales, se transmiten mediante FTP al servidor conectado a Internet.

Conexiones y formatos

Existen diversos estándares y protocolos para la transmisión de imágenes en vivo, adaptados a las prestaciones de cada equipo:

  • Estándares de Transmisión:
  • H.320: diseñado para RDSI, es un sistema rápido dirigido a usuarios profesionales.
    • H.323: similar a H.320, pero requiere conexión TCP/IP. Es ampliamente utilizado en entornos domésticos.
    • 1-1.324: tecnología avanzada para comunicación por telefonía móvil, aún en desarrollo.
  • Protocolos para Transferencia de Imágenes Secuenciales:
  • CIF (Common Intermediate Format): resolución de 352×288 ppp, muy utilizada.
    • QCIF (Quarter CIF): resolución de 176×144 ppp.
    • OCIF: resolución de 128×96 ppp.
    • 4CIF: resolución de 704×576 ppp.
    • 16CIF: imagen de alta resolución con 1408×1152 ppp.

Recomendaciones para distintos usos

Podemos distinguir:

  • Cámaras Plug & Play: son cámaras típicas para usuarios domésticos. Se destacan por su precio asequible y facilidad de instalación, aunque ofrecen tasas de captura de imagen más bajas en comparación con las cámaras conectadas a tarjetas PCI de videocaptura. Estas cámaras se conectan mediante puertos serie, paralelo o USB, siendo este último el más recomendado. Aunque son adecuadas para la captura de imágenes, su rendimiento en la transmisión de video es limitado.
  • Captura y edición de vídeo profesional: ofrecen altas tasas de captura. Estos dispositivos son similares a los utilizados en entornos domésticos y semiprofesionales. Además del dispositivo de captura, se requiere una tarjeta ISA o PCI conectada al PC para recibir, procesar y digitalizar las señales del dispositivo. Algunos modelos de capturadoras recientes incorporan conexiones al puerto USB o paralelo, aunque ocupan un slot PCI. Es importante tener en cuenta la compatibilidad entre el dispositivo de captura y la tarjeta del ordenador, considerando los estándares NTSC, SECAM o PAL según la región. Estas videocámaras con captura son ideales para usuarios avanzados que buscan una edición o videoconferencia con calidad profesional, aunque presentan mayores costos y consumo, y su manejabilidad puede estar más limitada.
  • Cámaras especiales NetWork: están limitadas en su expansión comercial debido a su precio y sus características. Estos dispositivos tienen la capacidad de conectarse a una red y transmitir imágenes sin necesidad de una configuración compleja del equipo. Aunque suelen ser relativamente caras, su costo puede ser más accesible si se considera el precio total del conjunto que incluye el ordenador, la videocámara y la tarjeta de captura. Ofrecen una excelente calidad tanto en imagen como en tasas de captura y solo requieren una conexión LAN o telefónica para capturar las imágenes que la cámara emite. Debido a su bajo mantenimiento y la capacidad de ubicarse en cualquier lugar, son una buena alternativa para sistemas de seguridad, mantenimiento o supervisión.

16. Rastreo ocular

El ojo humano ha sido objeto de numerosos estudios a lo largo de la historia, desde teorías antiguas basadas en suposiciones hasta los métodos científicos actuales. El estudio de los movimientos oculares y la comprensión de la estructura y el funcionamiento del ojo han llevado al desarrollo de dispositivos experimentales.

Funcionamiento

Se basa en la técnica centro pupilar/reflexión corneal (PCCR). Un haz infrarrojo emitido por un diodo LED ilumina el ojo, y su reflejo en la córnea (punto especular) es captado por una videocámara sensible a infrarrojos. La cámara, enfocada hacia el ojo, recoge imágenes para que un ordenador calcule la posición del centro de la pupila y la dirección de la mirada.

El método de pupila brillante, derivado de este enfoque, utiliza el reflejo de la retina para determinar el centro de la pupila, lo que mejora el contraste en entornos con luz infrarroja limitada. Los requisitos para este sistema incluyen precisión, resolución, rango, rango dinámico, frecuencia de muestreo, latencia, independencia de movimientos de la cabeza y más.

Problemas y limitaciones

Tiene limitaciones notables, siendo intolerante al movimiento de la cabeza. Para proporcionar estimaciones precisas, la cámara debe hacer zoom en el ojo, restringiendo el área de visión del usuario y limitando su movimiento. Fijar la cámara a la cabeza del usuario reduce el movimiento relativo de la cabeza. Otros posibles errores incluyen retardos en la transmisión de datos (lag) y problemas de precisión en ángulos límites. La naturaleza intrusiva del sistema, al introducir un haz infrarrojo en el ojo, plantea posibles preocupaciones. La fatiga visual y la adaptación del usuario al sistema también son consideraciones importantes, y la interpretación de la mirada del usuario puede ser complicada, ya que no siempre indica intención de acción. En algunos sistemas, se aprovecha la atención visual del usuario para personalizar la interacción.

Futuras investigaciones

Apuntan hacia la independencia del rastreo ocular respecto al movimiento de la cabeza y la resolución del problema de distinguir. Se sugiere explorar la idea de Interest and Emotion Sensitive media (IES), dispositivos sensibles a intereses y emociones, que aprovechen la dirección de la visión y medidas afectivas para evaluar el interés del usuario en objetos y su disposición a interactuar. Se plantea la necesidad de rastreadores oculares capaces de seguir varias personas simultáneamente, identificar a las personas rastreadas mediante reconocimiento del iris, y la posibilidad de crear una base de datos con las características y preferencias individuales. Se cuestiona la ética y la privacidad en relación con el rastreo ocular y se compara con el rastreo de teclados en cajas registradoras. Se destaca la utilidad potencial de los rastreadores oculares en tareas de vigilancia, facilitando el acceso rápido y preciso a gran cantidad de información, y su aplicabilidad en la mejora de la calidad de vida de personas discapacitadas.

17. Escáner

Es un dispositivo de entrada que captura gráficamente información para su procesamiento posterior. Existen varios tipos de digitalizadores, cada uno diseñado para cumplir con requisitos específicos:

  • Digitalizadores a base de tubos de rayos catódicos (TRC): utilizan un TRC para dirigir un haz de luz sobre la superficie a digitalizar.
  • Digitalizadores de impresora: se colocan detectores en el cabezal de impresión de una impresora raster, que imprime una imagen en blanco sobre la zona a digitalizar mientras se lee la información. Es una opción de bajo costo.
  • Digitalizadores de tambor: capaces de digitalizar transparencias y material reflectivo. Trabajan con tamaños desde 35 mm hasta paneles grandes.
  • Digitalizadores de documentos compactos: diseñados para reconocimiento automático de caracteres y manejo de documentos.
  • Digitalizadores para fotografías: funcionan desplazando una fotografía sobre una fuente de luz fija.
  • Digitalizadores de transparencias: utilizados para digitalizar elementos transparentes o translúcidos.
  • Digitalizadores de mano: capaces de leer una pequeña fila del documento en cada instante. Se desplazan manualmente sobre la superficie y son económicos, aunque su calidad no es alta.
  • Digitalizadores de tableta: ampliamente utilizados por su versatilidad, capturan fotografías, dibujos en color, páginas de libros y revistas. Miden la intensidad y el color de puntos en un rectángulo.
  • Digitalizadores 3D: específicos para figuras tridimensionales, utilizan una cámara digital para proporcionar imágenes digitales 3D, pero son costosos y especializados.

Funcionamiento

Los escáneres convierten la luz en datos digitales mediante el principio de reflexión o transmisión de la luz. La imagen se sitúa debajo del cabezal lector, compuesto por una fuente de luz y un sensor que mide la cantidad de luz reflejada o transmitida. Posteriormente, la información analógica se transforma en digital mediante un conversor analógico/digital (A/D).

El sensor de luz comúnmente es un dispositivo CCD (Charge Coupled Device) que convierte la intensidad de luz en un voltaje proporcional. El cabezal incluye miles de estos elementos dispuestos en una tira. El escáner emite luz sobre tres filtros (rojo, verde y azul), y la luz reflejada en el documento se dirige hacia la tira de sensores mediante espejos y lentes. El CCD actúa como un fotómetro que genera un voltaje, transformándose luego en información digital.

Actualmente, se emplea la tecnología CIS (Contact Image Sensor) que utiliza bancos de LEDs rojos, verdes y azules en lugar de espejos y lentes. Esta tecnología, al ubicar la fila de sensores cerca de la imagen, permite que el digitalizador sea más delgado y ligero, con menor consumo y costo. No obstante, su calidad es inferior, ya que solo es efectivo para imágenes completamente planas.

Se recomienda una fuente de iluminación incolora, pero para documentos de texto se utiliza una fuente roja, para fotografías en blanco y negro una verde, y para imágenes en color, los tres colores básicos.

Parámetros de un digitalizador

La calidad de un escáner se determina por varios parámetros:

  • Resolución:Mide el detalle que el escáner puede distinguir y se expresa en puntos por pulgada (ppp).El número de CCD en el cabezal indica la tasa de muestreo horizontal, y los intervalos por pulgada indican la tasa de muestreo vertical.La verdadera resolución depende de la calidad de los componentes electrónicos, lentes, filtros y el control del motor paso a paso.Los escáneres actuales usan interpolación para mejorar la resolución, logrando hasta 9600 ppp, aunque la resolución real suele estar entre 600 y 1200 ppp.Resoluciones características: diapositivas, fotografías, páginas web, periódicos y revistas, texto y dibujos.
  • Color:
  • Los escáneres en color utilizan tres fuentes de luz para cada color primario.
  • Algunos emplean un único tubo fluorescente y tres CCD por píxel, lo que permite digitalizar la imagen en una sola pasada.
  • Hay dos métodos para leer la imagen: uno utiliza un prisma para separar los colores y tres CCD distintos, mientras que el otro utiliza tres CCD recubiertos con filtros.
  • Profundidad de bit (bit-depth):
  • Indica la cantidad de información que se puede recoger por punto digitalizado.
  • En la digitalización con color verdadero, se almacena un byte de información por cada color primario.
  • Actualmente hay digitalizadores de 30 y 36 bits.
  • Rango dinámico:
  • Indica los rangos de tonos que puede almacenar el escáner, medido en una escala de 0.0 (blanco perfecto) a 4.0 (negro perfecto).
  • Depende de la calidad de los convertidores A/D, la pureza de la luz, la calidad de los filtros y el ruido eléctrico.
  • Se asigna un valor que indica el porcentaje del rango que puede distinguirse. Los escáneres habituales tienen un rango dinámico de 2.4, mientras que los profesionales llegan a 2.8 a 3.2 y los de tambor hasta 3.8.
  • A pesar de que un escáner de 24 bits teóricamente tiene un rango de 8 bits para cada color primario, los bits menos significativos se desprecian para evitar el ruido, perdiendo calidad.

18. Ordenadores corporales

Buscan cambiar la forma en que interactuamos con los ordenadores. En contraste con los ordenadores personales tradicionales que suelen estar en mesas y tienen interacciones limitadas, los dispositivos corporales se integran en la vestimenta y se utilizan en función del contexto. Equipados con pantallas en la cabeza, dispositivos de entrada discretos, redes inalámbricas personales y sensores de contexto, estos ordenadores pueden servir como asistentes inteligentes para tareas.

Título: La iteración persona-ordenador

Página 276-304

Resumen

Capítulo 6:  Dispositivos

En los últimos años, ha habido un notable avance en el rendimiento y la reducción de costos de los ordenadores, llevando a un aumento del número de usuarios. Este progreso se ha extendido a los dispositivos de interacción, reemplazando a los antiguos.

Además, se ha observado un surgimiento de nuevos dispositivos de interacción que complementan las computadoras de escritorio o se utilizan en nuevos estilos de interacción, como lápices para escritura manual, dispositivos de realidad virtual, hápticos, realidad aumentada y rediseños de dispositivos existentes para adaptarlos a nuevas necesidades, como kioscos. Este desarrollo ha sido impulsado por una creciente preocupación por los aspectos humanos de las interfaces.

En este capítulo, se revisa cómo se manejan los periféricos en las computadoras y se proporciona una visión general del estado actual de los dispositivos de interacción, abordando diversos ámbitos de aplicación, como ordenadores personales, entrada y salida por voz, y realidad virtual.

1. Gestión de los periféricos

Se emplea un protocolo multinivel que abarca desde programas de usuario hasta el hardware. Cuando un programa realiza una salida de información, se ejecuta una llamada al sistema operativo, que verifica permisos y posibles errores. En caso de que sea correcto se pasa la información al manejador del dispositivo, un conjunto de rutinas que convierte las peticiones del sistema operativo en órdenes específicas para el dispositivo.

El controlador del dispositivo es un hardware que comunica periféricos con el ordenador y se encarga de activar actuadores físicos según las señales del hardware de interacción. Para la entrada de datos a un programa, el hardware digitaliza señales físicas de sensores y las envía al controlador. Este comunica la entrada al manejador del dispositivo, y los programas pueden recibir estas entradas mediante llamadas al sistema.

Los programas de usuario no manejan directamente los recursos de entrada/salida; esto lo realizan las rutinas del sistema operativo. Esto proporciona ventajas como independencia del dispositivo y mecanismos de protección y compartición de recursos. La sincronización entre componentes puede ser mediante espera activa, encuesta o señales asíncronas. También puede haber circuitos adicionales para entrada/salida o transmisiones específicas, mejorando el rendimiento del ordenador.

2.Teclado

Es la forma más común de introducir información en una computadora, compuesto por un grupo de botones on-off que se usan individualmente o en combinación.

El diseño qwerty es ampliamente conocido, pero es considerado poco eficiente. El mecanismo es simple: al presionar una tecla, se cierra una conexión y se envía el código del carácter al ordenador, ya sea mediante cable o inalámbricamente.

La ergonomía del teclado incluye la presión y la distancia de viaje de las teclas. Algunos teclados son sensibles al tacto, pero pueden no ser prácticos para un uso intensivo. La cantidad y distribución de teclas depende de la función y tipo de información que se desea introducir.

La mayoría de los teclados tienen un buffer para almacenar caracteres antes de enviarlos al ordenador. Algunos teclados retienen los caracteres hasta que se presiona una tecla especial, lo que permite una transmisión eficiente. Se asignan múltiples valores a una tecla mediante teclas especiales de cambio. Las funciones de las teclas incluyen caracteres alfabéticos, numéricos, especiales, control del dispositivo y transmisión al ordenador.

Las necesidades de transferencia del teclado son bajas en comparación con la capacidad de la CPU.

Las características técnicas más importantes son:

  • Robustez
  • Número de caracteres y símbolos
  • Sensibilidad al toque
  • Ergonomía
  • Peso, tamaño y transportabilidad
  • Memoria local
  • Distribución de teclas
  • Carencia o presencia de teclado numérico
  • Consumo de energía
  • Formas de transmisión local y remota.

Tipos de teclas

Podemos distinguir:

  • Teclas mecánicas: compuestas por dos piezas metálicas que contactan al aplicar fuerza, vuelven a su estado inicial mediante un muelle de retorno cuando cesa la fuerza. Aunque son relativamente económicas, presentan inconvenientes. Los contactos metálicos causan rebotes en la conexión y desconexión, generando falsos contactos antes de estabilizarse, lo que debe eliminarse para evitar lecturas incorrectas. Con el tiempo, los contactos metálicos se oxidan y ensucian, degradando la calidad de la conexión.
  • Teclas de membrana: son un tipo especial de teclas metálicas, formadas por una estructura de tres capas plásticas que componen el conjunto del teclado. La capa superior contiene una pista conductora delgada que pasa por debajo de cada fila de teclas, la capa del medio tiene un agujero en la posición de cada tecla, y la capa inferior cuenta con una pista conductora delgada por debajo de cada columna de teclas. Cuando se presiona una tecla, la capa superior entra en contacto con la capa inferior a través del agujero en la capa del medio. Estas teclas permiten la construcción de teclados delgados y compactos.
  • Teclas capacitivas: aprovechan la variación de capacidad que ocurre cuando se presiona la tecla y los dos contactos se acercan. La detección de la variación de capacidad permite determinar si la tecla ha sido accionada. Se requiere circuitería adicional para convertir el cambio de capacidad en niveles lógicos válidos. La principal ventaja de este tipo de teclas es que los contactos no se oxidan ni se ensucian.
  • Teclas de efecto Hall: basadas en detección de movimiento de carga se valen de un campo magnético. Al presionar la tecla, se induce el movimiento de un cristal semiconductor por un campo magnético, cuyas líneas son perpendiculares a una corriente circulante en el cristal. Amplificando el pequeño voltaje generado en el cristal debido al cambio del campo magnético, se puede detectar la activación de la tecla. Aunque este tipo de teclas es costoso.
  • Teclas inductivas: funcionan al hacer pasar un imán a través de una bobina al presionar la tecla. La corriente inducida en la bobina por el movimiento del imán permite determinar qué tecla ha sido accionada. Estas teclas también tienen un tiempo de vida largo.

Cómo funcionan

Para teclas individuales o teclados con pocas teclas se pueden realizar a través de un puerto de entrada, donde cada línea del puerto detecta el estado de una tecla. Sin embargo, cuando el número de teclas es grande, se utiliza una estrategia de matriz para ahorrar hardware y simplificar la interfaz. En esta configuración, cada tecla tiene un terminal conectado a una fila y otro a una columna. Para detectar la activación de una tecla, se excita una fila del teclado y se lee el estado de las columnas.

Cuando se trata de teclados mecánicos, es necesario tener en cuenta y eliminar los rebotes en la conexión o desconexión de las teclas.

El teclado QWERTY          

El diseño de los dígitos y las letras en los teclados está fijado, pero la disposición de otras teclas puede cambiar. Este posicionamiento no es óptimo debido a limitaciones de las máquinas de escribir. La solución fue poner las combinaciones de teclas más comunes en puntos extremos del teclado para evitar atascos.

Los teclados franceses utilizan una disposición ligeramente diferente llamada “azerty” por las primeras teclas en la primera fila de letras empezando por la izquierda.

Composición de teclado

La disposición actual del teclado QWERTY tiene sus raíces en las máquinas de escribir del siglo XIX.

En la década de 1920, se propuso el teclado DVORAK, que reducía las distancias de viaje de los dedos y aumentaba las pulsaciones de los expertos.

Sin embargo, a pesar de sus ventajas, la adopción masiva del teclado QWERTY ha dificultado el cambio, y aún hoy se sigue utilizando ampliamente. Otras opciones ergonómicas mantienen la distribución de las teclas, pero dividen el teclado en dos zonas, cada una asociada a una mano, conocidas como “teclados partidos” o “split.

3.Pantalla

Es el dispositivo de salida más común conocida como la unidad de visualización, que consiste en un monitor que presenta caracteres y gráficos en una pantalla. Estos monitores pueden tener tubos de rayos catódicos o pantallas más pequeñas de cristal líquido o electro luminiscente.

Un terminal, que consta de un teclado y una pantalla (o monitor de vídeo), es la forma común de acceder a un ordenador. Puede considerarse un periférico independiente, conectado al computador a través de un enlace, o ser parte integrante de los computadores personales. Para controlar el monitor, se requiere un controlador específico llamado controlador de vídeo. En el caso de computadores personales, estos controladores se diseñan en tarjetas independientes llamadas tarjetas controladoras de vídeo, lo que ha llevado a un desarrollo significativo de tarjetas con altas prestaciones y bajos costos.

Esta subdivisión describe los fundamentos de los monitores y las tarjetas controladoras de vídeo.

Monitores de vídeo

La palabra “pantalla” es utilizada para referirse a la Unidad de Representación Visual (VDU en inglés, Video Display Unit), o Unidad de Visualización, la cual consiste en una superficie rectangular de cristal sobre la cual se presentan los caracteres, gráficos e imágenes de un computador, utilizando principalmente un tubo de rayos catódicos (TRC en castellano, CRT en inglés).

Fundamento físico del tubo de rayos catódicos

Los sistemas de visualización a través de una pantalla de tubo de rayos catódicos (TRC) están compuestos por un monitor que alberga el TRC y la electrónica de control asociada y una fuente de alimentación.

El controlador de TRC, también conocido como interfaz TRC. En el caso de ordenadores personales, la tarjeta controladora de vídeo está conectada directamente a los buses del sistema, mientras que el monitor es un componente separado. En algunos casos, el controlador de vídeo puede integrarse en el mismo monitor.

La operación del TRC implica la emisión de un haz de electrones dirigido a la pantalla, donde al chocar con el fósforo provoca la emisión de luz y forma puntos luminosos. El barrido de la pantalla se realiza desviando el haz horizontal y verticalmente mediante placas deflectoras. Los monitores en blanco y negro y en color utilizan principios similares, pero en los monitores a color, se emplean tres cañones de electrones para los colores primarios (rojo, verde y azul).

Los monitores se clasifican en monocromo y a color, y pueden ser alfanuméricos o gráficos. Ofrecen características como enrollado, doble página, pantalla partida, atributos de caracteres y control del cursor. Además, presentan propiedades técnicas como colores, tamaño de pantalla, capacidad alfanumérica y gráfica, señales de entrada, tipo de barrido y conexión al computador.

Las características clave de los monitores incluyen su velocidad, capacidad de reescritura, economía, confiabilidad y capacidad bidireccional cuando se utilizan con un teclado. Las características técnicas adicionales se refieren a la resolución, el tamaño de la pantalla y las opciones de conexión al computador.

Tarjetas controladoras de vídeo

Tiene como función preparar la información que se visualizará en un monitor y generar las señales analógicas necesarias para atacar los circuitos electrónicos. Esta tarjeta realiza la conversión de la información que debe mostrarse en una señal eléctrica de vídeo. Cuenta con una memoria RAM de vídeo, que actúa como memoria local del controlador y almacena la información que se mostrará en la pantalla. Esta memoria local reduce la carga en los buses del sistema, ya que el refresco de la pantalla requiere accesos frecuentes a la memoria.

La cantidad de información que la tarjeta debe manipular depende del tipo de monitor que controlará. La información está codificada en la memoria de vídeo de la tarjeta, cuyo tamaño variará según el tipo de monitor.

Existen dos modos típicos de funcionamiento de las tarjetas controladoras de vídeo:

  • Funcionamiento en modo texto: se utiliza principalmente con pantallas monocromas y se basa en el empleo de un generador de caracteres. En este modo, todos los caracteres representables están almacenados en el generador de caracteres. Cada carácter tiene asociada una matriz de puntos que indica cuáles deben iluminarse para dibujar el carácter en la pantalla. Se requiere un bit por punto en la matriz, y el tamaño de estas matrices está relacionado con la resolución del monitor. La memoria de vídeo se utiliza para almacenar el código del carácter que se mostrará en cada posición de texto. La visualización se realiza consultando al generador de caracteres.
  • Funcionamiento en modo gráfico: se utiliza con monitores en color y algunos monocromos. La información a almacenar es por cada punto, y se organiza en planos, donde cada plano tiene un bit por punto. Esta organización permite codificar el color o nivel de gris asociado a un punto. La cantidad de memoria necesaria en la tarjeta controladora se determina por el número total de puntos del monitor, la paleta de colores y la resolución.

El generador de barrido tiene la tarea de leer la memoria de vídeo y transformar la información en señales analógicas para gobernar el tubo de rayos catódicos del monitor. Este bloque genera señales que sincronizan y controlan las bobinas deflectoras del TRC, así como la señal que modula el haz de electrones para lograr la imagen correcta.

Es crucial que toda la memoria de vídeo se lea cada 20 milisegundos, lo que implica que se pueda escribir, al menos parcialmente, durante ese tiempo. En el modo texto, se lee la memoria para extraer el código del carácter a representar y se utiliza este código como índice para leer la matriz correspondiente en el generador de caracteres.

El aumento de la memoria de vídeo implica un mayor flujo de información desde la CPU y requiere una mayor potencia de cálculo. Para abordar esto, muchos monitores gráficos tienen su propio hardware gráfico para realizar cálculos y procesamiento de imágenes.

En el ámbito de los computadores personales, existen diversas tarjetas controladoras de vídeo

            Pantallas de cristal líquido

Son más pequeñas que las pantallas convencionales de tubo de rayos catódicos y han experimentado un gran desarrollo tecnológico, impulsando en la popularidad de portátiles (laptops).     Se basa en el giro de moléculas transparentes de cristales especiales. Al aplicar un campo eléctrico, se modifica el ángulo de polarización de las moléculas, alterando la cantidad de luz que puede atravesar el cristal. Esto permite cambios de color en puntos muy localizados, posibilitando altas resoluciones.

Entre las características principales de una pantalla LCD se encuentran:

  • Relación de contraste: es la diferencia de brillo entre las zonas más claras y oscuras
  • Velocidad de refresco: es el tiempo necesario para actualizar la información sin producir estelas ni imágenes manchadas
  • Tamaño: medido en pulgadas.
  • Bajo consumo de energía
  • Relación de aspecto: ancho y alto de la pantalla
  • Peso

Los ordenadores portátiles han adoptado pantallas LCD durante años, y las últimas generaciones ofrecen una competencia real a las pantallas tradicionales de tubo de rayos catódicos (TRC), superando las limitaciones anteriores en términos de imagen, calidad, tamaño y prestaciones.

Problemas de salud con las pantallas TRC

Los problemas de radiación en las pantallas incluyen:

  • Absorción de rayos X
  • Radiación UV e IR de los fósforos en niveles insignificantes
  • Campos electrostáticos
  • Emisiones de radiofrecuencia y ultrasonidos, así como campos electromagnéticos que pueden inducir corrientes en materiales conductores, incluyendo el cuerpo humano. Se han atribuido dos clases de efectos a estos campos electromagnéticos: trastornos en el sistema visual y afectaciones en la reproducción, como abortos y defectos de nacimiento.

Se recomiendan medidas como:

  • Mantener una distancia adecuada de la pantalla
  • Evitar tipos de letra pequeña
  • No mirar constantemente la pantalla durante períodos prolongados, trabajar en entornos bien iluminados
  • No colocar la pantalla directamente frente a una ventana bien iluminada

4. Ratón

Es un componente crucial en la mayoría de los ordenadores personales y estaciones de trabajo. Se trata de una pequeña caja del tamaño de la palma de la mano que permite al usuario desplazar un puntero en la pantalla, especialmente útil para interactuar con interfaces gráficas. Aunque versátil, requiere espacio adicional al del teclado y puede presentar desafíos en entornos de computación ubicua.

Existen dos tipos principales de ratones:

  • Mecánicos: emplea una bola que se mueve sobre la superficie de la mesa, detectando su rotación mediante potenciómetros
  • Ópticos: utiliza diodos, fotodetectores y una almohadilla especial con líneas para detectar el movimiento sin partes móviles.

El ratón suele tener dos o tres botones que se utilizan para selecciones y acciones. Es un dispositivo preciso y útil para el dibujo y el diseño, aunque puede requerir cierta experiencia.

5. Trackball

Es un dispositivo similar a un ratón pero girado, con una bola pesada que se mueve dentro de una carcasa estática. Detecta el movimiento de la bola de manera similar a un ratón y no requiere espacio adicional, siendo compacto y preciso. Aunque puede ser incómodo para movimientos largos, se utiliza comúnmente en ordenadores portátiles. Permite reposar el antebrazo, proporciona retroalimentación táctil y puede integrarse en un teclado.

A diferencia de los ratones, no pueden salirse de la superficie de trabajo y se utilizan en modo relativo. Sin embargo, suelen ser menos útiles para tareas de dibujo o escritura a mano. La interacción con los botones asociados al puede ser complicada con una sola mano.

Otro dispositivo similar es el touchpad, utilizado en algunos portátiles. Detecta la capacitancia del dedo para calcular su posición absoluta. Estos dispositivos son compactos y permiten un control preciso sin apartar la vista de la pantalla.

6. Joystick

Es un dispositivo de entrada compacto que puede incorporarse dentro del teclado. Consiste en una caja del tamaño de la palma de la mano con un bastón que se levanta y se desplaza en todas direcciones. Utiliza potenciómetros para detectar los movimientos del bastón. Es un dispositivo económico y robusto. Opera en dos dimensiones y se utiliza en tareas que requieren dirección y velocidad sin necesitar una gran precisión.

7. Micrófono

Es un dispositivo que convierte la energía del sonido en energía eléctrica. Existen varios tipos de micrófonos, cada uno con su principio de funcionamiento específico.

  • Micrófono de carbón: utilizado en teléfonos, consta de un disco metálico lleno de granos de carbón y un diafragma metálico móvil. Las ondas sonoras hacen vibrar el diafragma, alterando la presión sobre los granos de carbón y variando la resistencia eléctrica. Esta variación se traduce en una corriente eléctrica que puede ser amplificada y digitalizada.
  • Micrófono de cristal: emplea cristales piezoeléctricos para generar un voltaje al aplicar presión. Las ondas sonoras hacen vibrar un diafragma, modificando la presión sobre el cristal piezoeléctrico, generando un pequeño voltaje que se amplifica.
  • Micrófono dinámico: incluye micrófonos de cinta y de bobina móvil. En el primero, una cinta metálica en un campo magnético genera voltaje por inducción electromagnética al vibrar con las ondas sonoras. El segundo utiliza una bobina de hilo fino en lugar de una cinta.
  • Micrófono de condensador: compuesto por dos láminas metálicas cercanas que actúan como un condensador. Las ondas sonoras alteran la distancia entre las láminas, cambiando la capacidad entre ellas. Suelen ser pequeños y requieren una fuente de alimentación adicional.

Las características clave de los micrófonos incluyen la respuesta en frecuencia, direccionalidad, sensibilidad e inmunidad a perturbaciones externas.

8. Altavoces

También conocidos como bocinas, son dispositivos electromecánicos utilizados para producir sonido audible a partir de voltajes de audio amplificados.

La mayoría de los altavoces modernos son de tipo dinámico. Estos altavoces cuentan con una bobina de cable muy ligero que se encuentra dentro del campo magnético generado por un potente imán permanente o un electroimán. Cuando una corriente eléctrica variable proveniente del amplificador atraviesa la bobina, se modifica la fuerza magnética entre la bobina y el campo magnético del altavoz. Esta variación en la fuerza magnética provoca vibraciones en la bobina, y estas vibraciones, a su vez, se transmiten mecánicamente a un diafragma o un cono vibrante grande unido a la bobina. Estas vibraciones generan ondas sonoras en el aire, reproduciendo así el sonido deseado.

Salida de sonido

El sonido se destaca como un mecanismo claro de interacción para proporcionar a los usuarios información sobre el estado actual del sistema. Algunos investigadores sugieren que el sonido puede ser utilizado como un método de codificación para enriquecer las representaciones gráficas. En sistemas complejos, se argumenta que el uso de sonidos con una relación directa con el proceso representado puede ser beneficioso.

 Además, se presenta como una herramienta valiosa para aquellas personas que no pueden ver, ofreciendo una forma alternativa de percepción y comprensión del entorno o de la información.

Tipos

Distinguimos:

  • Sonido musical: usado en interfaces de propósito general está en una fase inicial y su valor puede variar según los usuarios.
  • Sonido natural

9. Interacción usando el lenguaje

El lenguaje hablado es un medio natural de comunicación que ha sido fundamental en el desarrollo humano y en la interacción con el entorno.

A pesar de la complejidad del reconocimiento de voz, se han realizado intentos, aunque con éxito parcial.

Diferentes métodos de interacción basados en el lenguaje incluyen:

  • Reconocimiento del habla: también conocido como voz-a-texto, es una tecnología que permite a los ordenadores convertir la voz en texto. Hay dos tipos principales de reconocimiento de voz:
    • Reconocimiento de órdenes
    • Dictado de voz: puede ser:
      • Discreto: requiere pausas entre cada palabra
      • Continuo: tiene tales limitaciones.

Existen diferentes métodos:

  • Reconocimiento de voz: sistemas de palabras aisladas que requieren pausas entre palabras y tienen un vocabulario limitado
    • Sistemas de reconocimiento de voz continua: pueden identificar palabras en secuencia.
    • Sistemas pueden ser dependientes del hablante: requiriendo entrenamiento previo con la voz de los usuarios
    • Sistemas independientes del hablante: sin restricciones en el reconocimiento de cualquier usuario.
  • Síntesis de voz: conocida como texto-a-voz, es la tecnología que permite a las computadoras producir sonidos que emulan la voz humana al leer texto en voz alta. Es una tecnología que requiere menos potencia y no depende de hardware de alta calidad.
  • Identificación y verificación de la persona por el habla: son tecnologías relacionadas que se centran en reconocer la identidad de la persona en lugar de comprender el contenido de lo que dicen. En la identificación de la persona que habla, se utiliza tecnología para intentar identificar a una persona. Por otro lado, la verificación de la persona que habla busca garantizar que la persona que habla es realmente quien dice ser, aplicando el concepto de “mi voz es mi contraseña”.
  • Comprensión del lenguaje natural (NLU: Natural Language Understanding): es una tecnología que posibilita que los ordenadores comprendan el significado de las palabras habladas o del texto escrito. Representa la próxima generación de tecnología de voz en el mercado, permitiendo que las computadoras comprendan preguntas u órdenes en lenguaje natural, no solo interpretando las palabras, sino también su sentido.

Usos

Podemos distinguir:

  • Ordenes habladas: el reconocimiento de órdenes es una aplicación común en el software actual y se relaciona con el reconocimiento de palabras o frases cortas. El software que utiliza esta tecnología tiende a caracterizarse por el uso intensivo del teclado para comandos individuales, estructuras de menú complejas, operación manos libres, cambios frecuentes de modalidad (transición entre teclado y ratón) y entradas repetitivas.
  • Dictado por la voz: encuentra un uso significativo en la manipulación de grandes cantidades de texto y en la creación de informes especializados. El software que aprovecha esta tecnología incluye aplicaciones de procesamiento de texto a. Además, esta tecnología se integra con operaciones manos libres y con la comprensión dellenguaje natural
  • Síntesis de la voz:  tiene diversas aplicaciones. Algunas de las características necesarias para estas aplicaciones incluyen la capacidad de revisar grandes volúmenes de texto, confirmar órdenes y selecciones, y operar en condiciones que requieran atención auditiva en lugar de visual.

Existen dos métodos principales para la síntesis de voz:

  • Concatenación: implica grabar registros digitales de voz humana real en el ordenador. Estos registros pueden almacenarse por frases o segmentos de palabras, y luego se pueden combinar para construir nuevas frases organizando las palabras en el orden correcto. Aunque este método presenta algunos problemas
    • Síntesis por reglas: no se utiliza directamente la voz humana. La síntesis se controla mediante reglas de fonemas y reglas relacionadas con el contexto de una frase. Al utilizar fonemas, las unidades más pequeñas de sonido que cambian una palabra, el sistema puede teóricamente articular un vocabulario indefinido de palabras.

Ambos métodos tienen sus propias características y consideraciones, pero en conjunto, la síntesis de voz a partir de texto ofrece una solución valiosa para diversas aplicaciones centradas en la voz.

  • Identificación y verificación de la persona por la voz: tiene aplicaciones en entornos donde puede haber varios usuarios en un mismo sistema o cuando es crucial contar con controles de acceso seguros. Algunas características y aplicaciones clave de esta tecnología incluyen:
    • Configuraciones de muchos usuarios o personalizadas: permite reconocer y adaptarse a las preferencias o perfiles de diferentes usuarios en un sistema.
    • Derechos de acceso seguros: proporciona un nivel adicional de seguridad al autenticar la identidad a través de la voz.
    • Elementos de la interfaz de usuario dedicados a control de accesos y restricciones para usuarios: integra funciones específicas en la interfaz de usuario para gestionar el acceso y las restricciones basadas en la identificación vocal.
    • Bloqueo y desbloqueo de elementos: permite la capacidad de bloquear y desbloquear elementos o funciones del sistema mediante la autenticación de la voz.
  • Comprensión del lenguaje natural: abre amplias posibilidades de aplicaciones. Algunas de las áreas en las que se pueden aprovechar estas tecnologías incluyen:
    • Aplicaciones de Preguntas y Respuestas
    • Sistemas Expertos
    • Aplicaciones con Agentes del Tipo Wizard
  • Sistemas de Acceso a Bases de Datos para la Resolución de Problemas:
  • Motores de Búsqueda de Bases de Datos, incluyendo Internet:
  • Sistemas de Interrogación y Respuesta

Ejemplos

Algunos de ellos son:

  • Sistema Festival Speech Synthesis
  • Text-to-audiovisual-speech
  • IBM Voice: donde distinguimos tres modalidades:
    • Via Voice Execute
    • Via Voice Office
    • Via Voice Home
  • Dragon Naturally Speaking
  • In Cube

Título: La iteración persona-ordenador

Página 233-275

Resumen

Capítulo 5: El diseño

Es muy importante el diseño de la interfaz de usuario desde el principio en el desarrollo de aplicaciones interactivas. Además, la percepción del usuario se ve influenciada por la interfaz, aunque le diseño no debe dejarse para el final del proceso. Es muy importante destacar la dificultad de cambiar la interacción después de la implementación del código y se hace hincapié en a necesidad de tener una idea desde el principio.

Asimismo, se enfoca en la aplicación de técnicas de ingeniería de software en el desarrollo de aplicaciones interactivas como la necesidad de modificar algunos de los aspectos de los métodos del diseño clásico. Cabe destacar, la importancia del análisis y diseño de la parte interactiva, considerando a los siguientes participantes: usuario (tiene la capacidad de elección y actuación), ordenador (ofrece programas y mecanismos para el acceso) y diseñador (encargado de anticipar las acciones del usuario y codificarlas).

También, cada vez las interfaces tienen mas complejidad a la hora de diseño de las interfaces ya que deben ser fáciles de usar y se critican las limitaciones de las herramientas para abordar el comportamiento dinámico; introduciéndose la idea de una aproximación de ingeniería para el diseño de sistemas interactivos.

1. Análisis centrado en el usuario

El diseño de un sistema interactivo debe cumplir con las necesidades del usuario. Para poder tener un diseño efectivo, es fundamental realizar un análisis del contexto laboral, considerando las características del usuario, actividades que va a realizar y el entorno laboral. Con este enfoque, nos permite identificar los requisitos clave que deben ser atendidos.

Los usuarios El proceso para el diseño de un sistema, es importante considerar cuales son las peculiaridades de los usuarios potenciales. La incorporación del factor humano surge del reconocimiento de los diseños malos en las aplicaciones previas y el deseo de crear productos que sean efectivos para los usuarios. Además, las características individuales de los usuarios pueden influir en el modo de trabajo y en el proceso de comunicación del sistema, afectando a aspectos como: tiempo de aprendizaje, rendimiento, frecuencia de errores, retención de información y satisfacción del usuario.

El diseño de aplicaciones puede ser dirigido a un cliente especifico o un grupo más amplio de usuarios potenciales. El análisis de usuario implica considerar:

  • Habilidades físicas y sensoriales
  • Habilidades cognitivas
  • Diferencias de personalidad
  • Variedades culturales

Estos aspectos son fundamentales para diseñar un sistema que satisfaga con las necesidades y preferencias de los usuarios. La recopilación de esta información puede hacerse mediante una tabla que enumere a los usuarios y las características mas relevantes.

Las tareas

Es un factor fundamental en el diseño de los sistemas interactivos. Al diseñarlos, es esencial que las tareas sean familiares para el usuario, manteniendo una similitud en la forma de realizarlas, su representación y la secuencia de acciones respecto al entorno real. Si no se cumple, el usuario puede enfrentarse a dificultades adicionales para comprender las tareas.

El escenario

Las personas no realizan su trabajo de forma individual, si no que se ven influenciadas por el entorno en el que se llevan a cabo. Algunos de los aspectos, son:

  • Entorno físico: es esencial para la productividad. Algunos factores para tener en cuenta son: ubicación, iluminación, espacio; además de características específicas como: ruido, polución o condiciones extremas.
  • Entorno social: implica trabajar dentro de un grupo con normas de comportamiento establecidas. Hay situaciones que requieren cooperación de trabajo, intercambio de datos o recursos, y jerarquías que deben considerarse en el diseño de sistemas interactivos. En entornos de trabajo que son muy colaborativos, puede ser necesario utilizar aplicaciones de groupware para el trabajo en grupo.

2. Ciclo de vida de la interfaz de usuario

La construcción de un sistema interactivo involucra un ciclo continuo de diseño, desarrollo y evaluación, donde los comentarios de los usuarios son esenciales para refinar el sistema. Es fundamental que consideremos al usuario desde las primeras etapas del diseño.

Las interfaces iniciales eran creadas por los propios programadores para su uso personal, pero los diseños actuales deben ser accesibles para distintos usuarios. El diseño debe basarse en:

  • Principios: que son los objetivos generales que pueden ser útiles para organizar el diseño. Aconsejan al diseñador para como se debe hacer. Sin embargo. No especifican métodos para obtener los objetivos y esta limitado al uso práctico.
  • Guías (guidelines): es el conjunto de recomendaciones que deben ser aplicados a la interfaz y son cuantificables. Deben ser generales para aplicarlos a diferentes contextos y pueden deducirse de distintas teorías
  • Estándares: son los principios guías que se deben seguir. Existen los estándares de facto que son los que se encargan de diseñar para proteger la uniformidad y línea de productos desarrollados para mejorar la eficiencia del usuario. Además, existen distintos estándares en otros ámbitos: ANSI, ISO, DIN, MIL–STD, NASA–STD.

Un buen diseño depende del conocimiento y la experiencia del diseñador, los cuales pueden utilizar principios, pautas y estándares para organizar el diseño. Esta información se organiza para que sea útil para otros diseñadores y fuentes.

El diseño centrado en el usuario requiere tener una evaluación continua, utilizando:

  • Métodos formales: permiten una especificación precisa y sin ambigüedad, además de la verificación formal de propiedades y en algunos casos se pueden generar la implementación de forma automática.
  • Herramientas de desarrollo de interfaces modelados: obtienen el interfaz a partir del análisis de requisitos del usuario. Su labor fundamental es la generación de aplicaciones a partir del diseño, aunque también se pueden considerar como herramientas de prototipado. En la actualidad, los lenguajes de programación visuales también tienen librerias que permiten implementar las técnicas de interacción y presentación de la información.
  • Prototipado: son documentos, diseños o sistemas que simulan o tienen implementadas partes del sistema final. Es una herramienta útil para anticipar al usuario en el desarrollo y así poder evaluar el producto en las primeras fases del diseño

Sin embargo, sigue siendo desafiante a la necesidad de adaptarse a una amplia variedad de usuarios, tareas y contextos.

3. Aproximaciones al diseño

El desarrollo de los sistemas interactivos es complejo y requiere herramientas y metodologías para lograr un diseño centrado en el usuario. Se emplea dos enfoques:

  • Aproximación empírica: se basa en la experiencia del diseñador o en los compendios de recomendados por estudios de usabilidad.
  • Aproximación metodológica: se funda en teorías cognitivas y sigue pasos específicos para el diseño. Incorpora diversas disciplinas, sobretodo teorías cognitivas que proporcionan mecanismos para describir el conocimiento del usuario sobre el sistema

En los sistemas interactivos, el concepto diseño abarca desde aspectos de análisis (usuarios, tareas y entorno) y modelado hasta cuestiones propias del diseño como apariencia y codificación.

Modelo mental y modelo conceptual

En el diseño de los sistemas interactivos, el factor humano es crucial y se emplean modelos cognitivos para estudiar como las personas asimilan y procesan la información. Se utilizan dos términos clave para describir el conocimiento del usuario sobre una aplicación, estos son:

  • Modelo conceptual: se refiere a la abstracción externa creada por el analista mediante diagramas y notaciones. Debe ser completo, consistente y preciso. Se basa en elementos y relaciones observables en el sistema, así sirve de guía para que cualquier usuario comprenda el sistema. Tiene que tener una notación especifica para evitar ambigüedades. Es importante que este modelo facilite el aprendizaje, prediga el comportamiento del sistema y ayude al usuario a resolver problemas, basándose en los principios de asimilación, consistencia y simplicidad.
  • Modelo mental o modelo de usuario: representa la abstracción del conocimiento interno que posee el usuario sobre el sistema, intenta guiar las intenciones del usuario al interactuar con el sistema y puede modificarse con la interacción

Modelo de procesador humano

CARD y MORAN presentan un modelo que describe la percepción, procesamiento y manipulación de la información; este identifica distintos procesadores y sistemas de memoria, asignado parámetros cuantitativos. Consta de tres sistemas principales:

  • Perceptual: maneja estímulos externos
  • Motor: controla acciones
  • Cognitivo: suministra el conocimiento necesario para conectar los dos anteriores.

Modelo de desarrollo de tareas

Norman, propone un modelo de desarrollo de tareas que idéntica siete etapas de ejecución y evaluación del usuario, estas son:

  1. Establecer el objetivo que se quiere alcanzar
  2. Formalizar la intención para la acción correspondiente a la intención
  3. Especificar la secuencia de acción correspondiente a la intención
  4. Ejecutar la acción
  5. Percibir el estado del sistema
  6. Interpretar el estado
  7. Evaluar la interpretación del estado con respecto al objetivo inicial

Modelo objeto-sintáctico-semántico (SSOA)

Sugiere a los usuarios que posean un conocimiento sintáctico y semántico del problema y los mecanismos de interacción. Este conocimiento incluye detalles sobre los dispositivos y conocimientos semánticos de actividades y conceptos sobre el ordenador. Se organiza a través de una colección de objetos que componen el sistema y las acciones que se pueden realizar sobre cada uno de esos objetos

Estructura del modelo conceptual

Como ya hemos comentado, el modelo conceptual es fundamental para identificar, organizar y razonar sobre los componentes y comportamientos de un sistema interactivo. Sirve como guía del proceso de diseño del software y como referencia para evaluar y razonar sobre soluciones. La correcta especificación es fundamental en todas las etapas de diseño. Algunas notaciones se basan en métodos formales.

Existen distintas notaciones para el modelo conceptual, basadas en métodos formales que permiten una descripción precisa y sin ambigüedades. Algunos de los enfoques son:

  • Modelo de Caja Negra: los usuarios conocen las entradas y salidas del sistema, pero no saben cuál es su funcionamiento interno. Solo se centra en los resultados y puede resultar en una visión “mágica” del sistema para el usuario.
  • Modelo Funcional Jerárquico: las funciones se agrupan jerárquicamente, reduciendo la complejidad mediane la partición del problema.
  • Modelo Basado en Estados: el sistema es un conjunto de estados con transiciones claras y eventos definidos. Los usuarios pueden observar y comprender los cambios en el estado del sistema.
  • Modelo Basado en Objetos y Acciones: se trabaja sobre entidades que realizan acciones. Los usuarios deben saber que existen objetos, atributos y acciones asociadas.

La descripción del conocimiento del usuario y la del sistema pueden ser complementarias, ya que os modelos de tareas se centran en el conocimiento del usuario y describen el proceso de adquisición de información y el rendimiento humano en actividades específicas.

Los modelos arquitectónicos representan la estructura interna del sistema. Además, existen modelos abstractos basados en la caja negra, los cuales describen propiedades relevantes del sistema sin considerar la estructura interna. Estos no son excluyentes y se diferencian en los aspectos estudiados y el nivel de abstracción del sistema.

4.

  1. Análisis de tareas

Introducción

Es una metodología que implica diversas técnicas para describir de forma sistemática la interacción de la persona y su entorno. Se centra en comprender las acciones y procesos cognitivos que los usuarios realizan para alcanzar los objetivos específicos. La obtención de información y su representación son fases clave.

Los conceptos iniciales incluyen:

  • Conocimiento del usuario
  • Tarea

El análisis de tareas proporciona información crucial sobre el sistema que se va a diseñar, complementando las técnicas de requisitos tradicionales. Las fases fundamentales son:

  • Obtención de la información: es la recopilación de información de los datos necesarios para entender las actividades del usuario.
  • Modelado: implica representar esta información en un modelo adecuado.

Los métodos se basan en teorías cognitivas y permiten la representación del usuario y su interacción con la interfaz, abordando comprensión, conocimiento, intenciones y mecanismos de procesamiento. La representación puede variar en nivel, desde tareas y objetivos hasta el análisis de actividades motoras. La información obtenida es importante para:

  •  Comprender el dominio de la actividad: identificar las actividades importantes y sus relaciones.
  • Facilitar discusiones interdisciplinares
  • Disponibilidad de aplicaciones: asegurar la consistencia con el modelo conceptual actual
  • Análisis y Evaluación de la usabilidad: predecir el rendimiento humano e identificar posibles problemas de uso

Algunas definiciones básicas son:

  • Objetivo: estado o logro que el usuario busca alcanzar en una aplicación.
  • Tarea: actividad necesaria para lograr un objetivo
  • Acción: son los pasos necesarios para completar una tarea.

Proceso de obtención y análisis

En el análisis de tareas, la identificación de tareas más relevante del sistema se lleva a cabo mediante diversas técnicas, en las que incluyen:

  • Entrevistas y reuniones
  • Cuestionarios
  • Observación del usuario en su trabajo
  • Estudio de la documentación actual, programas de formación, etc.

Al emplear estas técnicas, podemos recopilar información esencial, que se centra en:

  •  Información que necesita el usuario para realizar la tarea
  • Terminología y símbolos del dominio del problema
  • Descripción de cómo las tareas se realizan
  • Casos de uso
  • Tipos de usuarios

El resultado del análisis es una lista de tareas que tiene información adicional como atributos, restricciones y preferencias. A partir de esta información, se abstraen conceptos esenciales para el diseño, algunos de ellos son:

  • Modelo del Diálogo: es decir la comunicación entre la persona y el ordenador, con los paradigmas y los estilos que se van a utilizar.
  • Modelo de Tareas: son las tareas del sistema nuevo
  • Dominio del Sistema: es la descripción de los componentes y arquitectura del sistema.
  • Modelo de los Usuarios: identifica al tipo de usuarios, el papel que desempeña cada uno y sus interrelaciones.
  • Propiedades del sistema: es el estudio de las características del sistema

Método de análisis de tareas

Podemos utiliza distintos métodos:

Métodos de competencia o cognitivos:  identifican las secuencias de comportamiento correctas y representa el conocimiento necesario para usar el sistema, generando una especificación del conocimiento.

Métodos predictivos para la evaluación del rendimiento humano: describen las secuencias de comportamiento y conocimiento requerido para que pueda ser ejecutado. Se enfoca en el análisis de rutinas de comportamiento.

Métodos descriptivos: permiten obtener una descripción completa o parcial del sistema partir de la información obtenida por las tareas. Estos métodos son diferentes en su formalidad, capacidad expresiva y objetivos. En la siguiente table, se describen algunos de estos métodos:

Análisis jerárquico de tareas (HTA)

Es una técnica muy conocida y antigua para el análisis de tareas. Se describe la ejecución de tareas en términos de operaciones y planes. Las operaciones representan las actividades que las personas realizan para lograr un objetivo, mientras que los planes describen las condiciones asociadas a cada actividad. La representación jerárquica de las operaciones se representa en forma de árbol con ramificaciones y subramificaciones. A la hora de describir la descomposición de una tarea lo podemos representar con cuatro tipos de descomposiciones:

  • Secuencia: conjunto ordenado de forma temporal
  • Selección: elección entre varias tareas
  • Iteración: repetición de un subconjunto de tareas
  • Tarea unitaria: actividad indivisible según el nivel de detalle

Implica tres etapas interconectadas: recopilación de información (incluyendo la revisión de documentación, entrevistas y cuestionarios), diagramación y análisis. Todos estos procedimientos permiten entender cómo las personas realizan las tareas en distintas circunstancias y proporcionan una base sólida para el diseño en el usuario.

Algunas de las tareas se desglosan en secuencias, y los planes describen las operaciones necesarias o las circunstancias que determinan el orden de ejecutar las operaciones. Estos incorporan tablas jerárquicas o diagrama de árbol que representan la relacion entre las tareas y las subtareas.

La fase final implica analizar toda la información recopilad. Utilizando esta base para tomar decisiones de diseño y proporcionando una guía valiosa para las actividades de diseño. La metodología sigue los siguientes pasos:

  • Etapa inicial: define la tarea principal, la cual puede dividirse de cuatro a ocho subtareas.
  • Etapa intermedia: decide el nivel de detalle necesario y determina en qué punto finaliza la descomposición
  • Parte final: revisa y evalúa el trabajo realizado para asegurar su consistencia.

GOMS

Es un modelo que considera al usuario como un sistema procesador de información. Se basa en el mecanismo de razonamiento humano para resolver problemas y formalizar las actividades tanto físicas como mentales. Se compone de:

  • Goals (Metas): representa los objetivos que el usuario desea alcanzar, sirviendo como referencia si hay errores.
  • Operators (Operadores): son las operaciones fundamentales de percepción, motoras o cognitivas que modifican el modelo mental del usuario o del entorno.
  • Methods (Métodos): describe la forma de llevar a cabo las operaciones para alcanzar un objetivo.
  • Selection (Selección): reglas para determinar la mejor operación cuando hay varias.

La descomposición de tareas se presenta de forma jerárquica, donde los objetivos se descomponen en subobjetivos, las tareas en subtareas primitivas. Permite la especificación de condiciones y reglas para elegir la mejor alternativa en ciertos casos.  Sin embargo, uno de sus puntos débiles fue considerar comportamientos sin errores y tareas secuenciales.

KLM (KeyStroke Level Model)

Es una versión simplificada de GOMS que se centra en operaciones como pulsaciones de teclas y movimiento de ratón para prever el tiempo que tardará en completar una tarea. También, utiliza valores experimentales para estimar los tiempos asociados a las operaciones elementales.

Algunas estimaciones promedio basadas en experimentos incluyen:

  • Tiempo de planificación de una tarea: si la tarea está definida entre 2-3 segundos, y si requiere pensar entre 5-30 segundos.
  • Tiempo de respuesta del usuario: varía dependiendo del dispositivo y la agilidad del usuario.

TAG (Task Action Grammar)

Representa el conocimiento del usuario al realizar una tarea mediante una gramática estructurada, es decir, utiliza un esquema compuesto por reglas que describen la tarea del usuario de manera sintáctica y semántica.

Los pasos para especificar una interfaz con este método son:

  1. Identificar tareas simples que los usuarios puedan resolver sin problemas
  2. Describir estas tareas en un diccionario donde se refleje la categoría y los componentes semánticos de la misma
  3. Definir las reglas de reescritura que transformen tareas simples en acciones, con la utilización de tokens etiquetados con características semánticas del diccionario.

Se utiliza para el análisis de la consistencia de un grupo de ordenes de un sistema operativo. Además, no realiza predicciones absolutas de rendimiento, pero pueden generar hipótesis que pueden ser probadas de manera experimental.

La consistencia que evalúa TAG puede ser clave para la facilidad de aprendizaje. Por lo que podríamos estimar una relacion directa entre el tiempo de aprendizaje y el número de esquemas utilizados.

UAN (User Action Notation)

Es una notación centrada en el usuario, y esta diseñada para describir tareas de las interfaces gráficas de usuario que estan basadas en el paradigma de manipulación directa. Destaca por su capacidad para describir la realimentación visual del sistema durante las interacciones.

Utiliza una tabla con tres columnas que detallan las acciones del usuario, la realimentación de la interfaz y el estado del sistema después de cada acción. Ambas se expresan con una notación que describe la manipulación de objetos de la interfaz.

 CTT (ConcurTaskTress)

Es una notación desarrollada por Fabio Paternò. Su objetivo es representar las relaciones temporales entre actividades y usuarios necesarias para llevar a cabo tareas, especialmente en aplicaciones de Trabajo Cooperativo con Ordenador (CSCW). Las principales características son:

  • Facilidad de uso: destaca por la sencillez.
  • Representación gráfica en forma de árbol: la representación gráfica es en forma de árbol y representa la descomposición jerárquica de las tareas en el sistema.
  • Operadores temporales de LOTOS (Language Of Temporal Ordering Specification): utilizados para describir las relaciones entre las tareas.
  • Categoría de tareas: podemos distinguir:
    • Tareas del usuario: donde se integran las tareas cignitivas o físicas realizadas por el usuario sin interactuar con el sistema
    • Tareas de la aplicación: realizadas por la aplicación
    • Tareas de Interacción: tareas realizadas por el usuario interactuando con la aplicación utilizando técnicas de interacción.
    • Tareas abstractas: son las tareas complejas que se descomponen en subtareas.
  • Objetos manipulados por tareas: podemos distinguir:
    • Objetos perceptibles: son los utilizados para presentarle información al usuario
    • Objetos de aplicación: son elementos que pertenecen a la aplicación y deben ser mapeados y percibidos por el usuario
  • Tareas Cooperativas: se pueden describir utilizando un árbol especial donde se identifican las tareas cooperativas y se denotan con un identificador especial.

5. Modelos arquitectónicos

Representan una alternativa, en algunos casos que es complementaria para la descripción de sistemas interactivos. Su objetivo es obtener un modelo del sistema, centrándose en los aspectos computacionales.

Los primeros modelos propuestos son para describir los sistemas interactivos en su totalidad. Sin embargo, las últimas propuestas definen una arquitectura modular basada en componentes como Modelo-Vista-Controlador) o PAC (Presentación-Abstracción-Control). También encontramos propuestas que se basan en herramientas para la obtención automática.

Todas ellas se centran en la modelización de los componentes interactivos (estructura) y mecanismo de interacción (diálogo)

Modelos de componentes interactivos

Describen el sistema como una colección de interactores, que son elementos básicos que encapsulan interacciones elementales. Además, definen las características de objetos con los que interactúa el usuario. Su arquitectura es modular, permitiendo la composición de componentes para crear sistemas más complejos.

Uno de los modelos más utilizado es el interador de York, que es un estado y un conjunto de acciones que puede percibir e invocar el entorno a través de una interfaz bien definida; con esto se recoge los elementos esenciales y es perceptible por el usuario en el sistema.

Una definición más detallada de un interador es que es un modelo abstracto basado en procesos, canales de comunicación y señales de control que definen un componente interactivo con capacidad de representación gráfica y modificación dinámica. Su estructura favorece a la interconexión para realizar modelos de interacción complejos.

Los procesos de un interador son los siguiente:

  • Collection: es la descripción de alto nivel de la apariencia gráfica del objeto
  • Feddback: es la que dice la apariencia externa del objeto
  • Measure: obtiene los datos de un nivel inferior
  • Control: genera una nueva medida para el nivel superior

Las entradas y salidas se definen por medio de canales de comunicación: im,oc,od,eo. La sincronización se realiza mediante dos señales de control: it, ot.

Se han desarrollado metodologías para diseñar los sistemas interactivos utilizando los interadores donde se describen las distintas formas de conexión para describir interacciones complejas.

Se pueden utilizar formalismos como la lógica temporal

Modelos de diálogo

Es un aspecto fundamental; siendo la descripción de la comunicación de cada participante.

Gramáticas

Tiene un aspecto importante en la descripción de diálogos, ya que utilizan distintas herramientas para crear prototipos de comunicación. La notación BNF es útil para establecer la relacion entre sintaxis y las acciones en la realización de órdenes. La gramática incluye símbolos terminales, no terminales y metasimbolos para definición, alternancia, agrupación y opcionalidad.

Esto es apto para diálogos basados en ordenes, con una extensión para gramáticas multiparte (usuario y ordenador). El inconveniente es la incapacidad de representar conceptos contextuales y la dificultad de comprensión en especificaciones extensas.

Diagramas de transición de estados (STN)

Es uno de los primeros utilizados para describir diálogos. Se expresan los posibles estados del sistema y las transiciones entre ellos. Los nodos representan estados, y los enlaces las transiciones. Con este enfoque se muestra el flujo de acciones y determina el estado después de una acción, esto es útil para describir acciones de usuario y estados críticos del sistema. 

Redes de Petri

Son representaciones gráficas de actividades concurrentes con lugares (círculos), transiciones (rectángulos) y marcas. Es útil para especificar la concurrencia de opciones con acciones del usuario explicitas y el estado del sistema representado por las marcas

Diseño orientado a objetos

Se basan en el paradigma de objetos, donde el sistema se compone de componentes manipuladores interactivos con representación gráfica y vinculación mediante la herencia. El modelo conceptual se organiza en un conjunto de objetos capaces de realizar acciones, siguiendo el modelo objeto-acción.

Tiene la estructura típica del modelo conceptual, donde los objetos representan elementos de información sobre los cuales el usuario tiene control, y las acciones son operaciones que el usuario puede realizar con dichos objetos.

Distinguimos dos tipos de objetos:

  • Comunicación entre el usuario y el sistema (objetos de control)
  • Propios de la aplicación (objetos intrínsecos)

Se pueden utilizar metáforas para facilitar la comprensión y se aborda la descripción de objetos mediante la identificación de atributos.

Lenguaje de órdenes
En un sistema interactivo basado en objetos, se pueden identificar varias órdenes necesarias para representar y manipular objetos de manera gráfica e interactivas. Algunas de ellas son:

  • Selección/deselección de objetos
  • Búsqueda/Identificación de un objeto
  • Creación/eliminación de objetos
  • Mover/copiar objetos
  • Obtener/cambiar valores de los atributos
  • Visualización del objeto

También, pueden existir objetos complejos que poseen acciones específicas:

  • Agrupación: es un objeto formado por otros objetos. Se pueden ubicar y eliminar componentes, así como saber cuáles son sus valores.
  • Colección: es un objeto que contiene un número variable de objetos.

Lenguaje modal

El concepto de modo se refiere a un estado o conjunto de estados en el que un usuario puede realizar tareas de interacción.

La presencia de modos puede estar vinculada a la estructura del lenguaje de órdenes. Dos posibles sintaxis son:

  • Acción-Objeto
  • Objeto-Accción

Donde en ambas la interpretación de una entrada depende del estado previo de la aplicación

Los modos pueden ser buenos o malos según su implementación. Los diálogos modales invisibles o sin un significado coherente aumentan la probabilidad de error y la dificultad de aprendizaje. Un diálogo modal bien diseñado deberá indicar el modo actual, proporcionar información sobre las órdenes y tener significados intuitivos para las acciones.

6.

  1. Modelos abstractos

El análisis de sistemas interactivos como sistemas reactivos se enfoca en propiedades como la ausencia de interbloqueos o inanición. Sin embargo, desde la perspectiva de la interacción con el usuario, las propiedades deseables se centran en aspectos como la capacidad de reiniciar (Restartability), deshacer la última acción en cualquier momento (Undo), aprovechar toda la funcionalidad de la aplicación (completitud), la capacidad de cancelar tareas en cualquier momento y la observación constante del estado del sistema (Observabilidad).

Estas propiedades se resumen en dos casos principales:

  • Predecibilidad: implica reconocer y prever los efectos futuros del sistema ante nuevas interacciones, pudiendo medir la consistencia del sistema.
  • Alcanzabilidad: permite razonar y determinar si el usuario tiene acceso en todo momento a la funcionalidad del sistema.

Por lo que los métodos utilizados son descriptivos, y la notación y el fundamento matemático subyacente permiten expresa, razonar y verificar las propiedades.

Modelo PIE (Programa, Interpretación, Efecto)

Ofrece una visión externa del sistema, considerandose como una caja negra y describiendo su comportamiento observable por el usuario. Por lo que, las entradas de usuario (P) son un conjunto de órdenes que forman parte de un programa. El efecto observado (E) es el resultado de un proceso de interpretación (I), que transforma las entradas al dominio de los efectos.

Un problema de predecibilidad se aborda formalmente mediante la propiedad de monotonía. Si dos entradas de usuario tienen la misma interpretación, se espera que sus efectos sean equivalentes, independientemente del estado previo del sistema. Si esta propiedad no se cumple, el sistema es considerado no determinista.

El modelo se amplía con la red-PIE, diferenciando entre el efecto percibido por el usuario (D) y el resultado alcanzado por el sistema (R). Esto permite establecer relaciones entre el estado del sistema y la observación del usuario.

La propiedad de alcanzabilidad garantiza que se puede realizar cualquier tarea en la interfaz de usuario, independientemente del estado. Aunque el modelo es poderoso para hablar de propiedades, es demasiado abstracto para el diseño y desarrollo prácticos de sistemas interactivos, y no es adecuado para describir sistemas asíncronos debido a su carácter determinista.

7.

  1. Estrategia de diseño

Al diseñar la implementación de un sistema interactivo, se deben utilizar los modelos disponibles de las tareas y la arquitectura del sistema como guía. Aunque en algunos casos el proceso puede ser automático, en la mayoría de los casos requerirá un profundo entendimiento de los aspectos críticos del diseño, especialmente aquellos relacionados con el diálogo con la máquina y la presentación de la información. El enfoque se centrará en los mecanismos básicos de interacción, el diálogo con la aplicación y la capa de presentación.

Tareas de interacción

Cuando el usuario interactúa con el ordenador, introduce información con significado para la aplicación. Por lo que, distinguimos los siguientes tipos de tareas:

  • Posicionamiento: implica obtener una posición u orientación, ya sea en 2D o 3D. que se obtienen realizando un movimiento con el cursor en pantalla para introducir un valor o directamente ingresando la coordenada. Algunos aspectos a considerar incluyen:
    • Sistema de coordenadas: el movimiento del objeto puede depender del sistema de coordenadas del objeto, de la pantalla o del mundo, siendo crucial en sistemas de modelado 3D.
    • Resolución: en el caso de movimiento con un dispositivo, las posiciones pueden ser discretas o continuas. La relación Control/Display (C/D) es importante para mecanismos de posicionamiento indirecto.
    • Restricciones: se pueden usar elementos que faciliten el posicionamiento, como la rejilla (grid), que puede ser direccional, modular o gravitacional, ayudando a ajustar puntos a valores específicos.
    • Realimentación: la realimentación puede ser espacial o lingüística, representando el valor numérico en coordenadas cartesianas. También puede estar relacionada con otros elementos en la interfaz.
  • Selección: implica elegir un elemento de entre un conjunto, ya sea:
    • Tamaño fijo (elementos invariables): la selección se organiza mediante listas dinámicas o ventanas que actúan como contenedores, presentando elementos con diversas alternativas de presentación (gráfica, textual, icónica) y modos de ordenación.
    • Tamaño variable (elementos de la aplicación): la representación común es mediante menús, utilizados para la selección de órdenes. Cada orden se presenta como un ítem dentro del menú, y se pueden aplicar diferentes técnicas de estructuración, como jerarquías, separaciones y atajos.

Puede realizarse mediante identificador, introduciendo el nombre del objeto, o apuntando al objeto.

Otras representaciones para la selección pueden ser:

  • Botones (ya sea con representación gráfica icónica o basada en texto):  pueden ser inhabilitados si la orden no está activa en ese momento. También se pueden utilizar listas en diferentes formas, como desplegables o fijas.

Para la selección de valores lógicos, se emplean elementos que representan dos estados posibles como:

  • Casillas de verificación:  indican un valor lógico (pulsada equivale a verdadero/sí) y pueden ser parte de conjuntos de opciones mutuamente excluyentes, diferenciadas gráficamente por una representación circular o cuadrada.
  • Introducción del texto: implica introducir información en forma de texto. Además del teclado, existen alternativas como reconocedores de caracteres (OCR) y de gestos. Un aspecto importante es la resolución del texto en pantalla, medida en puntos o píxeles, con tamaños y tipos de letra legibles y proporcionales a la resolución del usuario. El texto puede tener longitud variable y ocupar múltiples líneas, por lo que se consideran dos tipos de presentación: entrada de tamaño fijo con posible control del formato y área de texto con el uso de deslizadores.
  • Introducción de valor: implica la introducción de un dato cuantificable, que puede ser:

Numérico:la forma común de introducción es mediante el teclado numérico. Sin embargo, también se utilizan representaciones gráficas como diales o deslizadores que permiten una introducción más intuitiva a través del ratón.

  • Porcentual: como indicadores de progreso, también se pueden utilizar representaciones gráficas. Sin embargo, en este contexto, dichas representaciones son informativas y no se manipulan directamente por el usuario.
  • Arrastre: implica la ejecución de una secuencia de posiciones entre una posición inicial y otra final. Este proceso se utiliza comúnmente para describir manipulaciones explícitas de objetos gráficos. El arrastre ha sido implementado en sistemas de escritorio mediante la técnica conocida como “drag and drop”, siendo también utilizado en operaciones de diseño gráfico.

Durante esta tarea, es crucial proporcionar una realimentación continua del objeto desplazado. Este tipo de interacción permite al usuario realizar acciones intuitivas de manipulación directa sobre elementos visuales en la interfaz del sistema.

Gestión de entradas del usuario

Se puede llevar a cabo mediante técnicas de interacción entre la aplicación y el dispositivo. La interacción puede adoptar diferentes modos. Los eventos son el principal mecanismo de comunicación entre el usuario y el sistema interactivo. Cuando el usuario interactúa con los dispositivos, estas acciones se traducen en eventos de software que se distribuyen a la ventana correspondiente en un sistema de ventanas.Existen tres mecanismos de comunicación entre el usuario y la aplicación:

  • Petición (request): El programa espera hasta que se produce una entrada. Los dispositivos están en espera, y es un diálogo dirigido por la aplicación.
  • Muestreo (sample): Ambos trabajan concurrentemente, con la consulta del estado del dispositivo al realizar una petición. Los datos no se almacenan, y se consulta el estado actual.
  • Evento (event): Se provee una cola de sucesos por parte del dispositivo. La aplicación está dirigida por los datos y permite entradas asíncronas.

Los sistemas interactivos son programas dirigidos por eventos, la estructura difiere de las aplicaciones tradicionales de procesamiento y cálculo. El cuerpo principal del programa suele ser un ciclo que obtiene eventos continuamente. Se utiliza una cola de eventos para distribuir los eventos a los objetos, y existen mecanismos de filtrado para eliminar eventos no significativos. Algunos tipos de eventos incluyen:

  • Eventos de entrada generados por el usuario, como eventos del ratón y del teclado
  • Eventos de las ventanas, que provienen de la propia ventana y pueden incluir acciones como crear/destruir, abrir/cerrar, iconificar/deiconificar, redimensionar, mover, etc.
  • Eventos definidos por el usuario, que son eventos de alto nivel creados por el software.

Comunicación entre objetos

La gestión de eventos en sistemas interactivos implica la comunicación entre diferentes objetos interactivos. Existen tres modelos básicos para la comunicación de eventos en sistemas de ventanas no orientados a objetos:

  • Modelo de llamadas (callbacks): permite asociar un procedimiento a un widget en tiempo de ejecución. Un callback es un procedimiento que se ejecuta inmediatamente después de que se produce el evento
  • Modelo de notificación: cada componente interactivo notifica a su ventana padre sobre la ocurrencia de un evento significativo. Este modelo se emplea en las primeras versiones de MS Windows. Proporciona un mecanismo más estructurado, donde los componentes notifican a la ventana de nivel superior sobre el evento sucedido, y la ventana padre decide cómo manejar los eventos.
  • Modelo de conexión o delegación: permite que un objeto se comunique con cualquier otro objeto mediante el registro de objetos receptores para un evento específico. Los objetos pueden comunicarse directamente entre ellos.

La organización de la información en el nivel de presentación afecta la impresión general del interfaz e incluye elementos como diseño, representación de la información, realimentación y comunicación con el usuario. En el diseño, se debe mostrar la información de manera comprensible y asimilable, evitando el exceso o la falta de información. La distribución de la información es crucial, y se pueden utilizar diferentes tipos de diseño, como el uso de zonas fijas o dinámicas. La representación de objetos debe ser identificable, económica en recursos y consistente.

Diseño de la presentación

El diseño visual en interfaces gráficas se beneficia de la claridad visual para que el observador perciba fácilmente el significado de una imagen. La aplicación de reglas de Gestalt es una estrategia efectiva para mejorar la organización lógica de la información, que se basan en cómo el observador organiza estímulos visuales y se resumen en los siguientes principios:

  • Similitud: los objetos similares próximos se interpretan como una representación conjunta o agrupada.
  • Proximidad: los elementos visuales con propiedades comunes se interpretan como agrupados.
  • Cierre (Clausura): los elementos visuales que tienden a cerrar un área se interpretan como cerrados.
  • Continuidad: discriminación de elementos diferentes según la continuidad natural.

Estas reglas se aplican al diseño visual de sistemas gráficos, ya que la claridad visual impacta en la impresión general de la interfaz, fortaleciendo las relaciones lógicas entre elementos y minimizando el movimiento ocular para obtener información.

Al organizar la pantalla de la interfaz, se pueden seguir reglas efectivas de diseño:

  • Balanceado: es el ajuste de la visión con el área de visualización para lograr equilibrio entre los ejes horizontal y vertical.
  • Simetría: duplicación de la imagen visual a lo largo de un eje de simetría para asegurar automáticamente el balance.
  • Regularidad: establecimiento de uniformidad colocando elementos de acuerdo con una distribución regular en filas y columnas.
  • Alineamiento: minimización de puntos de alineación existentes en el diseño.
  • Enrejillado: separación y acentuación de la organización entre áreas.

Para lograr estas distribuciones en la pantalla, se utilizan controladores geométricos (layout managers) disponibles en las librerías de diseño de interfaces. Estos pueden ir desde los más simples hasta los más complejos.

Realimentación

Es crucial en los sistemas interactivos para informar al usuario sobre las acciones que realiza, ya que es esencial proporcionar mensajes o indicadores que mantengan al usuario informado, especialmente cuando una tarea lleva más tiempo del esperado. Debe gestionarse de manera rápida para que coincida con las acciones del usuario. Algunos ejemplos de realimentación incluyen mostrar efectos, errores, confirmaciones y resaltar de manera clara la orden activa en la selección.

Para diseñar la realimentación de manera efectiva, se debe fomentar la consistencia y, en algunos casos, ajustar la estructura de datos del modelo para almacenar información adicional necesaria para el feedback. Puede utilizar diversos canales sensoriales.

En cuanto a la dimensión temporal, se puede clasificar en:

  • Futura: informa sobre una acción antes de llevarse a cabo, indicando qué sucederá al realizarla.
  • Presente: proporciona realimentación durante la interacción, indicando lo que está ocurriendo en ese momento.
  • Pasada: ofrece información sobre lo que ha sucedido y cómo ha cambiado el sistema.

Gestión de errores

Es crítica desde la perspectiva del usuario, y estos errores suelen originarse por desconocimiento del usuario, causado por diversas causas:

  • Errores por acciones del usuario: ocurren debido a la falta de concordancia entre la intención del usuario y la acción realizada, donde la intención es correcta pero la ejecución es incorrecta. La solución implica mejorar el diseño ergonómico y aspectos físicos.
  • Errores por las intenciones del usuario: surgen cuando el usuario realiza una acción equivocada debido a un modelo mental incorrecto. La solución radica en mejorar el modelo mental del usuario, identificando y corrigiendo posibles causas de malentendidos.

Cuando se presenta un error, es crucial que el usuario comprenda lo sucedido para evitar confusiones. Se deben evitar ciertas técnicas en los mensajes de error.

Título: La iteración persona-ordenador

Página 202-232

Resumen

Capítulo 4: Evaluación

La evaluación y el prototipado es muy importante a lo largo del proceso de diseño de sistemas centrados en el usuario. Cuando dejamos la validación del diseño para el final impide conocer si un sistema cumple las expectativas del usuario y se adapta a sus necesidades.

La evaluación se considera un proceso fundamental en el diseño de los sistemas interactivos y se realiza a través de distintos métodos.

En este capítulo hablaremos de la clasificación y descripción de los métodos, indicando su utilidad en el ciclo de vida del diseño y su costo asociado a la implementación

1. El diseño centrado en el usuario

El diseño de sistemas interactivos requiere tener un enfoque centrado en el usuario, involucrando a los usuarios todo lo posible, incluso para tenerlo en el equipo de diseño.

Comienza observando las prácticas habituales y comportamientos para así modelarlos mediante escenarios, prototipos o maquetas. Esto permite evaluar el diseño a lo largo del ciclo de vida, que puede seguir dos tipos de modelo: modelo de proceso o ciclo iterativo. En el modelo de ciclo de vida presentado, la evaluación está presente en todas las etapas, ya sea inicialmente para evaluar al usuario y el entorno de trabajo, o al después cuando se realizan prototipos que cuestionan la usabilidad. Otra opción es evaluar el diseño.

2. La usabilidad

Tiene por definición la medida en que un producto pueda ser utilizado por ciertos usuarios para lograr unos objetivos específicos que tengan las siguientes características:

  • Efectividad: relacionada con la precisión y plenitud en la secuencia de objetivos, además se vincula con la facilidad de aprendizaje, la tasa de errores y la capacidad de recordar el sistema.
  • Eficiencia: se refiere a los recursos empleados para la secuencia de objetivos.
  • Satisfacción: implica la ausencia de incomodidad y una actitud positiva en el uso del producto, siendo un factor totalmente subjetivo.

Se basa en la rapidez y facilidad con la que las personas realizan tareas a través del producto. Tiene especial importancia el centrarse en los usuarios, entender el contexto de su uso, satisfacer las necesidades del usuario, y sobretodo reconocer que son los usuarios quienes determinan la facilidad del producto.

La relación entre usabilidad, productividad y calidad tiene más importancia, considerando que el hardware y software son herramientas que facilitan a las personas realizar tareas y disfrutar del tiempo libre.

¿Por qué es importante la usabilidad?

El establecer los principios de diseño en ingeniería basada en usabilidad tiene las siguientes consecuencias:

  • Reducción de los costes de producción: evitar el sobre diseño y así disminuir la necesidad de cambios a largo plazo.
  • Reducción de los costes de mantenimiento y apoyo: los sistemas deben ser fáciles de usar para así requerir menos entrenamiento para el usuario y su mantenimiento.
  • Reducción de los costes de uso: los sistemas deben adaptarse a las necesidades del usuario para así mejorar la productividad y la calidad de acciones y decisiones. La facilidad de uso reduce el esfuerzo y permite a los usuarios manejar distintas tareas, mientras que si los sistemas son difíciles pueden afectar a la salud, motivación y bienestar, contribuyendo al absentismo y generar pérdidas de tiempo de uso
  • Mejora en la calidad del producto: el diseño centrado en el usuario resulta en las aplicaciones de mayor calidad de uso, haciéndolas más competitivas en un mercado que quiere productos que sean fáciles de usar.

¿En qué momento se ha de considerar la usabilidad?

La usabilidad debe ser considerada durante todo el proceso de desarrollo, es decir, desde el inicio hasta el lanzamiento del producto. Antes de empezar el producto, es necesario comprender las características del usuario y los puntos fundamentales; ahorrando así tiempo y dinero.

Las pruebas de usabilidad deben llevarse a cabo durante todo el desarrollo del producto para así aseguraros que cumplan los requisitos del usuario. Incluso, después del lanzamiento es importante recopilar las reseñas de los usuarios para así ir adaptando continuamente el producto a sus necesidades y actitudes. Así también mejoramos la eficiencia de desarrollo y la satisfacción del usuario.

3. Prototipado

En el modelo de proceso centrado en el usuario, es necesario evitar una implementación del sistema a gran escala basándose solo en el diseño de la interfaz de usuario. Por lo que se plantea en la utilización de prototipos en las etapas iniciales, ya que se pueden desarrollar de manera rápida, con menor costo y realizar cambios con más flexibilidad.

Los prototipos son representaciones, diseños o sistemas que simulan o incluyen parte del producto final. Esto facilita la participación del usuario en el desarrollo y permite evaluar el producto en las fases iniciales, como se explica e el Modelo del Ciclo de Vida basado en prototipos.

Dimensiones del prototipado

La razón principal de su uso es la reducción de costes y tiempo que supone para su implementación en el futuro, esto se puede conseguir reduciendo el número de características o el nivel de implementación de funcionalidades de las características, existen dos dimensiones:

  • Prototipado vertical: su resultado es un sistema que tiene implementadas pocas características, pero tiene todas las funcionalidades necesarias. Puede ser probado por una parte limitada del sistema, pero también bajo circunstancias reales.
  • Prototipado horizontal: incluye toda la interfaz de todas las características del sistema, pero no tiene funcionalidad subyacente; siendo una simulación de la interfaz donde no se puede realizar ningún trabajo real.

Tipos de prototipos

Distinguimos:

  • Prototipo de papel: es una técnica que utiliza recursos simples como papel, tijeras y lápices para realizar el diseño. Esto ofrece rapidez y flexibilidad en el proceso de prototipado. Para crearlo, se generan hojas para diferentes escenarios que representan posibles interacciones con el sistema, luego se juntan para simular la aplicación.

El diseñador actúa como coordinador en un escenario de uso futuro, mientras que un usuario realiza tareas interactuando con el papel. Los cambios se realizan de manera rápida y flexible. Sus ventajas mas importantes son:

  • Bajos costos
    • Cambios rápidos sobre la marcha
    • Capacidad para recibir críticas de los usuarios
  • Storyboard: es una representación gráfica secuencial de una historia. Se aplica al diseño de escenarios de interacción para su evaluación mediante distintas técnicas. Para aplicaciones, puede incluir enlaces a diferentes páginas, permitiendo indicar los resultados de las interacciones del usuario, facilitando la comprensión y evaluación de la interacción en un formato secuencial y narrativo.
  • Escenario: los ordenadores no solo proporcionan funcionalidades, sino que reestructuran las actividades humanas, generando nuevas posibilidades y desafíos. En el contexto donde los humanos actúan, se imponen restricciones para el desarrollo de sistemas de información. Para analizar y diseñar software, se necesita una forma de comprender cómo estos sistemas pueden transformar y estar limitados por los contextos humanos. Una aproximación es la creación y documentación de actividades típicas y significativas, llamadas escenarios, para las etapas iniciales como a lo largo del proceso de desarrollo.
    Estos son narrativas sobre personas y sus actividades. Describen lo que las personas quieren lograr con el sistema, qué procedimientos utilizan y cómo interpretan lo que sucede. Incluye elementos como la configuración, agentes o actores y objetivos. Se representan mediante diagramas que incluyen secuencias de acciones y eventos, mostrando las acciones de los actores, sucesos, cambios en la configuración, etc.

Herramientas de diagramación

Podemos distinguir:

  • Narrativa: la historia completa de la interacción hecha con la existente o con un diseño nuevo.
  • Flowchart: es una representación gráfica de las acciones y decisiones que han sido extraída de la narrativa
  • Texto procedural: es una descripción paso a paso de las acciones del usuario y las respuestas del sistema.

Vídeo

Permite la grabación de escenarios en el cual se pueden realizar manipulaciones durante el postproceso para simular características de diseño que todavia no estan disponibles. Son útiles para el diseño de interfaces multimodales o diseño de escenarios futuros.

  • Simulaciones: es fundamental para demostrar la tarea que la aplicación debe llevar a cabo. Todos los prototipos mencionados anteriormente no cumplen este propósito, por lo que el equipo de diseño debe simular parte o toda la funcionalidad del sistema. La introducción de un soporte de programación permite a los diseñadores construir objetos interactivos que imiten el comportamiento de las funciones del sistema. Una vez completada la simulación, se puede evaluar y ajustar según los resultados obtenidos en la evaluación.
  • Prototipos de software: se pueden realizar diferentes prototipos utilizando las herramientas de desarrollo, algunos de ellos son:
    • Maqueta para tirar: parecida al prototipo de papel.
    • Incremental: el producto final se construye con componentes separados, se va probando uno a uno y finalmente se realiza una prueba final.
    • Evolutivo: el prototipo no es eliminado y se utiliza como base para una próxima iteración en el diseño.
  • Problemas potenciales: Sommervlle plantea problemas asociados al uso de prototipos, estos son:
    • Consumo de tiempo
    • Experiencia del gestor del proyecto
    • Características no funcionales
    • Contrato cliente-diseñador

4. ¿Qué es la evaluación?

El desarrollo de sistemas interactivos requiere ciclos de vida iterativos para lograr la usabilidad, siendo un objetivo fundamental en las aplicaciones interactivas. Casi siempre se da más importancia a la funcionalidad sobre la usabilidad en el diseño de productos, pero hay que tener muy en cuenta que la aplicación de métodos de evaluación de usabilidad es fundamental para garantizar la usabilidad de una aplicación interactiva. La evaluación implica analizar el entorno y el usuario, probar prototipos con usuarios que hayan sido seleccionados y así poder obtener realimentación de expertos. Con todo esto se integra la usabilidad e el ciclo de vida, permitiendo un diseño centrado en el usuario.

La evaluación de la usabilidad utiliza distintas metodologías y técnicas diferentes en el ciclo de vida. El diseño y desarrollo de sistemas interactivos centrados en el usuario, con evaluación de usabilidad, resulta en productos más satisfactorios para los usuarios y así reducir los costes de mantenimiento. Además, cuando se realizan evaluaciones dese el inicio se reduce el coste de rediseño y se mejora la reputación de los desarrolladores. Cabe destacar que facilita la consideración de aspectos culturales, contribuyendo a una mejor introducción del producto en el mercado.

5. Métodos de evaluación

Los tres principales métodos son los siguientes:

  • Inspección: es un término genérico que engloba un conjunto de métodos en los cuales los evaluadores examinan aspectos relacionados con la usabilidad de la interfaz. Los métodos más destacados incluyen:

Evaluación heurística: desarrollada por Nielsen y Molich, implica analizar la conformidad de la interfaz con principios reconocidos de usabilidad a través de la inspección realizada por evaluadores expertos. Se recomienda emplear de tres a cinco evaluadores, cada uno realiza una revisión independiente de la interfaz, y cuando se finaliza las evaluaciones se reúnen para comunicar y sintetizar los resultados, asegurando evaluaciones imparciales, se puede registrar como informes escritos individuales ofreciendo un registro formal de la evaluación o de forma verbal.

10 Reglas Heurísticas de Usabilidad

Es un conjunto revisado a partir del análisis de 249 problemas de usabilidad, estas son:

  1. Visibilidad del estado del sistema: se debe mantener a los usuarios informados del estado del sistema con realimentación apropiada en un tiempo razonable.
  2. Utilizar el lenguaje de los usuarios: hablar con el lenguaje de los usuarios con palabras, frases y conceptos familiares.
  3. Control y libertad para el usuario: proporcionar salidas de emergencia claras y opciones de deshacer y rehacer.
  4. Consistencia y estándares: seguir normas y convenciones para evitar la confusión en el significado de las palabras, situaciones o acciones
  5. Prevención de errores:
  6. Minimizar la carga de la memoria del usuario: evitar que el usuario tenga que recordar información y mantener objetos, acciones y opciones visibles.
  7. Flexibilidad y eficiencia de uso: proporcionando instrucciones visibles, accesibles y permitir la personalización de acciones frecuentes.
  8. Los diálogos estéticos y diseño minimalista: evitar información inaplicable o innecesaria
  9. Ayudar a los usuarios a reconocer, diagnosticar y recuperarse de errores: utilizando mensajes de errores que sean claros, evitando códigos extraños, que indiquen el problema y ofrecer soluciones.
  10. Ayuda y documentación: proporcionar ayuda y documentación que sea fácil de buscar, centrada en el usuario, con información de las etapas que se realizan y que no sea muy extensa.

Suele durar de 1 a 2 horas, y resulta en una lista de problemas de usabilidad identificados por los evaluadores del diseño

  • Recorrido de la usabilidad plural: es el método de evaluación diseñado por Bias, el cual comparte similitudes con los recorridos tradicionales y presenta las siguientes características:
    • Participantes: se distinguen tres tipos de participantes, estos son:
      • Usuarios representativos
      • Desarrolladores
      • Expertos en usabilidad
    • Prototipos y escenarios: utiliza los prototipos a papel u otros materiales en los escenarios.
    • Rol de usuario: todos los participantes asumen el papel de los usuarios
    • Acciones escritas: los participantes escriben en cada panel el prototipo las acciones que tienen para realizar cada tarea, proporcionando respuestas detalladas.
    • Debate: después de que todos los participantes han escrito sus acciones, se inicia un debate
  • Recorridos cognitivos: es un método de inspección de usabilidad que se centra en evaluar la facilidad del aprendizaje de un diseño, especialmente a través de la exploración. Comparte la misma base que otros recorridos de diseño. Consiste en una revisión donde el autor presenta un diseño a un grupo de pares, quienes evalúan la solución según criterios relevantes para las opciones de diseño.

Los revisores evalúan la propuesta de la interfaz dentro de una o más tareas específicas. La sesión de recorrido incluye un diseño detallado de la interfaz, un escenario de tarea, suposiciones explicitas sobre la población de usuarios y el contexto de uso, así como una secuencia de acciones que el usuario debe realizar para completar la tarea asignada. Para cada acción el analista explica la interacción que un usuario realiza con la interfaz, qué intenta hacer y que acciones están disponibles. La interfaz debe proporcionar una retroalimentación indicando el progreso hacia la finalización de tareas si el diseño es efectivo.

Ámbito y limitaciones del método

El recorrido cognitivo se enfoca en evaluar la facilidad de aprendizaje de una interfaz, siendo lo más importante el aprendizaje por exploración para adquirir habilidades. Esa técnica es importante para la etapa de diseño, aunque se puede aplicar durante la fase de codificación, prueba y distribución.

Definición de la entrada del recorrido      

Antes de iniciar el análisis del recorrido cognitivo, es crucial llegar a un acuerdo considerando cuatro puntos clave:

  • Usuarios del sistema: debemos definir quienes serán los usuarios del sistema considerando su experiencia y conocimiento técnico relacionado con la tarea e interfaz.
  • Tarea(s) a realizar: debe basarse en estudios de marketing, análisis de necesidades, pruebas conceptuales y requisitos. Estas deben ser concretas, realistas y representativas de las condiciones de uso del sistema.
  • Secuencia correcta de acciones: para cada tarea, es necesario describir la secuencia de acciones esperadas antes de que el usuario aprenda la interfaz
  • Definición de la interfaz: debe incluir pautas que precedan cada acción necesaria para completar las tareas. Si la interfaz, ya esta implementada, se puede acceder a esa información. Antes de la implementación, la evaluación puede realizarse con una descripción en papel de la interfaz, adaptándose al nivel de detalle necesario dependiendo de la experiencia previa de los usuarios con sistemas parecidos.

Recorriendo las acciones

La dase de análisis del recorrido cognitivo implica examinar cada acción en el camino a la solución y construir historias sobre porque los usuarios eligen esas acciones. Durante el recorrido, se centran en cuatro preguntas claves:

  • ¿Los usuarios intentarán alcanzar el objetivo correctamente?
    • ¿El usuario se dará cuenta de que está disponible la acción correcta?: relacionado con la visibilidad y comprensibilidad de las acciones en la interfaz.
  • ¿El usuario asociará la acción correcta al efecto que se alcanzará?: se evalúa si los usuarios utilizarán estrategias como el seguimiento de etiquetas para seleccionar una acción basándose en que coincida con el texto de la etiqueta con la descripción del tema.
  • ¿El usuario verá que se está progresando hacia la solución de la tarea si se realiza la acción correcta?: se examina la retroalimentación del sistema después de que el usuario ha realizado la acción

Las características comunes de éxito

Los usuarios pueden saber que efecto alcanzar a través de la tarea original, la experiencia previa del sistema o las indicaciones proporcionadas por el sistema. También, pueden reconocer que una acción está disponible basándose en la experiencia, la presencia de dispositivos visuales o representaciones visuales de acciones. La percepción de que una acción es apropiada puede depender de la experiencia del usuario, las guías o la aparente coherencia con otras acciones.

Después de realizar una acción, los usuarios pueden saber si ha existido éxito mediante la experiencia previa o al reconocer la conexión entre la respuesta del sistema y la tarea que se estaba realizando. 

  • Inspección de estándares: se realiza por un experto en un estándar que puede ser de facto o de jure; realizando una inspección minuciosa para comprobar que cumple en todo momento y globalmente los puntos definidos en el estándar.
  • Indagación: la obtención de información sobre los gustos, disgustos, necesidades y requisitos del usuario es importante para el desarrollo del producto. Por lo que es necesario, descubrir y aprender.

Este tipo de método, se interactúa con los usuarios hablando con ellos, observándolos y utilizando el sistema en situaciones de trabajo real o recopilando respuestas a preguntas de forma verbal o escrita. Algunos métodos son:

  • Observación del campo: también conocida como observación etnográfica, implica visitar lugares de trabajo donde se realizan actividades similares al sistema de estudio. Puede emplearse en las etapas de prueba y despliegue del desarrollo del producto. El procedimiento incluye:
    • Preparación de visitas: se selecciona una variedad de usuarios y se programan visitas. Se elabora una lista de preguntas y datos a recoger.
    • Observación y entrevistas: se utiliza de forma efectiva el tiempo de observación y la entrevista. Se identifican los artefactos y afloramientos en el entorno de trabajo.
    • Identificación de artefactos y afloramientos: los artefactos son objetos físicos en uso, mientras que los afloramientos son rasgos físicamente identificables en el entorno.
    • Como identificar artefactos y datos de afloramiento: se identifica durante la observación/entrevista. Se colecciona y marcan, tomamos fotos, grabamos archivos y preguntamos por ubicaciones o esquemas 
    • Representación de datos: se muestran físicamente el artefacto y su afloramiento. Se presentan fotos, diagramas, dibujos antes y después de su uso, instancias repetidas y relaciones de grupo.
    • Relaciones de grupos y modelo de comunicación: se identifican procesos y flujos de información a través de relaciones de grupo. Se utilizan modelos de comunicación para comprender quien habla, con quien y con qué frecuencia.
    • Preguntas Clave: se evalúan las acciones observadas si funcionan y por qué. También consideramos si las acciones son diferentes de otras formas y se buscan razones
    • Momento adecuado para usar la técnica: es ideal en las etapas iniciales del desarrollo para recoger los requisitos y opciones de diseño. Además, es útil en el despliegue como una etapa inicial de un diseño nuevo.
    • Grupos de discusión dirigidos (Focus group): es una técnica de recolección de datos que implica reunir de 6 a 9 usuarios para discutir aspectos relacionados con el sistema. Un ingeniero de factores humanos actúa como moderador y guía la discusión, capturando las reacciones espontáneas y la evolución de ideas durante el proceso dinámico del grupo.

El procedimiento incluye localizar a usuarios representativos, seleccionar a un moderador, preparar una lista de temas, controlar la discusión y resumir los opiniones y comentarios críticos. Es recomendable tener más de un grupo. Los datos recopilados tienen una validez baja y no pueden ser difíciles de analizar debido a su naturaleza no estructurada. Esta técnica suele ocurrir en la etapa de prueba y despliegue del sistema.

  • Entrevistas: es una forma directa y estructurada de recuperar información. Son efectivas para evaluaciones de alto nivel, especialmente para obtener información sobre preferencias, impresiones y actitudes del usuario. También, pueden revelar problemas no anticipados en el diseño. Para maximizar la efectividad, es fundamental la preparación con un conjunto de preguntas básicas.
  • Grabación del uso (Logging): implica la recopilación automática de estadísticas detalladas sobre el uso del sistema, siendo útil para entender cómo los usuarios interactúan con el sistema en situaciones reales. Se recopila información sobre la frecuencia de uso de características y eventos. Este enfoque se puede aplicar en las etapas de prueba o despliegue. El registro se realiza modificando drivers del sistema o la aplicación. Si los datos están en una unidad central, se pueden recoger copiando los archivos de registro de usuarios. Si no, se puede recopilar mediante correo electrónico o programas ejecutados por usuarios.
  • Estudio del campo proactivo: antes de diseñar un sistema, los ingenieros en factores humanos realizan un estudio para comprender a los usuarios, sus tareas y su entorno de trabajo. Este enfoque debe ser la primera etapa del trabajo en un proyecto. El procedimiento implica:
    • Selección de usuarios representativos: se identifica a un grupo de usuarios para participar
    • Reuniones y visitas al entorno de trabajo: se programan reuniones con los ingenieros de usabilidad. Además, se hacen visitas al entorno de trabajo de los usuarios para observar, hablar y hacer preguntas.
    • Análisis de las características individuales del usuario: se evalúan aspectos como experiencia laboral, nivel educativo, edad y experiencia. Asimismo, se identifican las características que puedan afectar el uso del sistema y abordarlas durante el estudio de campo.
    • Análisis de tareas: se identifican los objetivos globales del usuario y su enfoque actual. Además, se analiza el modelo del usuario de la tarea, necesidades de información y manejo de circunstancias excepcionales. El resultado suele ser una lista de acciones que los usuarios quieren realizar, información necesaria, etapas, interdependencias, resultados e informes.
    • Análisis funcional: se enfocan en los objetivos que los usuarios quieren lograr sin destacar necesariamente cómo lo hacen. Se coordina análisis funcional con el análisis de tareas
    • Evaluación del usuario: se estudia cómo el uso del sistema cambia a los usuarios con el tiempo. También, se identifican cambios anteriores.
  • Cuestionarios: es menos flexible que la entrevista, pero puede alcanzar un grupo más extenso y se puede analizar con mayor rigor. Puede usarse en distintas etapas del proceso de diseño. Puede incluir tipos de preguntas como:
    • Generales:  para establecer el perfil del usuario, incluyendo edad, sexo, ocupación, lugar de residencia, etc.
    • Abiertas: guardan información general de manera subjetiva, ofreciendo sugerencias e identificando errores no anticipados.
    • Escala: permite al usuario expresar opiniones en una escala numérica.
    • Opción múltiple
    • Sí/No
    • Ordenadas: presentan distintas opciones que el usuario debe clasificar en un orden especifico.
    • Ordena la utilidad de cómo ejecutar una acción
  • Test: los usuarios trabajan en tareas utilizando el sistema o prototipo y los evaluadores utilizan los resultados para ver como la interfaz soporta a los usuarios con sus tareas. Los tipos de métodos son los siguientes:
    • Medida de prestaciones: el test de medida de prestaciones en usabilidad comparte las siguientes características:
      • Objetivo de Mejorar la Usabilidad: el principal objetivo es mejorar la usabilidad del producto y del proceso de diseño y desarrollo.
    • Participantes Representan Usuarios Reales: los participantes deben pertenecer al grupo de personas que actualmente o en el futuro utilizarán el producto.
    • Realización de Tareas Reales: los participantes deben realizar tareas auténticas que reflejen las actividades que realizarán con el producto en su entorno laboral o doméstico.
    • Observación y Registro de Actividades: se observa y registra lo que los participantes hacen y dicen durante el test.
    • Análisis de Datos y Recomendaciones: después del test, se analizan los datos, se diagnostican problemas reales y se hacen recomendaciones para abordar esos problemas.

Selección de Tareas: podemos distinguir:

  • Tareas que revelen problemas de usabilidad.
  • Tareas sugeridas por la experiencia.
  • Tareas derivadas de otros criterios.
  • Tareas habituales de los usuarios.

Cómo Medir la Usabilidad: podemos distinguir:

  • Medidas de Rendimiento:
    • Tiempo para completar tareas.
    • Número de errores.
    • Tiempo en menús de navegación, ayuda en línea, etc.
    • Observaciones de frustración, confusión y satisfacción.
  • Medidas Subjetivas:
    • Facilidad de uso, aprendizaje, realización de tareas, instalación, etc.
    • Preferencias o razones de preferencia.
    • Predicciones de comportamiento.
    • Comentarios espontáneos.

Resultados del Test:

  • Lista de problemas identificados.
  • Datos cuantitativos de rendimiento.
  • Datos cuantitativos de valoraciones subjetivas.
  • Comentarios de participantes.
  • Notas del equipo de test.
  • Datos generales de los participantes.
  • Grabaciones de vídeo.
  • Test remoto
  • Pensando en voz alta (Thinking Aloud): implica que los usuarios expresen en voz alta sus pensamientos, sentimientos y opiniones mientras interactúan con el sistema. Este método es útil para capturar una amplia gama de actividades cognitivas.

Procedimiento

  • Proporcionar a los usuarios el producto o un prototipo de la interfaz que deben probar.
  • Darles un conjunto de tareas específicas para realizar.
  • Instruir a los usuarios para que realicen las tareas y expresen en voz alta sus pensamientos mientras trabajan con la interfaz.
  • “Pensar en voz alta” permite a los evaluadores comprender cómo se acercan los usuarios a la interfaz y qué consideraciones tienen en mente durante su uso. Así se facilita la identificación de discrepancias entre la secuencia de etapas sugerida por el producto y las expectativas del usuario. Además, proporciona insights sobre la terminología que los usuarios utilizan para expresar ideas o funciones, lo cual puede ser valioso para el diseño del producto o la documentación.
  • Interacción constructiva: implica que dos usuarios realicen una prueba del sistema juntos. También conocido como “aprendizaje por codescubrimiento”, se basa en que la situación de prueba es más natural cuando las personas verbalizan y resuelven problemas juntas. La ventaja principal radica en la naturalidad de la interacción. Sin embargo, una desventaja es que los usuarios pueden tener estrategias de aprendizaje diferentes. Es importante destacar que este método requiere el doble de usuarios en comparación con el método de “pensar en voz alta” individual.
  • Test retrospectivo: cuando se realiza una grabación en vídeo de una sesión de prueba de usabilidad puede proporcionar información adicional al permitir que el usuario comente sobre su experiencia. Durante la revisión, los comentarios del usuario tienden a ser más extensos que durante la tarea de prueba. Así se ofrece la oportunidad al experimentador de detener el vídeo y realizar preguntas más detalladas. Sin embargo, un aspecto negativo evidente es que este enfoque requiere al menos el doble de tiempo.
  • Método del conductor: implica entre el usuario y el experimentador, que es diferente a otros métodos de prueba de usabilidad. Aquí el experimentador guía al usuario mientras utiliza el sistema. Durante la prueba, el usuario puede hacer preguntas del sistema, y el experimentador le responde. En una variante, el experimentador es un usuario experto. Este método se centra en usuarios inexpertos, con el objetivo de descubrir sus necesidades de información. La información recopilada se utiliza para mejorar el entrenamiento, la documentación y, a veces, para rediseñar la interfaz, reduciendo la necesidad de preguntas.

6. Métodos de evaluación del ciclo de vida

A continuación, vamos a adjuntar una tabla donde se enumeran los diferentes métodos de evaluación con las fases del proceso que se aplican:

7. Coste de la usabilidad

El coste es un factor bastante importante para la toma de decisiones sobre la aplicación de distintos métodos de evaluación de la usabilidad. Para determinar el costo, se consideran los siguientes criterios:

  • Personal necesario, número de usuarios, expertos en usabilidad y desarrolladores de software
  • Tiempo necesario para el análisis y recogida de datos.
  • Necesidad de coordinación, siempre y cuando los participantes estén presentes simultáneamente.

La clasificación de métodos según su coste resulta:

  • Bajo: distinguimos:
    • Evaluación heurística
  • Medio: distinguimos:
    • Recorrido Cognitivo
    • Inspección por características
    • Observación del campo
    • Entrevistas
    • Grabación de uso
    • Estudio de campo proactivo
    • Cuestionarios
    • Lista de chequeo basado en escenarios
  • Alto: distinguimos:
    • Focus group
    • Medida de prestaciones
    • Protocolo de pensar en voz alta

8. Laboratorio de usabilidad

Son espacios diseñados para llevar a cabo pruebas de usabilidad. Normalmente, consta de dos salas separadas por un cristal, estas son:

  • Sala de observación: a veces, en esta se incluye una sala adicional para observadores adicionales para así poder discutir sin distraer a los especialistas en la sala principal
  • Sala de pruebas

Estan equipadas con cámara de video controladas remotamente desde la sala de observación, permitiendo una visión general del test y poder centrarse en los elementos específicos. Las señales de video se mezclan en la sala de observación para así poder grabar una única secuencia de información temporal precisa

Facilita la recopilación de pruebas, y su equipamiento incluye:

  • Cámaras de control remoto
  • Micrófonos inalámbricos
  • Mesa de mezcla digital
  • Escáner de entrada
  • Grabadora VHS

Laboratorio de usabilidad móvil

En los laboratorios de usabilidad permanentes, existe también la opción de utilizar laboratorios móviles para realizar pruebas de manera más fácil y flexible y en distintos entornos.

Estos pueden ser compactos y constar de elementos básicos como bloc de notas, ordenador portátil, una grabadora de vídeo de calidad y dos micrófonos; ofreciendo flexibilidad para adaptarse a distintos entornos y facilitar la realización de pruebas de usabilidad de manera conveniente y eficiente.

9. Conclusiones

La evaluación es una parte muy importante del ciclo de diseño y tiene que hacerse durante todo el ciclo de vida. El objetivo es probar la funcionalidad y usabilidad del diseño para identificar y rectificar problemas. Puede hacerse en un laboratorio especializado o en el puesto de trabajo, pero es super importante la participación del usuario.

Título: La iteración persona-ordenador

Página 169-201

Resumen

Capítulo 3: Metáforas, estilos y paradigmas

En este capítulo explicaremos la evolución de los sistemas interactivos, escenarios y conceptos que los han caracterizado. Al principio, la interacción hombre-ordenador se basaba en la entrada de texto y visualización de respuestas en pantalla. A medida que las empresas adoptaron esta tecnología, surgieron interacciones con menús y formularios.

Con el auge de los ordenadores personales, la interacción directa a través de interfaces gráficas se volvió común, permitiendo la manipulación visual de objetos en lugar de la entrada de texto. En el futuro, surgirán nuevas formas de interacción como realidad virtual, el uso el lenguaje natural y la migración de la interacción desde las pantallas y teclados hacia entornos de realidad aumentada.

  1. Metáforas

Tradicionalmente, está asociada al uso del lenguaje, ya que es un recurso que permite comunicar conceptos abstractos de manera más accesible utilizando términos familiares y conceptos.

En el diseño de interfaces, desempeñan un papel fundamental para proporcionar un marco conceptual comprensible para los usuarios. No solo mejoran la comprensión de los usuarios, sino que también ayudan a los desarrolladores a crear programas más eficientes para ser utilizados por comunidades de distintos usuarios.

  • Metáforas verbales

En este caso, son elementos fundamentales para el lenguaje y el pensamiento, las cuales están presentes en conversaciones cotidianas y no únicamente limitadas a la poesía como tradicionalmente pensamos. Se utilizan para comunicar conceptos abstractos de manera accesible y familiar.

Como nos enfrentamos a nuevas herramientas tecnológicas como los ordenadores hay que compararlas con algo conocido, estableciendo enlaces metafóricos que forman la base del modelo mental del usuario. Estas comparaciones permiten una comprensión más rápida de la nueva forma de transferir conocimientos de un dominio familiar, aunque existan diferencias como una máquina de escribir y un procesador de texto.

Estas pueden ser una herramienta útil para facilitar el aprendizaje de nuevos sistemas por parte de los usuarios.

  • Metáforas visuales

La empresa Xerox fue la pionera en la comprensión del diseño de interfaces que simulen el entorno físico familiar en lugar de únicamente depender de interfaces verbales. En este caso, desarrollaron la interfaz visual para el sistema Star, la cual está basada en la metáfora de una oficina física, representando los objetos electrónicos como archivadores, carpetas y papel. Por lo que el escritorio se convirtió en una metáfora de la organización global, reflejando una mesa de oficina. Por lo que fue adoptada por Apple en los ordenadores Lisa y Macintosh, extendiéndose luego a sistemas como Windows, Presentation Manager para OS/2 y estaciones de trabajo UNIX con interfaces basadas en X-Windows.

Estas son representaciones pictóricas que permiten al usuario reconocer y comprender la funcionalidad de un sistema. Pueden varias desde pequeñas imágenes en botones hasta pantallas completas en programas.

En este caso, la intuición juega un papel fundamental para la comprensión de metáforas, ya que los usuarios las conectan mentalmente con procesos que ya han sido aprendidos.

Sin embargo, no siempre garantizan la comprensión y dependen de las asociaciones percibidas de manera similar por el diseñador y los usuarios. También, influyen las diferencias culturales que pueden llevar a malentendidos como por ejemplo el uso del buzón de correo que puede que no sea comprensible en todas las culturas.

Metáfora del mundo real

Las personas organizamos la información de manera espacial. Un ejemplo, es cuando recibimos una llamada en el despacho y, mientras hablamos, escribimos el número en un papel y lo colocamos en un lugar específico. Luego, cuando lo necesitamos, recordamos donde lo hemos colocado. Esto demuestra cómo tenemos un mapa espacial en nuestra mente para registrar información en lo que llamamos nuestro mundo.

Metáfora global

Este tipo de metáforas son fundamentales porque proporcionan el marco para todas las demás metáforas de un sistema. Un ejemplo es el escritorio.

  • Metáfora del escritorio

Fue la primera metáfora global y se utiliza en todas las interfaces gráficas. Se diseñó para simular el entorno de una oficina, pero posteriormente se adaptó al concepto de los oficinistas.

En este caso, consiste en crear objetos electrónicos que simulan a los objetos de una oficina como: archivadores, bandejas, carpetas, papel, etc. La pantalla representa la organización global del escritorio de una mesa de oficina, transformando ficheros y carpetas en representaciones pictóricas en lugar de entidades abstractas con nombres arbitrarios.

El funcionamiento de estas metáforas, las carpetas en el mundo virtual so una réplica de las reales, es decir, hay que abrirlas para acceder a documentos, organizarlas jerárquicamente, moverlas a distintas ubicaciones, etc. Aunque algunas propiedades están ausente como el peso y el sonido y otras propiedades “mágicas” como duplicar documentos en varias carpeta de forma simultánea o reproducir conjuntos de carpetas automáticamente.

Esta metáfora es predominante en ordenadores y estaciones de trabajo.

La historia

En los años ’70, en el laboratorio Xerox Park en California, un grupo de investigadores trabajó en el ordenador Xerox Star, que resultó ser caro, complejo y lento, resultando en un fracaso comercial. Tras este fracaso, muchos investigadoresemigraron a empresas como Apple y Microsoft. Aplicaron los conceptos del Xerox Star al ordenador Lisa, que, aunque mejoraba, seguía siendo costoso y lento. Finalmente, en 1984, se lanzó el Macintosh, logrando un éxito excepcional gracias a su facilidad de uso.

Posteriormente, estos conceptos fueron aplicados a los ordenadores personales, como Windows para MSDOS y Presentation Manager para OS/2. También se implementaron en estaciones de trabajo UNIX con sistemas como X-Windows, que utilizan diferentes sistemas de ventanas como Motif o OpenLook.

Opiniones críticas

Consideremos la metáfora de la sobremesa intenta simplificar operaciones de ficheros comunes presentándoles en el lenguaje familiar del mundo basado en papel (documentos de papel como ficheros, carpetas como subdirectorios, papelera para borrar). Aunque la metáfora ha tenido éxito hasta cierto punto (se le tiene que explicar a un nuevo usuario que la sobremesa del ordenador es como una sobremesa real), el modelo basado en papel es una base pobre para organizar información.
Metáforas compuestas

La metáfora de sobremesa se ha fusionado con otras metáforas para facilitar la realización de diversas tareas en el ordenador. Un ejemplo bastante claro es el uso de la barra de desplazamiento.

Desde una perspectiva cognitiva, surge el problema de cómo interpretar las metáforas compuestas. Se ha podido observar que los usuarios desarrollan múltiples modelos mentales de la interfaz, destacando la complejidad y diversidad de las metáforas utilizadas en sistemas informáticos.

  • Metodología de creación de metáforas

Son un aspecto fundamental para el diseño de un sistema interactivo con interfaz visual y tiene que formar parte del diseño, teniendo una relación con el diseño global.

Definición fundamental

Se basa en la recogida de requisitos para poder disponer de los primeros datos y así establecer las primeras metáforas o análisis de tareas para precisar las funciones del sistema.

Identificación de los problemas del usuario

Se hace un estudio de los usuarios para ver en qué tienen problemas y que aspectos de la funcionalidad están implicados. La mejor manera es ver a los usuarios utilizando funcionalidades parecidas y qué problemas tienen. Para eso se le explica qué tienen que hacer y ver si lo están entendiendo, enseñarles el prototipo y observar como lo utilizan.

Generación de la metáfora

Una manera de empezar es hacer un examen de como seria esa tarea en la realidad. Una vez identificados los problemas y las herramientas que se utilizan, ver qué característica les resulta difícil de comprender; siendo estas las candidatas para la creación de metáforas.

Evaluación de la metáfora

Una vez generada la metáfora es el momento de evaluar cual escoger para expresar la nueva funcionalidad. A continuación, explicamos cinco puntos clave a la hora de evaluar la utilidad de la metáfora:

  • Volumen de la estructura: cuanta estructura nos proporciona, ya que una con poca estructura no es muy útil.
  • Aplicabilidad de la estructura: qué parte de la estructura es relevante para el problema. Lo que es importante es lo que no es relevante ya que puede llevar al usuario en dirección incorrecta y caer en falsas expectativas.
  • Representatividad: debe tener representación visual, auditiva y palabras asociadas.
  • Adaptabilidad de la audiencia: los usuarios deben entender la metáfora, porque aunque cumpla los otros requisitos y no lo entiende no nos sirve.
  • Extensibilidad: puede tener otras partes de estructura que puede ser útil para más adelante

Otra versión

Para establecer una metáfora debemos seguir los siguientes pasos:

  • Identificar el tipo de comparación: se debe encontrar la relación entre la información familiar y la nueva
  • Grado de ajuste: estudiar el grado de coincidencia y de diferencias que existen.

El problema surge cuando no existe una relación completa entre la tarea conocida y la nueva.

  • Lenguaje visual para el diseño de metáforas

Pueden conseguir su efectividad a través de la asociación con organizaciones, ya que se pueden asociar estructuras, clases, objetos, atributos a nombres o operaciones, procesos, algoritmos a verbos, etc.

Objetos familiares

Algunas familias de objetos más familiares son:

  • Escritorio: dibujos, ficheros, carpetas, papeles, clips, notas de papel.
  • Documentos: libros, capítulos, marcadores, figuras; periódicos, secciones;

revistas, artículos; cartas; formularios.

  • Fotografía: álbumes, fotos, portafotos.
  • Televisión: programas, canales, redes, anuncios comerciales, guías.
  • Disco compacto, cassette, grabaciones, pistas, jukeboxes.
  • Pila de cartas: cartas, pilas.
  • Juegos: reglas del juego, piezas del juego, tablero de juego.
  • Películas: rollos, bandejas de transparencias, presentaciones, rollos, películas, teatros.
  • Contenedores: estanterías, cajas, compartimentos.
  • Árboles: raíces, tronco, ramas, hojas.
  • Red, diagrama, mapa: nodos, enlaces, hitos, regiones, etiquetas, bases

(fondos), leyenda.

  • Ciudades: regiones, hitos, caminos, casas, habitaciones, ventanas, mesas.

Verbos

Los ejemplos típicos de conceptos de acción y relación con objetos son:

  • Mover: navegar, conducir, volar
  • Localizar: apuntar, tocar, enmarcar elemento(s)
  • Seleccionar: tocar elemento, gravar elemento, poner dedo en elemento y

moverlo.

  • Crear: añadir, copiar
  • Borrar: tirar, destruir, perder, reciclar, borrar
  • Evaluar: Mover botón, desplazar puntero, rodar, girar
  • Vaciar, flujo: agua, electricidad
  • Ejemplos de metáforas
  • Cortar: nos representa su funcionalidad de cortar papeles, etc. Aportando la idea de cortar un trozo de documentos, parte de un dibujo, etc.
  • Papelera: es una herramienta muy habitual, sirve para poner todos los papeles o elementos que no sirven para tirarlo como basura. Haciendo uso del símbolo de reciclaje.
  • Pintar: es una herramienta común y de fácil comprensión. En este caso, se utiliza un bote de pintura para hacer comprender al usuario que lo que hace es llenar de color el interior de un objeto.
  • Portapapeles: es un componente del sistema operativo que nos permite pasar información entre distintas aplicaciones. Es muy fácil de intuir, pero en sí la metáfora es muy simple. En este caso, esta metáfora presenta problemas de cobertura.
  • Correo: es un elemento habitual, y sirve para enviar información a un destinatario. Se utiliza para el correo electrónico.
  • ¿Qué es la interacción?

Interacciones

Son los intercambios que suceden entre la persona y el ordenador.

Interacción multimodal

La mayoría de los sistemas actuales se comunican a través de un teclado, una pantalla y habitualmente un ratón. Estos dispositivos representan canales de comunicación del sistema que corresponden a diferentes canales humanos.

La interacción es multimodal cuando se utilizan varios canales de comunicación de forma simultánea. Un ejemplo, son los sistemas contemporáneos que tienden a incorporar múltiples canales de entrada/salida, así se reconoce que los seres humanos procesan información simultáneamente a través de varios canales.

  • Estilos de Interacción

¿Qué es un estilo de interacción?

Es un término para agrupar las diferentes formas en los que los usuarios pueden comunicarse o interaccionar con el ordenador. Los estilos más predominantes son:

  • Interfaz por línea de órdenes: fue el primer estilo de interacción de uso general y sigue siendo bastante usado. Permite dar instrucciones directas al ordenador a través de teclas de función, caracteres, abreviaciones cortas o palabras.

La ventaja de usar un único carácter o tecla es la ejecución rápida, pero la principal desventaja es la dificultad de recordar, ya que para facilitar la memorización es fundamental nombrar adecuadamente las órdenes.

Este estilo es predominante para usuarios expertos pero no para novatos. La falta de indicación visual de las órdenes dificulta el aprendiza, pudiendo evitarse con órdenes más coherentes, aunque los estándares iniciales son más crípticos y varían entre sistemas. Las más conocidas son:

  • Shell de Unix
  • MSDOS
  • Menús y navegación: un menú es un conjunto de opciones en pantallas que los usuarios pueden seleccionar, ejecutando una orden subyacente y provocando cambio en el estado de la interfaz. A diferencia de la anterior, los usuarios no necesitan recordar palabras o sintaxis, siempre y cuando los menús de textos sean significativos, aunque no siempre es así. Su estructura se organiza jerárquicamente, y las guías de estilo proporcionan pautas para su diseño básico, por lo que se considera un número ideal de opciones de menú entre 3 y 8.

Pueden ocupar mucho espacio, por lo que la solución principal son los menús desplegables que aparecen cuando un texto define opciones que se despliegan al interactuar o pop-up, aparecen tras una acción y se mantienen hasta la selección de una opción o desactivación.

Esta selección puede hacerse con el ratón o con la combinación de teclas.

  • Manipulación directa: la interfaz por línea de órdenes se originó a partir de los teletipos, mientras que la navegación por menú tuvo sus inicios en las pantallas de texto. Con el desarrollo de pantallas gráficas de alta resolución y dispositivos como el ratón, se crearon entornos de manipulación directa, los cuales ofrecen una representación visual de las acciones y objetos de interés. Estas ideas se aplicaron inicialmente en la computadora Xerox Star y después en el Apple Macintosh, que fue el primer ordenador con éxito comercial.

La manipulación directa describe los sistemas con las siguientes características:

  • Representación continua de los objetos y de las acciones de interés.
    • Cambio de la sintaxis de comandos compleja por la manipulación de objetos y acciones.
    • Acciones rápidas, incrementales y reversibles que provocan efecto visible inmediatamente en el objeto seleccionado.

Ben Schneiderman,destaca varias ventajas en estos sistemas como:

  • Facilidad de aprendizaje para nuevos usuarios
    • Capacidad de memorización para usuarios intermitentes
    • Reducción de mensajes de error.
    • Inmediatez en la retroalimentación de las acciones y de la generación de confianza en los usuarios debido a la comprensibilidad y reversibilidad de las acciones

Presenta también desafíos, ya que no todas las tareas pueden describirse mediante objetos concretos, y no todas las acciones pueden realizarse directamente.

Interfaz WIMP

Es el entorno más común. Esto quiere decir:

  • Ventanas (Windows): son áreas de pantalla que funcionan como terminales independientes, permitiendo la visualización simulatánea de tareas separadas. Los usuarios pueden dirigir su atención a diferentes ventanas, y si se superponen y una se oculta luego se puede volver a recupera seleccionándola.
    • Iconos (Icons): pueden cerrarse y perderse o reducirse a un icono, permitiendo tener múltiples ventanas en la pantalla. Los iconos ahorran espacio y sirven como recordatorio para que el usuario puede reanudar el dialogo restaurando la ventana a su tamaño original. Se pueden utilizar en otros aspectos del sistema, aunque pueden variar pero es fundamental para su representación.
    • Menús (Menus): ofrecen una lista de operaciones o servicios para seleccionar. En estos los nombres debe ser significativos e informativos para indicar las intenciones. La selección de una opción se realiza moviendo el puntero sobre el ítem deseado, lo cual suele provocar un cambio de color o inversión de vídeo para indicar que es la opción potencial a seleccionar. La acción final de selección generalmente requiere otro paso, como hacer clic en un botón del ratón.

Además, los menús suelen contar con aceleradores de teclado, que son combinaciones de teclas con el mismo efecto que seleccionar la opción en el menú. Esta característica permite a usuarios expertos trabajar de manera más rápida al evitar el uso exclusivo del ratón para seleccionar las opciones.

  • Punteros (Pointers): es un componente fundamental, ya que a manipulación directa se basa en apuntar y seleccionar objetos. Algunos de los dispositivos usados son: ratón, joystick y trackball, ya que el usuario visualiza un cursos que puede controlar con los dispositivos mencionados, facilitando la interacción y selección de elementos de la interfaz gráfica.
  • Interacción asistida: sabemos que los ordenadores se utilizan en una amplia variedad de actividades diarias. A medida que el uso del ordenador se vuelve más común en la vida diaria, un número creciente de nuevos usuarios se suma a esta tecnología, y se espera que este número continúe aumentando. Sin embargo, la forma en que las personas interactúan con las computadoras no siempre responde a estas crecientes necesidades.

El estilo de interacción predominante, la manipulación directa, requiere que el usuario especifique todas las tareas y controle todos los eventos, lo cual puede resultar desafiante para nuevos usuarios. Como respuesta está emergiendo un nuevo estilo de interacción denominado “interacción asistida”. Este enfoque utiliza la metáfora del asistente personal o agente que colabora con el usuario en el mismo entorno de trabajo. En lugar de dirigir la interacción de manera directa, el usuario trabaja en un entorno cooperativo donde se comunica, controla eventos y realiza tareas con agentes o asistentes.

Tiene el potencial de reducir el esfuerzo necesario para llevar a cabo tareas. A diferencia de la manipulación directa, donde se deben seleccionar objetos y acciones de manera explícita, la interacción asistida permite provocar cambios en los objetos sin que cada uno corresponda a una acción específica del usuario.

Agentes de la interfaz

Un agente, según Henry Lieberman, es un programa que el usuario percibe como un asistente o programa de ayuda, en lugar de considerarlo una herramienta en términos de interfaz de manipulación directa. Los agentes deben exhibir ciertas características asociadas con la inteligencia humana, como capacidad de aprendizaje, inferencia, adaptabilidad, independencia y creatividad.

Pattie Maes describe que el usuario delega tareas a un agente en lugar de simplemente darle órdenes directas para realizar una tarea.

En contraste con las interfaces de manipulación directa, donde los cambios de estado en la pantalla son explícitos y uno a uno con las acciones del usuario, un agente de la interfaz tiene la capacidad de afectar los objetos en la interfaz sin instrucciones explícitas del usuario. Los agentes pueden observar varias interacciones del usuario antes de tomar una acción, o incluso lanzar una serie de acciones basadas en una sola interacción.

Las características distintivas de los agentes incluyen:

  •  Autonomía: trabajan en segundo plano sin requerir instrucciones explícitas
    • Inteligencia: actúan por iniciativa propia y se adaptan a diferentes situaciones
    • Uso personal: se adaptan y aprenden del usuario.

Los agentes son más discretos que los asistentes, operan en segundo plano y toman iniciativa propia cuando encuentran información relevante para el usuario.

La autonomía de los agentes implica que trabajan en segundo plano sin ser solicitados explícitamente y pueden observar al usuario y las fuentes de información accesibles. Su inteligencia radica en su capacidad para actuar por iniciativa propia y adaptarse a entornos heterogéneos. Además, los agentes se adaptan y aprenden del usuario, respetando las decisiones del usuario y tomando decisiones en situaciones que pueden no ser cómodas para el usuario.

Implementar agentes es una tarea desafiante y puede realizarse utilizando tecnologías orientadas a objetos o técnicas basadas en conocimientos y aprendizaje. Los agentes son esenciales para aprovechar eficazmente el conocimiento de las fuentes de información en entornos complejos de sistemas de información. Son fundamentales para liberar a los usuarios de tareas rutinarias y mejorar la usabilidad de los ordenadores, especialmente para aquellos que no están motivados por la tecnología. La multitarea es una característica común tanto de asistentes como de agentes, ya que suelen trabajar en segundo plano o de manera concurrente.

Integración de agentes con otras aplicaciones

Se explora cómo utilizar mecanismos de comunicación entre aplicaciones para implementar agentes independientes de aplicaciones. El enfoque se centra en agentes capaces de aprender observando las acciones del usuario en la interfaz y generando procedimientos generalizados para automatizar tareas.

En términos de propiedades que deben tener las aplicaciones para interactuar con agentes, se describen las siguientes:

  • Escriptable: si proporciona un medio, ya sea a través de un lenguaje de script o mediante un API, que permite a un agente externo llamar las órdenes de la aplicación. Facilita la interacción entre el agente y la aplicación, permitiendo que el agente emita comandos a la aplicación según sea necesario.
  • Recordable: si puede informar a un agente externo sobre las funciones que el usuario puede realizar, ya sea a través de menús, iconos o combinaciones de teclas. Permite al agente conocer las acciones disponibles para el usuario, lo que es fundamental para su capacidad de aprendizaje.
  • Examinable: si permite la revisión periódica de las estructuras de datos de la aplicación. Implica la capacidad de un agente para analizar las estructuras de datos de la aplicación en intervalos regulares y deducir las acciones que se están llevando a cabo en la interfaz de usuario al compararlas con otros estados de las estructuras de datos.

Es importante destacar que, aunque estos mecanismos de comunicación ofrecen una forma de cooperación entre agentes y aplicaciones, todavía hay margen para mejorar y lograr una cooperación más completa entre ambas entidades.

Aspectos a considerar en la integración agente-aplicación

Es fundamental la granularidad del protocolo de eventos, lo que implica definir el conjunto de eventos que la aplicación debe transmitir al agente y que este acepte. La elección precisa de estos eventos es esencial para asegurar la comunicación efectiva.

Otro aspecto importante es la capacidad del agente de compartir o modificar la interfaz, implicando la necesidad de definir hasta qué p unto el agente puede interactuar y influir en la interfaz de la aplicación. La capacidad de compartir o modificar la interfaz puede tener implicaciones significativas en la colaboración eficiente entre la aplicación y el agente, así como en la experiencia general del usuario.

Ejemplo: El agente Microsoft

La tecnología ActiveX® para agentes interactivos se manifiesta a través de Microsoft Agent, que introduce una forma novedosa de interacción denominada “interfaces conversacionales” que incorpora aspectos de la comunicación social. Además de admitir la entrada estándar mediante teclado y ratón, esta tecnología ofrece un soporte opcional para el reconocimiento de voz, permitiendo que las aplicaciones respondan a comandos verbales.

Los agentes generados tienen la capacidad de responder utilizando distintas modalidades, incluyendo voz sintetizada, grabada o texto. Esta versatilidad proporciona una experiencia de usuario interactiva y rica, permitiendo la comunicación de manera más natural y adaptada a las preferencias individuales del usuario.

Asistentes

Los asistentes son entidades computacionales diseñadas para ayudarnos en el uso de aplicaciones, los cuales proporcionan orientación de una manera sencilla, permitiendo a los usuarios comprender fácilmente qué acciones deben realizar. Son capaces de interpretar tanto palabras escritas como habladas, así como acciones gráficas, ejecutando acciones complejas o comandos cortos.

Una característica clave es su alta flexibilidad en la recepción de instrucciones. En comparación con menús y macros, los asistentes son a menudo más flexibles, ya que los usuarios solo necesitan expresar verbalmente lo que desean hacer. Estos requieren una cantidad significativa de información durante las interacciones gráficas del usuario, lo que sugiere la necesidad de capacidad de aprendizaje para adaptarse al usuario con el tiempo.

La activación de un asistente se realiza seleccionando órdenes y activando un botón de asistencia o realizando una acción gráfica sobre él. Los asistentes son comunes en las aplicaciones actuales, y en ocasiones, una sola aplicación puede tener más de un asistente para brindar una variedad de funciones de apoyo

Ejemplo de asistentes

La herramienta proporciona la capacidad de convertir una presentación de PowerPoint a un formato basado en la web a través de una serie de tareas. Ofrece una variedad de formatos predefinidos entre los cuales se puede seleccionar. Después de elegir el formato deseado, la herramienta guarda toda la información resultante en un directorio previamente seleccionado. Como podemos ver en la siguiente captura:

Ventajas y desventajas:

Las ventajas que proporcionan son las siguientes:

  • Flexibilidad
  • Permite la iniciativa del usuario
  • Es atractivo para usuarios expertos
  • Potencialmente rápido para tareas complejas
  • Capacidad para hacer marcos

Las desventajas que proporcionan son las siguientes:

  • Requieren la memorización y entrenamiento importante
  • Difícil de memorizar
  • Gestión de errores pobres

Ordenadores emocionales

Según los avances científicos, las emociones juegan un papel fundamental en los procesos como en la toma de decisiones, formación de opiniones y aprendizaje, etc.

Rosalind Picard argumenta que para lograr que los ordenadores sean inteligentes y puedan interactuar de manera natural con los humanos, es necesario que las máquinas tengan la capacidad de reconocer, comprender, experimentar y expresar emociones.

  1. Paradigmas

¿Qué es un paradigma?

Significa ejemplo o modelo. En el contexto de los paradigmas de interacción, se refiere a ejemplos o modelos que sirven como base para todos los sistemas de interacción. Estos son abstracciones que agrupan todos los posibles modelos de interacción según características similares.       

Los paradigmas interactivos actuales incluyen:

  • Ordenador de sobremesa: es el paradigma dominante, la interacción se lleva a cabo de manera aislada del entorno. Los usuarios interactúan principalmente sentados con un ordenador de sobremesa utilizando manipulación directa, como teclado y ratón.
  • Entornos virtuales y realidad virtual: los términos “entorno virtual” y “realidad virtual” abarcan una amplia gama de estilos de interacción, que van desde interfaces en tres dimensiones con las que se puede interactuar y actualizar en tiempo real, hasta sistemas en los que el nivel de autonomía, interacción y sensación de presencia es prácticamente igual al del mundo real.

Para considerar un sistema como de realidad virtual, deben cumplirse ciertas condiciones:

  • Sensación de presencia física directa: El usuario experimenta una sensación de presencia física o experiencia directa a través de indicaciones sensoriales creadas por la tecnología. Estas indicaciones pueden ser visuales, auditivas o hápticas, o combinaciones de las tres.
  • Indicaciones sensoriales en tres dimensiones: la información, normalmente visual, se presenta en tres dimensiones, lo que contribuye a la inmersión del usuario en un entorno tridimensional.
  • Interacción natural: los sistemas de realidad virtual permiten la manipulación de objetos virtuales de manera similar a la manipulación de objetos reales.

Una forma común de interacción virtual implica el uso de cascos ya que proporciona visualización tridimensional y posicionamiento mediante los 6 grados de libertad y ratones 3D simula una mano virtual que se puede mover para realizar operaciones de selección y acciones, como abrir puertas o agarrar objetos.

El uso de dispositivos como datagloves amplía estas acciones al agregar la capacidad de realizar acciones con las posiciones de los dedos. Además, el uso de dispositivos hápticos permite a los usuarios experimentar fuerza sobre los objetos, lo que aumenta las posibilidades de interacción y realismo en el entorno virtual.

La cueva (CAVE)

La “cueva” es un espacio tridimensional de 3x3x3 metros delimitado por tres paredes (una frontal y dos laterales), todas ellas funcionando como pantallas de proyección. Las paredes utilizan retroproyección, y el suelo utiliza proyección frontal desde el techo. Las imágenes proyectadas son en tres dimensiones, y se requieren gafas de cristal líquido para percibir un efecto de estereoscopia.

El usuario tiene la capacidad de moverse dentro de este espacio y visualizar las imágenes proyectadas en las paredes y el suelo. Para lograr esto, se utiliza un sensor de posición y orientación que permite al ordenador conocer la ubicación del usuario. De esta manera, el ordenador puede generar imágenes con la perspectiva correcta para cada plano de proyección, logrando una percepción estereoscópica efectiva.

La interacción del usuario con el entorno se realiza mediante un dispositivo tipo joystick aéreo llamado “wand”, que cuenta con una serie de botones y un sensor de posición y orientación. Además, el espacio está equipado con un sistema que genera sonido cuadrafónico. Un aspecto destacado de la “cueva” es su capacidad para admitir múltiples usuarios, hasta cinco personas con gafas, que pueden moverse y experimentar dentro de este espacio al mismo tiempo. Un usuario lidera la interacción utilizando el “wand”.

Los beneficios y problemas son:

  • Simulaciones imposibles en otro estilo
    • Alto coste
    • Cansancio del usuario

Algunos ejemplos de uso de la realidad virtual son:

  • Entrenamiento de operarios de una central nuclear
    • Entrenamiento de bomberos
    • Reconstrucciones virtuales de patrimonio histórico
  • Computación ubicua: lo propuso Mark Weiser, del Xerox PARC en 1991. Este enfoque busca extender la capacidad computacional al entorno del usuario, permitiendo que la información esté presente en todas partes a través de pequeños dispositivos diversos conectados en red a servidores de información. Busca integrar la tecnología de manera transparente en el entorno cotidiano, disolviendo la presencia del ordenador en un único punto y delegándolo a un segundo plano.

En este paradigma, ya no se trata de tener estaciones de trabajo y pantallas únicas para interactuar, sino de disponer de visualizaciones distribuidas por todas partes que facilitan interacciones sencilla.

Implica la presencia constante de la tecnología en el mundo real para mejorarlo, a diferencia de la realidad virtual, que crea un mundo virtual separado.

Donald Norman argumenta que el ordenador personal es una tecnología frustrante y propone que debería ser visto como una infraestructura, silencioso, invisible y no obstructivo. Weiser, por otro lado, aboga por la omnipresencia de la computación, integrada de manera coherente en el entorno y accesible a través de diversos dispositivos.

A medida que la tecnología ha avanzado, la visión de Weiser se ha convertido en una realidad tecnológica, con la presencia de una variedad de dispositivos. Sin embargo, el cambio de paradigma de la sobremesa a la computación ubicua requiere más que simples adaptaciones de software y hardware; implica la creación de un entorno coherente que integre la interacción y permita la interoperabilidad de múltiples dispositivos en diferentes lugares y para múltiples usuarios.

  • Realidad aumentada (RA): es un paradigma de interacción que busca reducir las interacciones con el ordenador al utilizar información del entorno como una entrada implícita. El usuario puede interactuar con el mundo real, que se ve aumentado por la información sintética proporcionada por el ordenador. Este enfoque integra los dos mundos, real y computacional, reduciendo significativamente el costo interactivo. La situación del usuario se reconoce automáticamente mediante diversos métodos de reconocimiento.

Asiste y mejora la interacción entre los humanos y el mundo real, permitiendo la integración del uso del ordenador en las actividades cotidianas. Por lo que los objetos de la vida diaria se convierten en elementos interactivos, facilitando el acceso para usuarios diversos y no especializados.

A diferencia de otros paradigmas, permite al usuario mantener el contacto con su entorno de trabajo, centrándose en el mundo real aumentado en lugar de sumergirse en un mundo virtual. Se emplean métodos de reconocimiento, como el tiempo, la posición o la identificación de objetos mediante visión por computadora, y se pueden utilizar códigos de barras para hacer que el mundo real sea más comprensible para el ordenador.

El papel del ordenador es el de asistir y mejorar las relaciones e interacciones entre las personas y el mundo real. Este paradigma tiene aplicaciones potenciales en diversos sectores como medicina, arquitectura, diseño interior, construcción, ingeniería civil, etc. Se distingue de la computación ubicua en que utiliza la realidad misma para la interacción, sin la necesidad de adoptar nuevos procedimientos de trabajo, manteniendo métodos tradicionales que son familiares para los usuarios.

  • Principio del formulario

Corrientes existentes

Se distinguen dos corrientes fundamentales que representan enfoques distintos dentro de este nuevo paradigma:

  • Aplicación de Realidad Virtual en el Mundo Real: implica el uso de una nueva tecnología que mejora la percepción del usuario del mundo real mediante la superposición de información adicional sintetizada a través de un modelo computarizado.

Se suelen utilizar gafas especializadas para superponer información virtual sobre objetos y tareas en el entorno real.

Los usuarios pueden trabajar y examinar objetos tridimensionales reales mientras reciben datos complementarios sobre estos objetos o sobre la tarea que están llevando a cabo.

  • Dispositivos que Aumentan la Realidad y Interactúan Directamente: en este caso, los usuarios interactúan directamente con el mundo real, que está enriquecido con información sintetizada por el ordenador.

A diferencia del primer enfoque, no se trata de superponer información virtual sobre la realidad, sino de permitir la participación activa de objetos cotidianos, como bolígrafos o blocs de notas, que interactúan automáticamente con el sistema sin necesidad de acciones específicas por parte del usuario.

Este enfoque minimiza la necesidad de que el usuario se adapte a un nuevo entorno de trabajo, ya que se integra de manera natural con objetos y herramientas familiares.

Ambos enfoques buscan mejorar la interacción entre el usuario y el entorno, ya sea proporcionando información adicional sobre objetos y tareas en el mundo real o permitiendo la interacción fluida con objetos cotidianos enriquecidos con información computarizada.

Líneas de trabajo

  • Superficies Interactivas en el Mundo Arquitectónico: se busca la transformación de superficies dentro de espacios arquitectónicos para convertirlas en interfaces activas entre el mundo físico y el mundo digital.
    • Acoplamiento de Bits y Átomos: se refiere a la integración sin interrupciones entre objetos cotidianos que se pueden tocar,
    • Uso del Medio Ambiente como Interfaz: explora la utilización del entorno físico
    • Ejemplos de Realidad Aumentada: dentro de esta línea, la realidad aumentada se utiliza como una forma innovadora de integrar elementos digitales en el entorno físico.

Algunos ejemplos descritos en el artículo de Hiroshi Ishii del MIT incluyen: Metadesk, Ambient Room y Transboard

Diferencia entre realidad aumentada y Realidad Virtual

La Realidad Virtual (RV) ha sido un área de gran interés, donde el usuario se sumerge por completo en un mundo artificial, sin interacción directa con objetos del mundo real. El entorno virtual reemplaza por completo el mundo real, ofreciendo una experiencia inmersiva total.

La Realidad Aumentada (RA), aunque comparte potencial con la RV, ha recibido menos atención. Los usuarios pueden interactuar con una combinación de mundo real y virtual de manera natural.

Ordenadores corporales

Busca transformar la interacción entre el usuario y la tecnología. Aquí se destacan algunos aspectos clave de esta visión:

  • Portabilidad Total: El objetivo principal es que el ordenador sea tan portátil integrándose sin esfuerzo
    • Interacción Natural: Debe permitir la interacción de manera natural y sin obstáculos, adaptándose al contexto del usuario. Se busca lograr comodidad y facilitar la concentración en la tarea sin distracciones.
  • Manos Libres: Se espera que los ordenadores corporales puedan utilizarse sin necesidad de emplear las manos o, en su defecto, reduciendo al mínimo dicha interacción. Se exploran opciones como reconocimiento de voz y dispositivos de entrada especiales.
  • Invisibilidad Futura: A medida que los chips se vuelven más pequeños y poderosos, se plantea el desafío de hacer que el ordenador corporal sea prácticamente invisible, integrándolo totalmente en la vestimenta o accesorios cotidianos.
  • Aplicaciones Diversas: Los ordenadores corporales se visualizan como herramientas versátiles que pueden tener aplicaciones en una amplia variedad de campos.

Dispositivos utilizados en RA

Puede involucrar varios dispositivos, aunque su presencia puede variar según la aplicación específica. Aquí se presenta una lista de dispositivos asociados, y su inclusión dependerá de la implementación concreta:

  • Ordenador: preferiblemente con capacidad de aceleración de gráficos 3D.
    • Sistema GPS diferencial: para proporcionar información precisa sobre la ubicación.
    • Gafas o sistema de visión montado en casco: con seguidor de orientación o head-trackers.
    • Seguidores de movimiento de la cabeza: para procesar la orientación del usuario.
    • Sensores de sonar: utilizados para detectar objetos reales.
    • Scanners: también empleados para la detección de objetos reales.

El problema clave es el registro de objetos, es decir, almacenar información sobre el objeto virtual para superponerla adecuadamente sobre el objeto real. Para ello, se utilizan head-trackers junto con sensores de sonar y scanners para abordar este desafío, aunque la sensibilidad de estos dispositivos puede ser un problema.

Gafas montado en casco (see-through head-mounted display)

Las “see-through head-mounted displays” (pantallas montadas en la cabeza con capacidad de visión transparente) están inspiradas en las primeras creaciones. Estos dispositivos permiten superponer gráficos sobre lo que la persona puede ver. Se utilizan en ordenadores portátiles y en diversas aplicaciones. Estos dispositivos suelen incorporar un seguidor de orientación conocido como “head-tracker”.

Aplicaciones: Algunos escenarios de RA

El fontanero del futuro

En el año 2005, se presenta un escenario futurista donde un fontanero utiliza tecnología de Realidad Aumentada (RA) para realizar la planificación y presupuestación de una instalación

Mantenimiento mecánico y reparación

La Realidad Aumentada (RA) ofrece una valiosa herramienta para mejorar la eficiencia y la precisión de los técnicos y mecánicos. En este escenario, un mecánico puede ser asistido por un sistema de RA mientras examina y realiza reparaciones en un motor u otro componente mecánico complejo.

Diseño interior

La Realidad Aumentada (RA) ofrece soluciones innovadoras para el diseño y la visualización de proyectos arquitectónicos y de diseño interior. Antes de la construcción, renovación o redecoración de un edificio, se invierte mucho tiempo en el diseño y las discusiones sobre los cambios propuestos. La RA aborda los desafíos de comunicación y comprensión visual al permitir a las personas interactuar y visualizar de manera más efectiva las propuestas.

Construcción exterior

A menudo, se desperdicia tiempo y dinero en la construcción debido a la mala interpretación de planos, el uso de versiones obsoletas o la transferencia imprecisa de información del plano a la construcción real.

  1. Comparación de los paradigmas de interacción

A continuación, vamos a adjuntar una comparación entre paradigmas de interacción:

  1. El ordenador de sobremesa (GUI) la interacción entre el usuario y el ordenador está asilada de la interacción entre el usuario y el mundo real.
  2. En la realidad virtual, el ordenador cubre al usuario y la interacción entre el usuario y el mundo real desaparece
  3. En la computación ubicua el usuario interacciona con el mundo real pero también puede interaccionar con los ordenadores que dispone en el mundo real.
  4. La realidad aumentada soporta la interacción entre el usuario y el mundo real utilizando la información aumentada del ordenador.

Conclusiones

Hay muchas aplicaciones útiles de la tecnología RA, que generara cambios dramáticos en áreas como construcción, diseño y en empresas de manufacturación.

Título: La iteración persona-ordenador

Página 102-168

Resumen

Capítulo 2: El factor humano

Los seres humanos tienen una amplia gama de capacidades y limitaciones, como puede ser pérdidas de concentración, cambios de carácter, motivación, emociones, prejuicios, miedos, errores y fallos de juicio. Al mismo tiempo, pueden responder rápidamente a estimulos, resolver problemas complejos, coordinar acciones con otras actividades, etc.

En el pasado, los diseñadores no consideraban el factor humano como algo importante, ya que asumían que los usuarios podrían aprender y utilizar los sistemas y aplicaciones sin problemas. Sin embargo, esto suele ser complicado y frustante. Por lo tanto, es importante considerar los aspectos humanos de la informática como el sistema cognitivo que nos ayuda a diseñar interfaces que se ajusten mejor a los modelos cognitivos de las personas.

  1. Niveles de explicación de la conducta

La interacción entre las personas y los sistemas informáticos pueden analizarse desde diferentes niveles, en este caso vamos a ver el marco de referencia establecido por CAÑAS Y WAERN.

En el nivel socio-cultural, se estudian temas como la influencia de la tecnología en la sociedad y viceversa. El siguiente nivel se centra en la interacción en tareas de cooperación entre varias personas utilizando sistemas informáticos conocidos como CSCW (Computer-Supported Cooperative Work) que facilitan así el trabajo en equipo.

El tercer nivel se enfoca en la interacción de una persona con un sistema informático y aborda aspectos del sistema cognitivo humano. Un tema fundamental es el de los “Modelos Mentales”, comprendiendo cómo los usuarios adquieren y almacenan en su memoria un modelo del sistema con el que interactúan.

Dentro de los sistemas cognitivos, existen dos componentes importantes que son: sistema perceptivo, que se refiere a las características clave de las interfaces visuales y auditivas; y sistema sensorio-motor.

Todos los aspectos explicados los podemos encontrar en la siguiente tabla:

  • Cognición individual y distribuida

Para comprender la interacción entre las personas y los sistemas interactivos, es fundamental emplear la Psicología Cognitiva, que se enfoca en el procesamiento de información humana, ya que proporciona datos y teoría sobre las capacidades y limitaciones cognitivas humanas, incluyendo la percepción, almacenamiento de la información y resolución de problemas

El término de “cognición” se refiere a la adquisición y uso del conocimiento, y podemos distinguir: Cognición Mental o Individual y Cognición Distribuida o Colectiva, esto es fundamental para el diseño de sistemas y así poder ajustarse a las capacidades.

Cognición Individual o Mental

Los modelos cognitivos que explican la interacción entre las personas y los sistemas interactivos siguen el esquema de procesamiento de información de la Psicología Cognitiva.

Un modelo general propuesto por WICKENS considera que el ser gumano tiene un sistema cognitivo con sistema sensoriales para extraer la información del ambiente, luego se analiza, la almacena en la memoria y la recupera para otro uso.

La memoria humana se divide en memoria operativa y memoria a largo plazo donde podemos distinguir: memoria declarativa que almacena hechos y memoria procedimental que almacena cómo realizar tareas. Los procesos atencionales controlan y distribuyen recursos mentales necesarios para procesar la información. Además, existen procesos de decisión que seleccionan respuestas y coordinan acciones motoras. Como podemos ver en el siguiente esquema:

Además, ha identificado siete actividades realizadas por un usuario para interactuar con un sistema que son:

  • Establecer un objetivo
    • Formar una intención
    • Especificar secuencias de acciones
    • Ejecutar la acción
    • Percibir el estado del sistema
    • Interpretar el estado
    • Evaluar el estado del sistema con respecto a los objetivos y a las Intenciones

Esto también lo podemos en el siguiente esquema:

Los modelos de interacción humano-ordenador, según HOWES deben considerar cuatro aspectos fundamentales:

  • Conducta: los modelos deben explicar y predecir la conducta de los usuarios, así como los datos experimentales obtenidos en las investigaciones. Por ejemplo, los usuarios aprenden de manera más fácil con menús e iconos que con comandos.
    • Conocimiento: es fundamental describir los conocimientos uqe los usuarios deben tener sobre la interfaz y la interacción para predecir su conducta. La propuesta de NEWELL define el conocimiento en términos de objetivos, operadores para lograr esos objetivos y métodos formados por secuencias de operadores.
    • Representación del Conocimiento: el conocimiento esta representado en el sistema y existen varios formalismos propuestos para esta representación, imponiendo restricciones sobre  cómo se adquiere y utiliza dicho conocimiento. Estas restricciones son cruciales para hacer predicciones sobre la conducta.
    • Aprendizaje: los usuarios deben aprender a utilizar la interfaz, por lo que los modelos cognitivos se centran en cómo ocurre este proceso. Es relevante considerar:
      • El tipo de mecanismo cognitivo propuesto para el aprendizaje.
      • El tipo de aprendizaje empleado, como aprendizaje con ejemplos o exploratorio.

Estos aspectos son esenciales para entender cómo los usuarios adquieren habilidades y conocimientos al interactuar con sistemas informáticos.

Cognición Distribuida o Colectiva

En el estudio de la interacción de grupos de personas con sistemas informáticos se aplica el concepto de ‘Cognición Distribuida’, por lo que las personas y los sistemas informáticos son considerados agentes dentro de un sistema común, prestando atención a la transferencia y transformación de información entre esos agentes.

Se estudia la distribución de información entre personas y ordenadores. Se exploran diversas aproximaciones a esta distribución, incluyendo la comunicación en paralelo, la comunicación jerárquica y la coordinación a través de artefactos comunes. Este cambio de enfoque, de considerar la cognición individual a ver al grupo como una unidad cognitiva, ha sido denominado ‘Perspectiva de la Persona Más’ por SALOMON.

HINSZ, TILLDALE y VOLLRATH propusieron un modelo general de procesamiento de información que se puede adaptar para explicar el procesamiento de información distribuida, se centra en entender cómo la información se comparte y se transforma entre las personas y los ordenadores, proporcionando una visión más completa de la interacción en sistemas complejos y altamente organizados.

En el modelo de ‘Cognición Distribuida’, se considera un espacio de trabajo limitado (similar a la Memoria Operativa en modelos individuales) que representa la unión de lo individual y lo compartido en un grupo donde se procesa la información para interpretarla y decidir las acciones a tomar. La interpretación de la información depende del contexto y del conocimiento previo de las personas involucradas en el grupo, algunos de los cuales son comunes, algunos deben ser compartidos explícitamente y otros son personales.

Dentro de este espacio de trabajo, la información externa es seleccionada y transformada mediante procesos atencionales y de codificación, estos son influenciados por el conocimiento previo y los resultados temporales. La codificación y recuperación del conocimiento previo están controladas por los objetivos actuales y continúan hasta que se deriva y ejecuta una acción relevante.

En un grupo, las personas pueden negociar objetivos, comunicar codificaciones y selecciones hasta que se alcanza un objetivo y una interpretación compartida de la situación, que no necesariamente es común para todos. Las acciones pueden ser comunes o distribuidas según la tarea. La información nueva resultante se utiliza en un nuevo ciclo de procesamiento. Este modelo implica un procesamiento secuencial de la información, donde los procesos se repiten hasta que se logra el objetivo, y se puede utilizar para analizar los procesos implicados en el procesamiento de la información en contextos grupales.

  • Arquitecturas cognitivas generales

En la Interacción Persona-Ordenador (IPO), los científicos cognitivos se enfrentan al desafío de explicar y predecir el comportamiento humano en tareas difíciles de descomponer en componentes independientes atribuibles a procesos perceptuales, atención, memoria o razonamiento. Por todo esto es difícil separar los componentes cognitivos como memoria o atención.

Siguiendo a NEWELL, se han desarrollado teorías generales que integran diversas estructuras y procesos cognitivos que tienen como objetivo hacer predicciones sobre una amplia gama de comportamientos, reconociendo la complejidad de los procesos cognitivos involucrados.

Arquitecturas Cognitivas relevantes

Las más importantes son: ACT-R, SOAR surgidas de la Ciencia Cognitiva para explicar la conducta humana en cualquier circunstancia y CCT (Cognitive Complexity Theory) surgida de la investigación ergonómica, fue propuesta para explicar la interacción de persona con un ordenador y se puede decir que es una adaptación de SOAR para IPO.

Por lo que SOAR Y CCT han dado lugar a la técnica de análisis de tareas mas importante para la IPO, llamada GOMS.

SOAR

La regla de producción, propuesta por NEWELL y SIMON, constituye la idea central sobre la cual se han construido numerosas arquitecturas teóricas en campos como la Inteligencia Artificial, la Ciencia Cognitiva y la Psicología Cognitiva, basandose en el concepto de reglas de producción, que estos autores demostraron como una descripción adecuada del sistema cognitivo humano y artificial.

Una regla de producción consta de dos partes: una condición y una acción. Si una condición se cumple, entonces el sistema lleva a cabo una acción. La condición puede ser externa o interna al sistema, mientras que la acción puede ser una respuesta motora o una operación mental. Estas reglas están almacenadas en la Memoria a Largo Plazo, y las condiciones son unidades de información almacenadas en la Memoria Operativa, que pueden ser de origen externo o interno.

En el modelo propuesto, la solución de un problema implica pasar de un estado inicial a un estado final deseado en el espacio del problema. Este proceso se logra mediante la aplicación secuencial de reglas de producción, donde cada regla se aplica en un paso y puede conducir a varios posibles estados intermedios. Los conceptos clave utilizados para describir este modelo son:

  • Objetivo: una situación deseada a la que se quiere llegar. Existen objetivos organizados en una jerarquía, con objetivos generales en niveles superiores y subobjetivos en niveles inferiores.
  • Estado: una estructura de datos que define una situación en el camino hacia el objetivo. Se habla de estado inicial, estados intermedios que son situaciones que surgen al moverse hacia el estado final y estado final (objetivo).
  • Operador: una función que transforma un estado en otro. Son acciones resultantes de la aplicación de una regla de producción.
  • Espacio del Problema: conjunto de estados y operadores disponibles para alcanzar el objetivo. La complejidad del problema determina las dimensiones

La información entra a través de los canales sensoriales y se almacena temporalmente en la Memoria Operativa (MO), donde contiene datos sobre los objetivos, estados y operadores del problema. La información permanente se almacena en la Memoria a Largo Plazo, también conocida como Memoria de Reconocimiento, que contiene patrones que deben ser reconocidos en la MO para aplicar reglas de producción. SOAR no distingue entre Memoria Declarativa y Memoria Procedimental; toda la información está en las reglas de producción. La Memoria de Preferencias almacena información recuperada de la Memoria a Largo Plazo y es procesada por un proceso de Decisión para determinar qué contenidos de la MO se modifican. Existe también una Memoria de Trazos donde se almacena información temporal.

En cada ciclo de procesamiento, estas reglas se comparan con los contenidos de la Memoria Operativa (MO). Si una regla cumple su condición, es decir, si la MO contiene los datos especificados en la condición de la regla, se coloca la acción correspondiente en la Memoria de Preferencias. Las acciones pueden ser actuaciones directas sobre el ambiente o modificaciones en la MO. Si varias reglas cumplen sus condiciones, se colocan en la Memoria de Preferencias con valores de preferencia. Un Proceso de Decisión elige qué acción llevar a cabo primero basándose en estos valores de preferencia.

Cuando hay situaciones de conflicto en la Memoria de Preferencias y no se puede elegir entre las acciones, se produce un impasse. Esto ocurre cuando el conocimiento en la Memoria Permanente es insuficiente para solucionar el problema. Para superar el impasse, SOAR crea subobjetivos para resolverlo. Analiza las condiciones y acciones que llevaron al impasse y crea nuevas reglas de producción basadas en estas experiencias. Estas nuevas reglas se añaden a la Memoria Permanente para evitar futuros impasses en situaciones similares.

RELACION de SOAR con GOMS

El modelo GOMS, propuesto por Card, Moran y Newell (CAR83), es una técnica de análisis de tareas en la interacción humano-computadora que se basa en la descomposición de las actividades del usuario en términos de:

  • Objetivos (Goals): representan las metas del usuario al interactuar con el ordenador. Estos objetivos pueden dividirse en subobjetivos más específicos.
    • Operadores (Operators): son las acciones que el usuario puede llevar a cabo en el sistema.
    • Métodos (Methods): son secuencias de subobjetivos y operadores que el usuario aprende para lograr un objetivo específico.
    • Reglas de selección (Selection rules): son reglas que determinan la secuencia más adecuada de subobjetivos y operadores cuando existen múltiples opciones para alcanzar un objetivo. Estas reglas ayudan a seleccionar el camino más eficiente para realizar una tarea.

GOMS se utiliza para analizar la estructura y la complejidad de las tareas de los usuarios, permitiendo una comprensión detallada de las acciones que los usuarios llevan a cabo durante la interacción con sistemas informáticos. Es especialmente útil para diseñar interfaces de usuario intuitivas y eficientes al identificar posibles cuellos de botella y áreas de mejora en el trabajo del usuario.

  • Sensación: los canales de entrada

En la interacción entre las personas y las computadoras, se produce un intercambio de información en el que el ordenador presenta datos en un formato específico que la persona debe captar a través de sus sentidos para su procesamiento. De manera similar, la persona transmite información al ordenador a través de sus sistemas de entrada.

Hasta hace poco, las interfaces se centraban principalmente en los formatos visuales y, en menor medida, en los formatos auditivos. El sentido visual ha sido el más explorado en Interacción Persona-Ordenador (IPO), seguido por el sentido auditivo. Sin embargo, recientemente, se han comenzado a diseñar interfaces que presentan información en otros formatos físicos.

Sistema visual

La visión es el proceso mediante el cual obtenemos información a partir de la energía electromagnética que llega a los ojos. Lo que percibimos visualmente es la luz, que es la porción del espectro electromagnético detectada.

Para que sea posible la recepción física de los estímulos visuales, son necesarias diversas estructuras anatómicas en el ojo. La primera capa que atraviesa la luz en su camino es la córnea, que es una capa transparente que se continúa con la esclerótica lateralmente. Después nos encontramos con la cámara anterior, que está entre la córnea y el cristalino y contiene un líquido transparente llamado humor vítreo.

En el proceso visual, la pupila, que es un agujero, regula la cantidad de luz que entra al ojo cambiando de tamaño. La luz luego pasa a través del cristalino o lente, cuya curvatura puede variar mediante los músculos ciliares, permitiendo que enfoquemos objetos a diferentes distancias, un fenómeno conocido como acomodación.

Finalmente, después de atravesar el humor vítreo, un fluido transparente que ocupa la mayor parte del volumen del ojo, las radiaciones luminosas llegan a la retina. En la retina, las células especializadas realizan la transducción, convirtiendo las imágenes en señales nerviosas en respuesta a la luz. Es importante destacar que las imágenes se forman de manera invertida en la retina, aunque el cerebro las interpreta correctamente.

En la retina, existen dos puntos cruciales: la fóvea, que es el punto de máxima visión, y el punto ciego, un área donde no hay visión debido a la salida del nervio óptico. El campo visual de un individuo se divide en dos partes: el semicampo visual izquierdo y el derecho. Los objetos del semicampo visual izquierdo se proyectan sobre las hemirretinas derechas, mientras que los del semicampo visual derecho se proyectan sobre las hemirretinas izquierdas. Existe una zona binocular en el centro donde los objetos se proyectan en ambos ojos. Además, hay dos zonas monoculares en los extremos del campo visual, donde los objetos se proyectan solo en un ojo, y estos se proyectarán del lado ipsilateral al ojo correspondiente. La presencia de zonas monoculares se debe a la ubicación de los ojos a los lados de la cabeza.

¿Cuáles son los aspectos del sistema visual que nos interesan desde el punto de vista de la IPO?

En psicología, se hace una distinción entre sensación y percepción. La sensación se refiere a la captación del estímulo físico y su transformación en impulso nervioso, mientras que la percepción implica asignar significado al estímulo que ha entrado en nuestro sistema cognitivo. Se habla de “percepción de formas” en lugar de “sensación de formas”.

En el sistema visual a nivel sensorio-motor, nos enfocaremos en dos temas fundamentales: el color y la iluminación. Estos temas se refieren a la cantidad y calidad de la luz que llega a la retina. Sin embargo, es importante tener en cuenta que la distinción entre sensación y percepción es más didáctica que real, ya que están intrínsecamente relacionadas.

  • Color: la percepción de los colores está relacionada con cómo la luz llega a la retina y es codificada por los fotorreceptores presentes en ella. La retina humana tiene dos tipos de fotorreceptores: los conos que son los responsables de la visión diurna y permiten realizar tareas visuales detalladas y los bastones que median la visión nocturna y son extremadamente sensibles a la luz, aunque menos precisos.

Existen tres tipos de conos con pigmentos sensibles a diferentes longitudes de onda.

Sin embargo, hay fenómenos visuales que esta teoría no puede explicar, como el Posefecto del color, donde se observan imágenes complementarias después de mirar una luz brillante durante un tiempo y luego retirarla. Para explicar este fenómeno, se propone el sistema de los procesos oponentes, que incluye tres sistemas de procesos:

  • Rojo-Verde: responde a longitudes de onda medias y puede percibirse como verde o rojo dependiendo de la longitud de onda.
    • Azul-Amarillo: responde a longitudes de onda cortas y largas, percibiéndose como azul o amarillo.
    • Acromático: responde a la cantidad de luz reflejada y determina los niveles de claridad (claro-oscuro) que percibimos.

La Teoría de los Procesos Oponentes explica los Posefectos del color, donde mirar fijamente un color durante un tiempo agota e inhibe el sistema de ese color, lo que permite que se vea el color opuesto. Esta teoría tiene implicaciones importantes para la Interacción Persona-Ordenador (IPO). Se deben evitar combinaciones de colores opuestos en pantallas, especialmente en pantallas activas como las de las VDT (visual display terminal), para evitar los efectos negativos de los Posefectos del color, como la desaparición de letras en la pantalla o la sensación de vibración en los colores.

La investigación psicológica ha proporcionado pautas para la selección de colores en las interfaces. En cuanto a los términos relacionados con el color, se utilizan tres componentes para describirlos: matiz se refiere a la longitud de onda percibida, que varía de violeta a rojo, saturación mide cuánto contiene la luz otras longitudes de onda además de la del color puro y luminosidad se relaciona con la reflectancia aparente de un color, desde oscuro (negro) hasta claro (blanco), con diferentes tonos intermedios.

  • Iluminación: en el diseño de interfaces, es crucial comprender la intensidad de la energía luminosa que llega a nuestras retinas, ya que afecta la percepción visual de los usuarios Además de la longitud de onda, la duración de la exposición al estímulo también influye en la percepción de la intensidad luminosa.

La Ley de BROCH describe la interacción entre la duración y la intensidad del estímulo visual: para presentaciones muy breves.

Otros factores que afectan nuestra percepción de la energía luminosa incluyen el área retiniana cubierta por el estímulo y la cantidad de luz que entra por el centro de la pupila.

Aunque el diseñador de interfaces no tiene control directo sobre el entorno luminoso del usuario, es importante tener en cuenta el ambiente de trabajo y el puesto de trabajo del usuario. Se deben proporcionar descansos visuales, permitiendo que los usuarios cambien frecuentemente su distancia focal y proporcionando objetos visuales complejos como descanso cuando no están mirando la pantalla. Además, alinear las pantallas correctamente en relación con las fuentes de luz, utilizar vídeo inverso para minimizar los destellos y aplicar filtros son algunas de las prácticas recomendadas para optimizar la experiencia visual del usuario en las interfaces.

Sistema auditivo

El sentido del oído es fundamental para la comunicación humana y desempeña un papel central en las interacciones sociales y la transmisión del conocimiento. En el contexto de la Interacción Persona-Ordenador (IPO), el sentido auditivo es esencial para el estudio de interfaces auditivas y multimodales, donde se combinan el sonido y la imagen para transmitir información. Además, en IPO, se exploran aspectos relacionados con la memoria a corto plazo vinculada al sentido auditivo. Los sonidos se caracterizan por:

  • Frecuencia: Número de ciclos que una onda sonora completa en un segundo, relacionado con la experiencia psicológica del tono.
    • Amplitud: Máxima ampliación respecto a la presión normal, relacionada con la experiencia psicológica del volumen del sonido.
    • Ángulo de fase: Posición del cambio de presión mientras se mueve durante un ciclo completo, indicando la posición en grados de cada fase del ciclo.

El proceso de transducción es crucial para convertir la energía física del sonido en información que pueda ser procesada por las neuronas. Este proceso se lleva a cabo en regiones anatómicas específicas del oído humano.

Oído Externo:

El oído externo, también conocido como pabellón auditivo u oreja, es esencial para aumentar ligeramente la amplitud del sonido y ayudar a determinar la dirección de la que proviene el sonido. Incluye estructuras como el conducto auditivo externo, que protege el tímpano y actúa como un tubo de resonancia, amplificando las frecuencias. El tímpano, una membrana que vibra en respuesta a las ondas sonoras, es la estructura más importante del oído externo.

Oído Medio:

El oído medio consta de tres huesecillos: martillo, yunque y estribo. Estos huesos son cruciales para resolver el problema de “desigualdad de impedancia”, que surge debido al cambio de medio de transmisión de las ondas en el oído interno, donde se encuentra líquido. Los huesecillos actúan como palancas para transmitir la fuerza de las partículas en el aire al estribo, que llega a la ventana oval de la cóclea. Además, en el oído medio hay músculos que se contraen en respuesta a sonidos fuertes y la trompa de Eustaquio, que iguala la presión de aire en el sistema auditivo.

Oído Interno:

El oído interno está formado por los canales semicirculares y la cóclea. La cóclea, a pesar de ser pequeña, es esencial para la audición. Contiene receptores para estímulos auditivos y funciona como un conductor inercial tridimensional, un amplificador acústico y un analizador de frecuencias. La cóclea está llena de líquido y tiene tres canales: la rampa vestibular, la rampa timpánica y el conducto coclear. Cuando el estribo vibra, la presión del líquido en la cóclea cambia, lo que estimula los receptores auditivos en el órgano de Corti. Este órgano transduce la energía de presión de las ondas sonoras en señales eléctricas y químicas que se transmiten a las vías auditivas superiores.

Altura Tonal y Fenómenos Relacionados:

La percepción de la frecuencia de un sonido es fundamental para nuestra experiencia auditiva. Dos teorías explican cómo el oído registra la información de frecuencia: la teoría del lugar, que sugiere que diferentes frecuencias hacen vibrar lugares específicos en la membrana basilar, y la teoría de la frecuencia, que sostiene que la frecuencia de vibración en la membrana basilar coincide con la frecuencia de la onda sonora. La altura tonal depende de la frecuencia, la duración, la amplitud, tonos previos y el estado de alerta del oyente.

Volumen:

El volumen está determinado por la amplitud de la altura tonal, aunque también depende de factores como la duración, los ruidos de fondo y las características del oyente. La relación entre amplitud y volumen no es perfecta y puede variar según la frecuencia del sonido.

Localización Auditiva:

Podemos localizar objetos en el espacio basándonos en los sonidos que producen. La dirección y distancia de un sonido se determinan a través de pistas como las diferencias de tiempo interaural y de intensidad interaural. Además, los movimientos de la cabeza y el cuerpo, junto con las características de los conductos auditivos, ayudan a resolver las ambigüedades en la localización auditiva.

Sonidos Simultáneos:

La combinación de dos tonos produce diferentes sonidos, como pulsaciones, ruidos o dos tonos distintos, dependiendo de la diferencia de frecuencia entre los tonos. Un tono puede enmascarar a otro en ciertas combinaciones, según sus frecuencias y amplitudes relativas. La fatiga auditiva puede ocurrir debido a la exposición continua a ciertos tonos y puede provocar cambios temporales o permanentes en el umbral perceptivo. La contaminación acústica es un problema importante, y sus efectos pueden reducirse mediante la disminución de la exposición a ruidos fuertes, el uso de protectores para los oídos o modificaciones en el origen del ruido.

El tacto

El sentido del tacto es fundamental en la Interacción Persona-Ordenador (IPO) por dos razones principales. En primer lugar, se está convirtiendo en un canal sensitivo importante en el diseño de sistemas de Realidad Virtual. El tacto activo, o percepción táctil, es esencial para comprender las propiedades de los objetos al explorarlos activamente. En segundo lugar, el sistema táctil es crucial para personas con discapacidades visuales o auditivas, siendo los diseños de interfaces táctiles un desarrollo de sistemas alternativos de comunicación.

La piel es el sistema sensorial más grande del cuerpo humano, con una variedad de receptores, incluyendo termoreceptores para la temperatura, nociceptores para el dolor y mecanorreceptores para la presión. El tacto también implica la sensación producida por la deformación de la piel al tocar un objeto. Los estudios del tacto pasivo han revelado que los umbrales de percepción varían según el género y la parte del cuerpo, con regiones corporales más grandes en la corteza cerebral siendo más sensibles.

Sistema cenestésico y vestibular

El sistema cenestésico y vestibular son dos sentidos somáticos que proporcionan información sobre el movimiento y la conservación de la postura erguida, y son importantes en la Interacción Persona-Ordenador (IPO), especialmente en el diseño de sistemas de Realidad Virtual.

Sentido cenestésico:

El sentido cenestésico incluye sensaciones que provienen de la posición y movimiento de las partes corporales. El sistema nervioso central obtiene información sobre la posición y movimiento corporal a través de las órdenes enviadas a los músculos y la información de los receptores sensoriales adecuados. Los receptores cenestésicos se encuentran en ligamentos y articulaciones, y envían información sobre la longitud del músculo, la tensión en el tendón, la presión ejercida sobre los músculos y el dolor asociado al esfuerzo prolongado o calambres musculares.

Sentido vestibular:

El sentido vestibular proporciona información sobre la orientación, movimiento y aceleración del cuerpo. Su función incluye el equilibrio, el mantenimiento de la cabeza en posición erguida y el ajuste de los movimientos oculares para compensar los movimientos de la cabeza. Los receptores del sistema vestibular se encuentran en los canales semicirculares del oído interno y responden a la fuerza de la gravedad y la aceleración angular. También responden a los cambios de posición y la aceleración lineal, aunque de manera más débil.

Sistema olfativo

El sentido del olfato está siendo explorado en el contexto de la Interacción Persona-Ordenador (IPO) debido a las posibilidades que ofrece para crear experiencias virtuales más inmersivas y realistas donde las conexiones directas del olfato con el sistema límbico pueden influir en las emociones del usuario. Sin embargo, las investigaciones en este sentido son limitadas debido a las dificultades que presenta su implementación en el diseño de interfaces.

  • Percepción

En psicología, la sensación se refiere al proceso de captar estímulos físicos del ambiente y convertirlos en estímulos nerviosos que viajan a través de los canales sensoriales hacia el sistema nervioso central.

Por otro lado, la percepción se refiere al proceso mediante el cual asignamos significado a los estímulos captados por nuestros sistemas sensoriales, transformando la información en objetos con colores y formas. Comienza cuando las células receptoras captan información y las vías sensoriales conectan estos receptores periféricos con las estructuras centrales de procesamiento en el cerebro. Existe un procesamiento en paralelo de la información sensorial, esencial para la formación de nuestras percepciones del ambiente. El cerebro no registra simplemente el mundo externo como un fotógrafo tridimensional; en cambio, construye una representación interna de los eventos físicos externos después de analizar sus componentes previamente. Estos procesos son fundamentales para nuestra comprensión y experiencia del mundo que nos rodea.

Organización perceptual de objetos y escenas

Para el diseño de interfaces, la distribución de los elementos es una decisión fundamental que los diseñadores deben tomar. Muchas veces, esta decisión se guía por la intuición del diseñador o restricciones de espacio en la pantalla. Sin embargo, actualmente existe mucha información sobre los procesos psicológicos que subyacen en la percepción organizada de las escenas, proporcionando a los diseñadores las herramientas necesarias para tomar decisiones informadas sobre la distribución de objetos en una interfaz.

La organización perceptual juega un papel fundamental en cómo percibimos y como entendemos las interfaces visuales. Este fenómeno ha llevado al estudio de las Leyes de la Agrupación, es decir, los principios que rigen la organización visual de los elementos en grupos coherentes.

PALMER Y ROCK proponen un modelo teórico de la organización perceptual que se basa en varios procesos. El primero es la detección de bordes que implica identificar los cambios en la luminancia de la imagen para obtener un mapa de bordes de 1D. A continuación, el proceso de formación de regiones agrupa áreas similares en la imagen y separa las atrás que son mas diferentes del resto.

Esto se puede resumir con la siguiente imagen:

El siguiente paso implica la diferenciación entre la figura y el fondo de imagen. Investigaciones clásicas que utilizaron organizaciones ambiguas de figura/fondo han revelado que las personas tienden a percibir solo uno de los lados como un objeto significativo, mientras que el otro (fondo) ni siquiera es recordado, lo que sugiere que deja de ser procesado tempranamente.

Además, se han establecido principios que determinan esta distinción, incluyendo que la figura está delimitada por el fondo, es de tamaño más reducido, está orientada vertical u horizontalmente, tiene mayor contraste, es simétrica y puede tener formas convexas o paralelas. La convergencia de estos principios determina el patrón de imagen en el que se distingue claramente entre la figura y el resto de la escena. Estos principios son fundamentales para entender cómo nuestro cerebro organiza y percibe los elementos visuales en una interfaz.

os procesos de división se encargan de diferenciar las diversas partes de una figura, estableciendo mayor coherencia en la organización de la escena. Los puntos de concavidad profunda, donde el contorno se retrae bruscamente hacia el interior, son analizados para determinar la división de las partes de la figura.

Por otro lado, los principios de agrupación son reglas que determinan cómo varios elementos de la escena se perciben conjuntamente:

  • Proximidad: Si dos objetos están cerca el uno del otro y alejados de los otros, tienden a ser percibidos conjuntamente.
    • Similitud: Los objetos que comparten alguna característica perceptual, tienden a ser percibidos conjuntamente.
    • Destino común: Los elementos que se mueven en la misma dirección se percibirán agrupados.
    • Buena continuación: Los elementos que pueden ser vistos como buenas continuaciones del otro tienden a ser percibidos como conjuntamente.
    • Cierre: Los elementos que forman una figura cerrada tienden a ser percibidos como agrupados.
    • Sincronía: Los elementos visuales que ocurren al mismo tiempo tienden a ser vistos como un conjunto.
    • Región común: Los objetos colocados dentro de una misma región cerrada se percibirán agrupados.
    • Conexión entre elementos: Objetos que están conectados por otros elementos tienden a ser agrupados conjuntamente.

Los principios de agrupación son fundamentales en el proceso de organización perceptual y son crucialmente importantes en el diseño de interfaces. Estos principios pueden ser aprovechados para mejorar la comprensión del usuario y facilitar la interacción.

Es importante tener cuidado al utilizar múltiples principios de agrupación de forma conjunta. En general, cuantos más principios se apliquen coherentemente en una agrupación específica, más fácil será para el usuario percibirla. Sin embargo, si varios principios operan de manera opuesta, los resultados deben ser analizados cuidadosamente. Por ejemplo, si varios elementos están organizados por proximidad, pero al mismo tiempo se aplican principios de conectividad, la agrupación visual puede volverse confusa y contradictoria. Por lo tanto, es esencial encontrar un equilibrio adecuado al utilizar estos principios en el diseño de interfaces para garantizar una experiencia de usuario clara y coherente.

            Organización perceptual y la tarea del usuario

La organización perceptual de los elementos en una interfaz debe estar alineada con la forma en que los usuarios interactúan con la información y llevan a cabo las tareas para garantizar una experiencia de usuario eficiente y coherente.

            Percepción de la Profundidad

La percepción de la profundidad se ha vuelto un tema relevante en el campo de la Interacción Persona-Ordenador (IPO) con el auge de la realidad virtual y los entornos 3D. En estos sistemas, se busca crear una sensación de realismo para el usuario, lo que implica la necesidad de implementar la perspectiva en entornos que tradicionalmente han sido 2D. Aunque se trata de imágenes planas, la percepción de la profundidad se produce a partir del análisis de la imagen retiniana, que es bidimensional en sí misma. Por lo tanto, deben existir claves dentro de la imagen 2D que informen sobre la profundidad de la escena. Las claves más importantes para percibir la profundidad son:

  • Gradiente de textura: se refiere a la frecuencia con la que se alternan las proyecciones de los elementos sobre la superficie de la escena, y aumenta a medida que los objetos se alejan en la imagen. Es importante se mantiene constante cuando la persona está en movimiento, lo que la convierte en una pista visual confiable para percibir la profundidad mientras el usuario se desplaza sobre una superficie en un entorno virtual.
    • Superposición: los objetos más próximos cubren a los más lejanos
    • Tamaño relativo: dos objetos similares, el más grande suele estar más próximo al observador.
    • Altura relativa: os elementos situados a mayor altura suelen percibirse como más lejanos.
    • Perspectiva aérea: cuanto más alejado esté un objeto, se percibirá más borroso y azulado, debido entre otras causas a la existencia de mayor número de partículas en el aire entre el objeto y el observador.
    • Tamaño familiar: si se conoce el tamaño de los objetos, ante una escena en la que se vean a todos del mismo tamaño se percibirá al mas pequeño como más cercano
    • Perspectiva lineal: líneas paralelas reales o imaginarias convergen a medida que se distancian del observador.

También existen claves de profundidad ofrecidas por el sistema visual humano, estas son:

  • Disparidad binocular: debido a la separación entre los dos ojos, recibimos simultáneamente dos imágenes ligeramente diferentes de un objeto en el mundo. Estas diferencias son procesadas conjuntamente en el cerebro debido a los puntos retinianos correspondientes: ubicaciones en cada retina que se solaparían si ambos ojos se interpusieran entre el objeto y la vista. Esta diferencia en la estimulación de ambas retinas se ha utilizado en la implementación de sistemas tradicionales de visión 3D, ya que se proyectan imágenes ligeramente diferentes en cada retina (simulando la visión real) mediante técnicas como el uso de gafas 3D con filtros adecuados, aprovechando esto para crear la sensación de profundidad en las imágenes visualizadas.
    • Paralaje de movimiento: cuando la persona está en movimiento, los objetos más próximos pasan más rápido por el campo visual que los más lejanos, esto ocurre debido al cambio en la posición retiniana de los objetos
    • Acomodación: se produce a partir de la actividad de los músculos del sistema visual. Consiste en el progresivo aplanamiento de las lentes del ojo a medida que el objeto percibe que esta más alejado.
    • Convergencia: se produce a partir de la actividad de los músculos del sistema visual. Se refiere al hecho de que a medida que un objeto se acerca al observador los ojos rotan hacia dentro.

Percepción y reconocimiento de objetos

Es un tema fundamental para la implementación de sistemas de realidad virtual,  ya que comprender cómo el sistema cognitivo reconoce objetos es crucial para el diseño de objetos que sean fácilmente identificables por los usuarios.

La identificación de objetos es un proceso complejo debido a que la imagen del objeto proyectada sobre la retina cambia constantemente con el movimiento del observador o del propio objeto. Además, a menudo no es completa debido a elementos intermedios que pueden ocultar partes del objeto que se intenta reconocer. Por esta razón, el sistema perceptivo utiliza dos vías para acceder a las unidades de reconocimiento, donde se almacena la información sobre el objeto:

  • Representación centrada en la persona: describe lo que rodea al observador desde su punto de vista. Se basa en el análisis de los “geones”, que son las unidades volumétricas básicas en las que se componen los objetos, algunas de sus características son:
    • Son unidades de volumen o profundidad
    • Resultan de la rotación de uno o mas contornos alrededor del eje espacial
    • Pueden describirse según una serie de características no accidentales similares a los contornos que el objeto proyecta en la imagen.

Las características no accidentales de los geones son propiedades estructurales que mantienen una relación casi invariante con respecto a la representación retiniana de un objeto, estas son claves para el reconocimiento confiable de objetos, algunas de ellas son:

  • Rectitud-Curvatura:
    • Coterminación-No coterminación
    • Forma de la coterminación: implica tres contornos que confluyen en un punto.
    • Proyección Paralela

Estas características proporcionan pistas visuales consistentes y estables que el sistema perceptivo utiliza para identificar y reconocer objetos de manera eficiente. La relación casi invariante entre estas características y la representación retiniana permite que el sistema cognitivo identifique objetos

  • Representación centrada en el objeto: Es una descripción de los elementos de la escena independiente de las condiciones de observación. Los geones se alinean respecto al eje principal del objeto, conocido como eje de elongación, lo que facilita la comparación de la similitud entre geones iguales orientados en diferentes direcciones.

Percepción y acceso al conocimiento

Conocimiento a través de imágenes: el uso de iconos.

Para garantizar la efectividad de los iconos en contextos informáticos, se han establecido algunas recomendaciones:

  • Minimizar la diferencia entre el objeto real y su representación: la diferencia entre el objeto real y su representación icónica debe ser mínima para facilitar la interpretación.
    • Consistencia en la posición de los iconos: los iconos deben presentarse en la misma posición a lo largo de todas las pantallas, facilitando el aprendizaje de su uso a través de la navegación por diferentes pantallas y puede reducir los tiempos de identificación, especialmente para iconos claramente diferenciados de su objeto real.
    • Facilidad de discriminación: los iconos deben ser fácilmente distinguibles del resto, es decir, deben ser perceptibles sin dificultad y diferenciarse claramente de otros iconos.
    • Evitar interpretaciones múltiples: los iconos no deben tener varias interpretaciones posibles, por lo que se debe evitar que un icono pueda entenderse de diferentes maneras, ya que esto puede llevar a confusiones.

En casos de representaciones más complejas, es aconsejable utilizar tanto iconos como texto, ya que esta combinación puede proporcionar una comprensión más clara para los usuarios.

Conocimiento de la función de los objetos: las Affordances

Cuando se diseña una interfaz, es muy importante que los usuarios comprendan la función de cada uno de los elementos. Tradicionalmente, se ha pensado que los usuarios deducen la función de un objeto a través de una inferencia: primero reconocen el objeto, luego lo categorizan y, finalmente, acceden al conocimiento de su función.

Sin embargo, existe otra forma más rápida de acceder a la información sobre la función de un elemento, conocida como “affordances”, que son las funciones de un objeto que el observador percibe directamente a partir de su apariencia visual, para que sean efectivas deben cumplir los siguientes requisitos:

  • Forma funcional: la forma del objeto debe corresponder con su función.
    • Visibilidad
    • Acción coherente
    • Relatividad del observador: pueden tener interpretaciones diferentes para diferentes personas, y esto puede utilizarse para crear estándares de affordances homogéneos para ciertos objetos.

Cumpliendo estos requisitos se vuelven más efectivas y ayudan a los usuarios a comprender intuitivamente la función de los objetos en una interfaz.

  • Memoria

La memoria se divide en una serie de sistemas, cada uno con diferentes funciones, por lo que distinguimos:

  • Memoria sensorial: son almacenes temporales de información proveniente de los sentidos, prolongando la duración de la estimulación para facilitar su procesamiento en la Memoria Operativa. Los almacenes más estudiados son los de la vista y el oído.

El almacén icónico se encarga de la información visual, manteniendo una representación isomórfica de la realidad física.

El almacén ecoico retiene estímulos auditivos hasta que el receptor tenga suficiente información para procesarla en la Memoria Operativa.

  • Memoria operativa: también conocida como memoria a corto plazo, es el sistema en el que los usuarios manipulan la información con la que interactúan en su entorno. Es más duradera que la almacenada en las memorias sensoriales.

Esta limitación de capacidad se manifiesta en los efectos de primacía y recencia, donde las personas tienden a recordar más fácilmente los elementos presentados al principio y al final de una lista, pero no los intermedios.

Se compone de varios subsistemas:

  • Ejecutivo Central: coordina los recursos del sistema y distribuye la información a los almacenes especializados.
    • Lazo Articulatorio: encargado de la información verbal hablada y su mantenimiento activo.
    • Agenda Visoespacial: maneja la información espacial y visual.
    • Memoria a Largo Plazo (MLP): es el almacén de información en el que se guardan recuerdos vividos, conocimiento sobre el mundo, imágenes, conceptos, estrategias de actuación, entre otros. Tiene una capacidad ilimitada o desconocida y se considera la “base de datos” en la que se almacena la información a través de la Memoria Operativa para su uso futuro.
      • Memoria Procedimental: almacena información sobre procedimientos y estrategias que permiten interactuar con el entorno de manera automática e inconsciente, y es difícil de verbalizar.

Se considera un sistema de ejecución implicado en el aprendizaje de habilidades que no están representadas como información explícita sobre el mundo, sino que se activan de manera automática como una secuencia de pautas de actuación en respuesta a las demandas de una tarea, donde se incluyen: repertorios motores y estrategias cognitivas. El aprendizaje de estas habilidades ocurre gradualmente a través de instrucciones explícitas o por imitación, y su adquisición depende del tiempo dedicado a practicar y del tipo de entrenamiento.

La información se organiza en reglas de producción, que establecen condiciones y acciones. Las condiciones pueden ser estímulos externos o representaciones de ellos en la memoria operativa, y las acciones implican modificaciones en la información en la memoria operativa o en el entorno.

Es fundamental en el desarrollo de reglas que permiten una ejecución eficiente en tareas específicas. En el contexto de la Interacción Persona-Ordenador (IPO), es relevante para modelos como SOAR y el método GOMS, que basan el aprendizaje de habilidades de interacción en la adquisición y almacenamiento de reglas de producción en la Memoria Procedimental.

  • Memoria Declarativa: almacena información sobre hechos y eventos que pueden ser verbalizados y expresados conscientemente. Distinguimos entre:
    • Memoria Episódica: comprende información sobre el conocimiento del mundo y las experiencias personales de cada individuo, es decir, representa eventos o sucesos que reflejan detalles específicos de situaciones vividas, no solo su significado. La organización de los contenidos sigue parámetros espacio-temporales, es decir, los eventos recordados se relacionan con momentos y lugares específicos en los que ocurrieron. Son aquellos que han sido codificados de manera explícita
    • Memoria Semántica: comprende información sobre conocimientos generales extrapolados de experiencias vividas, es decir, un almacén de conocimientos sobre los significados de las palabras y las relaciones entre estos significados. En este caso, se sigue una pauta conceptual, donde las relaciones entre los conceptos se organizan en función de su significado. Tiene una capacidad inferencial y puede manejar y generar nueva información que nunca se haya aprendido de manera explícita, pero que está implícita en sus contenidos

Esta distinción permite estudiar cómo los programadores pueden usar códigos de otros programas al escribir uno nuevo. Por un lado, tienen información semántica sobre lenguajes de programación, como algoritmos o conceptos asociados al lenguaje que están utilizando (Memoria Semántica). Al mismo tiempo, poseen conocimiento vinculado a situaciones anteriores en las que tuvieron que resolver problemas similares (Memoria Episódica).

  • Representación del conocimiento

En psicología, el término “conocimiento” se refiere a la información almacenada en nuestro sistema cognitivo a través de la interacción con el mundo. Aunque es importante destacar que los términos “información” y “conocimiento” no son sinónimos. La información se refiere al mundo externo al sistema cognitivo que es procesado por nuestros sentidos, mientras que el conocimiento es la información que ha sido procesada y almacenada internamente.

Entre las diversas estructuras propuestas e investigadas que ayudan a entender cómo procesamos y almacenamos la información, las más importantes para la Interacción Persona-Ordenador (IPO), distinguimos:

  • Modelos mentales: es una representación conceptual del sistema que incluye su estructura y su funcionamiento.
    • Redes semánticas: son un tipo de representación mental de nuestro conocimiento a largo plazo, en las cuales las unidades de conocimiento están representadas en nodos conectados por vínculos que expresan las relaciones semánticas entre ellas. La estructura puede variar dependiendo del tipo de conocimiento que se esté representando. Esta organización mental de los conceptos no sigue un orden semántico clásico, lo que implica que se necesitan técnicas específicas para medir estas representaciones mentales. Estas ideas se han aplicado al diseño de menús de programas, donde la tarea de selección de búsqueda en un menú se entiende como una verificación de la relación semántica de las alternativas con el nombre del menú. Cuanto más distantes estén semánticamente el nombre del menú y la opción a seleccionar, más tiempo se requerirá para la tarea y menor será su efectividad. Esto se ha comprobado en estudios con menús cuyos nombres estaban distanciados por diferentes niveles semánticos, demostrando que los usuarios encuentran opciones con mayor rapidez y menor número de errores cuando el nombre del menú es más similar semánticamente a la opción que están buscando.

Procesos de recuperación

La información almacenada a largo plazo, tanto en la Memoria Declarativa como en la Procedimental, se recupera a través de diferentes procesos que dependen de la forma en que dicha información esté representada y del almacén en el que se encuentre, así como de las unidades de información medioambientales e internas que en cada momento activen un recuerdo específico.

En cuanto a la recuperación, existen dos formas que difieren en el tipo de información presentada al sujeto para que se produzca la recuperación, estas son:

  • Reconocimiento: presenta al sujeto la información que se quiere recuperar. Se explica en función del cálculo de la familiaridad. Puede ser:
    • Explícita: asociada con información episódica y procesos activos en la Memoria Operativa.
      • Implícita: se refiere al acceso a información almacenada sin que el sujeto tenga conciencia de cómo se recupera, y se encuentra principalmente en la Memoria Procedimental y Semántica. Un ejemplo es el priming, que es el efecto facilitador o inhibidor que un estímulo previamente presentado puede tener sobre la información almacenada, incluso si el sujeto no es consciente de haber percibido dicho estímulo.
    • Recuerdo: esta información no está presente y el sujeto debe generar sus propias claves de recuerdo o utilizar claves presentes en el contexto para recuperar la información. El sujeto debe generar un conjunto de posibles candidatos a recuperar, lo que implica un proceso de búsqueda guiado por principios organizativos y asociativos. Después de la búsqueda, tiene lugar el proceso de identificación del mejor candidato, basado en el cálculo de la familiaridad a través de la fuerza asociativa entre la clave de recuerdo y la información recuperada.

Tipos de Conocimiento relevantes para IPO y la forma como son adquiridos y estan representados en MLP.

En el contexto de la Interacción Persona-Ordenador (IPO), cuatro tipos de conocimientos son especialmente relevantes:

  • Conocimiento sobre la estructura y el funcionamiento del sistema: se refiere a la comprensión que los usuarios sobre cómo opera el ordenador y cómo interactuar con él.
    • Conocimiento sobre la tarea: implica la comprensión de la tarea específica que el usuario quiere realizar utilizando el sistema, es fundamental para llevar acciones específicas de manera efectiva.
    • Conocimiento adquirido durante la navegación: es la información que los usuarios obtienen mientras explorar y navegan por el sistema, incluyendo la comprensión de la disposición y organización de la información en el sistema
    • Extracción del conocimiento (data visualization): es la capacidad de los usuarios para extraer información significativa a partir de los datos representados visualmente, implicando comprender y analizar gráficos, tablas u otras representaciones visuales.

Conocimientos sobre la estructura y el funcionamiento del ordenador: los Modelos Mentales

Este concepto se refiere a la representación conceptual que los usuarios tienen del sistema con el que estan interactuando. Incluye información sobre la estructura y funcionamiento del sistema, pero no necesariamente con detalle, y varía dependiendo de la complejidad según las necesidades del usuario. Son incompletos, ejecutables mentalmente, inestables, no tienen límites claros y pueden contener creencias erróneas.

Son fundamentales para la interacción con sistemas físicos y computacionales. También influyen en la forma en que los usuarios describen los problemas que enfrentan y cómo se comunican con los técnicos de soporte.

Son esenciales para la comprensión y la eficacia en la interacción entre las personas y los sistemas, especialmente en el diseño y el soporte de sistemas informáticos.

El lugar del Modelo Mental en el Sistema Cognitivo Humano

El modelo propuesto por CAÑAS y ANTOLÍ establece una definición específica de “modelo mental” y su ubicación en la memoria. Además, el modelo también considera la influencia de otros sistemas cognitivos o no cognitivos. Distingue dos tipos de representaciones:

  • Modelo Conceptual: es una representación estable del conocimiento general almacenado en la memoria a largo plazo y que contiene información general y duradera sobre el sistema. Sirve como marco sobre el cual se realiza la simulación en la Memoria Operativa. Incluye el conocimiento sobre el mundo y puede modificarse a través del modelo mental mediante conexiones bidireccionales, a medida que se realizan nuevas tareas o se producen cambios en el sistema.
    • Modelo Mental: es dinámico y se crea en la Memoria Operativa combinando información de la memoria a largo plazo y del ambiente externo, adaptándose a las características específicas de la tarea que se está realizando. Está directamente relacionado con el sistema motor que ejecuta la respuesta necesaria para llevar a cabo la tarea. Después de simular mentalmente las opciones disponibles y sus posibles resultados, se elige la opción que lleva al resultado deseado basándose en el conocimiento general del sistema y luego se ejecuta esa opción.

Evaluación del Modelo Mental que un usuario tiene y sus aplicaciones

El aprendizaje de una herramienta informática implica la adquisición de una representación mental de los conceptos relacionados con esa herramienta, donde se organiza en función de las relaciones de similitud o proximidad conceptual entre los conceptos.

Para evaluar el nivel de aprendizaje, se utilizan técnicas de evaluación que examinan cómo el usuario organiza los conceptos en su mente. Estas técnicas se basan en la premisa de que si dos conceptos están estrechamente relacionados debido a su uso conjunto en tareas específicas, esta relación estará reflejada en la memoria del usuario.

Las tareas realizadas con la herramienta informática requieren conocimiento de varios conceptos que están interconectados debido a su relevancia en la realización de diversas tareas.

Las técnicas de evaluación implican la identificación de estos conceptos clave, la creación de tareas específicas que requieren el uso de estos conceptos, la observación de cómo los usuarios aplican su conocimiento en estas tareas y la evaluación de cómo están organizados y relacionados los conceptos en la mente del usuario. Estos procesos proporcionan una comprensión del nivel de competencia del usuario con la herramienta informática.

Obtención de datos de proximidad conceptual

Para evaluar la relación entre los conceptos relevantes del procesador de texto Word en función del nivel de conocimiento de los usuarios, se utilizan dos tipos de tareas:

  • Agrupamiento: los usuarios deben organizar los conceptos importantes en grupos que consideren similares. Estos agrupamientos proporcionan datos sobre la proximidad conceptual según la percepción de cada usuario.
    • Juicios de Relación: se presentan pares de conceptos a los usuarios, quienes asignan valores de relación en una escala numérica. Un valor bajo indica que los conceptos no están relacionados, mientras que un valor alto indica una relación fuerte; para así ofrecer información adicional sobre cómo los usuarios perciben la relación entre los conceptos seleccionados.

Análisis de los datos de proximidad conceptual

En la evaluación de las matrices de juicios de relación conceptual, dos métodos de análisis comunes son:

  • Escalamiento Multidimensional: ofrece un análisis global del conocimiento, identificando estructuras abstractas en la representación del conocimiento de expertos usuarios de sistemas.

Tiene como objetivo obtener una representación visual de las dimensiones que relacionan los conceptos de un área de conocimiento específica.

En la representación bidimensional de los conceptos, los valores en los ejes indican los pesos que los conceptos tienen en esas dimensiones. La cercanía de dos conceptos en el espacio sugiere una relación semántica más cercana en la representación mental de las personas. La dimensión en el eje de las abscisas (X) agrupa conceptos relacionados con operaciones de archivos y edición de documentos, y crea subgrupos diferenciables. La dimensión en el eje de las ordenadas (Y) diferencia entre diferentes operaciones.

Los pesos asignados por monitores y participantes a estas dimensiones indican diferencias en la percepción del conocimiento. Los monitores asignan más peso a la dimensión ‘Operaciones con ficheros versus Edición’, mientras que los participantes en la fase 1 asignan más peso a la dimensión ‘Diferencias entre operaciones’. Sin embargo, en la fase 2, los participantes ajustan sus pesos para que sean más similares a los de los monitores, indicando un proceso de aprendizaje.

  • Pathfinder: se centra en las relaciones por pares de conceptos y es útil para investigar las estrategias de navegación de los usuarios, especialmente en tareas de recuperación de información. Los grafos conceptuales ayudan a visualizar las estrategias que los usuarios emplean para navegar en bases de datos y otros sistemas de información.

Se utiliza un índice de similitud llamado C para comparar los grafos y evaluar el conocimiento de los participantes. Los resultados muestran que los participantes tienen un conocimiento relativamente bueno en la primera fase y muestran un aprendizaje significativo en la segunda fase del curso. Además, se realizan interpretaciones cualitativas de las relaciones semánticas. También se señala que algunos conceptos pueden no haber sido adecuadamente aprendidos

Conocimiento sobre la tarea que el usuario quiere realizar

En el diseño de interfaces, es crucial considerar el conocimiento previo de los usuarios sobre el dominio de la aplicación. La organización de los elementos en los menús se basa en los procesos cognitivos de los usuarios al buscar opciones:

  • Identificación: los usuarios reconocen las etiquetas del menú y seleccionan la opción que buscan. Ocurre en entornos donde los elementos son bien conocidos, y los menús suelen organizarse alfabéticamente.
    • Equivalencia: los usuarios conocen la función que desean realizar pero no están seguros de la etiqueta exacta en el menú. Deben analizar las opciones para encontrar la que creen que es equivalente a su objetivo.
    • Inclusión de clase: los usuarios conocen la acción que desean realizar pero no saben en qué categoría se encuentra en el menú. Las etiquetas deben corresponder a una jerarquía superior para facilitar este tipo de procesos.

Para diseñar interfaces efectivas, los diseñadores pueden utilizar métodos de elicitación del conocimiento, como el Escalamiento Multidimensional y el Método Pathfinder, para comprender cómo los usuarios organizan mentalmente la información. Además, las interfaces orientadas a objetos utilizan metáforas familiares para representar la estructura y el funcionamiento del sistema, permitiendo a los usuarios interactuar intuitivamente con el sistema sin necesidad de entender la complejidad técnica

Conocimiento adquirido durante la navegación

La navegación en Internet o en hipertexto implica que los usuarios obtengan información o adquieran conocimiento al combinar la información disponible en la interfaz y su propio conocimiento sobre el dominio. La navegación implica leer el contenido de una página y seleccionar enlaces a otras páginas. El diseñador de una página web tiene la tarea crucial de organizar cómo y entre qué páginas se establecerán los enlaces. Existen tres opciones para establecer esta estructura:

  • Decisión del diseñador: El diseñador organiza las páginas según su conocimiento del dominio o su intuición.
    • Análisis de asociaciones entre documentos: Se analizan las asociaciones entre los documentos para establecer los enlaces entre las páginas.
    • Análisis empírico con usuarios: Se utilizan juicios de relación y algoritmos como el Pathfinder para establecer la estructura basándose en la percepción de los usuarios.

El objetivo principal del diseñador es que los usuarios encuentren la información que necesitan o adquieran conocimiento de manera rápida y eficaz, evitando la desorientación, que ocurre cuando los usuarios se sienten perdidos y confundidos en su navegación.

Para establecer la estructura de una página web o contenido educativo, el diseñador debe considerar la jerarquía de los conceptos y las relaciones no jerárquicas entre ellos. Se pueden utilizar estructuras totalmente jerárquicas, en forma de red o mixtas. Estudios han demostrado que las estructuras mixtas son las más efectivas, ya que permiten adaptarse tanto a usuarios con poco conocimiento que necesitan guía.

También pueden utilizar métodos de evaluación del conocimiento para determinar las estructuras más adecuadas.

Cuando se trata de establecer la estructura para información extraída de bases de datos, se pueden utilizar técnicas que analizan las palabras en común entre las páginas para establecer similitudes y crear enlaces relevantes.

Extracción del conocimiento (data visualization)

Los sistemas informáticos se utilizan para visualizar grandes cantidades de datos con el fin de encontrar información relevante.

El desafío en estos casos no es solo presentar los datos, sino hacerlo de tal manera que los usuarios puedan descubrir patrones significativos que les ayuden a tomar decisiones informadas. La interfaz se convierte en una herramienta que facilita el pensamiento del usuario.

La visualización científica utiliza gráficos de computadora para facilitar la organización y comprensión de datos sobre fenómenos físicos, ayudando a los procesos perceptuales humanos. Los sistemas de visualización de información están diseñados para usuarios comprometidos en la búsqueda activa de información. En situaciones donde se deben explorar patrones de datos jerárquicos, como los valores bursátiles de empresas organizados jerárquicamente, las representaciones tradicionales con nodos y lazos pueden dificultar la comparación de datos. Para abordar este problema, se han desarrollado interfaces de visualización, como los ‘Treemaps’ (Mapas en árbol). Los Treemaps, propuestos por Ben Shneiderman, son algoritmos que presentan estructuras jerárquicas en un espacio 2D, utilizando rectángulos donde la altura, la anchura y los colores representan diferentes atributos de los datos