1 / 117

Métodos formales y cuantitativos en HCI

Métodos formales y cuantitativos en HCI Tomás Laurenzo – inpercom - http://www.fing.edu.uy/inco/cursos/inpercom. Métodos formales en HCI. Los M.F. son " técnicas basadas en la matemática para la especificación, desarrollo, y verificación de un sistema ” .

ciel
Télécharger la présentation

Métodos formales y cuantitativos en HCI

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Métodos formales y cuantitativos en HCI Tomás Laurenzo – inpercom - http://www.fing.edu.uy/inco/cursos/inpercom

  2. Métodos formales en HCI • Los M.F. son "técnicas basadas en la matemática para la especificación, desarrollo, y verificación de un sistema”. • Suelen incluir una notación precisa para la construcción de modelos matemáticos de un sistema (de software). • La notación es utilizada para especificar (en vez de diseñar o implementar) el sistema requerido y es concerniente a qué es hecho por un sistema y no cómo es hecho. • abstracción • precisión

  3. Métodos formales en HCI • Clasificación • modelo • definen el comportamiento con alguna estructura matemática (ej. conjuntos) • propiedad • axiomáticos o algebraicos: los datos se modelan implícitamente: el sistema debe “sólo” cumplir con las propiedades • comportamiento • secuencias de estado • Métodos formales • incrementan la confianza • no garantizan perfección

  4. Métodos formales en HCI • los métodos formales: • disminuyen el “formality gap” • permiten enunciar principios generales • restringen el diseño • favorecen la evaluación de los sistemas • pueden permitir una mejor comprensión del sistema, de su aplicación, o del contexto (la “realidad”).

  5. Métodos formales en HCI • Resumiendo: Los métodos formales permiten una abstracción precisa. • permite exponer decisiones implícitas • Ejemlos concreto: • especificación de sistemas interactivos específicos • modelos genéricos de sistemas interactivos • especificación de diálogos y análisis

  6. Métodos formales en HCI • Ejemplos: • the PIE model (1985) • R • E • D • P : historia! • I : función.

  7. Métodos formales en HCI • función doit, recursiva. • doit: E x seq C  E • es fácil formalizar el undo, por ejemplo…

  8. Métodos formales en HCI • función doit, recursiva. • doit: E x seq C  E • es fácil formalizar el undo, por ejemplo… • diagramas de estados, lógica temporal.

  9. Algunos límites en la percepción The Magical Number Seven, Plus or Minus Two: Some Limits on Our Capacity for Processing Information George A. Miller Publicado en The Psychological Review, 1956, vol. 63, pp. 81-97 inpercom Tomás Laurenzo www.fing.edu.uy/inco/cursos/inpercom

  10. Relaciones varianza  cantidad de información covarianza o correlación  cantidad de información transmitida

  11. cantidad de información del estímulo cantidad de información percibida información transmitida Experimento Al aumentar la información transmitida, la persona comete más y más errores. La capacidad del canal de transmisión es la mayor cantidad de información que nos brinda un estímulo.

  12. Bits • Un bit de información es el volumen de información necesario para tomar la decisión entre dosalternativas equiprobables. Por ejemplo: ¿La altura de una persona es mayor que 1,60m? • Dos bits de información es el volumen de información necesario para tomar la decisión entre cuatroalternativas equiprobables. • N bits ... 2N ...

  13. 1er Experimento (tono sonoro) • Pollack le pidió a sus sujetos experimentales que identificaran tonos a través de una asignación de números. • Los tonos eran diferentes en frecuencia, y cubrían un rango entre los 100 y 8000 hz en pasos de igual distancia logarítmica. • Cuando se escuchaba un tono, el escucha respondía con un número. • Luego que el escucha daba la respuesta, se le decía cuál era el número correcto.

  14. 1er Experimento (tono sonoro) Resultados

  15. 2,5 bits ¿Qué significa? 2^(2,5) =5,6569... 6 No se puede considerar más de 6 diferentes tonos sin que el usuario se confunda. No importa cuantos tonos se le de a la persona, esta sólo puede categorizarlas en 6 clases sin error. Si hay N estímulos, el porcentaje de aciertos es 100*N/6.

  16. 2,5 bits ¿Se puede obtener resultados mejores haciendo trucos? Si por ejemplo: Tomo 5 sonidos en una escala grave, puedo distinguirlos claramente. Tomo 5 sonidos en una escala aguda, también puedo distinguirlos. Si los combino: ¿Podré distinguir entre los 10 sonidos?

  17. 2,5 bits ¿Se puede obtener resultados mejores haciendo trucos? Si por ejemplo: Tomo 5 sonidos en una escala grave, puedo distinguirlos claramente. Tomo 5 sonidos en una escala aguda, también puedo distinguirlos. Si los combino: ¿Podré distinguir entre los 10 sonidos? NO

  18. 2do Experimento (Volumen sonoro) • Garner espació sonidos con intensidades entre 15 y 110 dB

  19. 3er Experimento (Salinidad del agua) • Beebe-Center, Rogers, and O'Connell trabajaron con concentraciones de sal entre 0,3 y 34,7 gm por 100cc. de agua.

  20. 4to experimento (Posición de un puntero en una línea) • Hake and Garner trabajaron de dos formas distintas: 1: Decir un número cualquiera entre 0 y 100 para designar la posición, aunque las posiciones mostradas sean finitas y equiespaciadas. 2: Seleccionar un número entre los posibles.

  21. 4to experimento (Posición de un puntero en una línea) Resultados:

  22. Más experimentos Resultados visuales: Tamaño de cuadrados 2,2 bits Color 3,1 bits Brillo 2,3 bits Curvatura de líneas 1,6 a 2,2 bits Largo de líneas 2,6 a 3 bits Dirección de líneas 2,8 a 3,3 bits

  23. Combinando dimensiones En lugar de una marca en una línea, determinar la posición de un punto en un cuadrado. 3,25+3,25=4,6 ?

  24. Combinando dimensiones • (sabor) Salinidad + dulzura = 2,3 bits  1,9bits + 1,9bits • (sonido) Tono + volumen = 3,1bits 2,5bits + 2,3bits • (sonido) Frecuencia + intensidad + tasa de interrupción + on-time fraction +duración total+ ubicación en el espacio = 7,2 bits= 150 opciones 6*(2,32 bits)=13,93 bits= 5^6 opciones=15625

  25. Combinando dimensiones

  26. Combinando dimensiones • Hipótesis sobre los resultados: al combinar dimensiones, se pierde precisión en cada una de ellas. • Los sonidos humanos tienen entre 8 y 10 dimensiones (binarias). Esto limita las posibilidades de expresividad. • Hipótesis de Miller: Hay un límite de 10 dimensiones que se pueden considerar para evaluar algo. • En el curso de la evolución natural, se decidió que era mejor tener poca información de muchos estímulos diferentes, que mucha información de un único estímulo.

  27. 5to experimento (contar puntos) • Kaufman, Lord, Reese y Volkmann pusieron puntos al azar que eran mostrados en la pantalla durante 1/5 de segundo. De 1 a más de 200 puntos podían aparecer. El objetivo era contar cuántos puntos había. Resultados • Hasta 5 ó 6 puntos no había problemas. • Con más de 7 puntos se estimaba el resultado.

  28. 6to experimento (memorizar) Parece ser que solo podemos recordar de 6 a 7 elementos en nuestra memoria inmediata. Pero si cada elemento contiene mucha información, entonces la memoria inmediata puede recordar muchos bits de información. Por ejemplo, cada dígito contiene 3,3 bits de información. Entonces al recordar 7 números, se recuerda 23 bits

  29. 6to experimento (memorizar) Entonces, si elegimos elementos de gran variedad, podremos recordar mucha información. Información por item

  30. Conclusión del 6to experimento Hay que agrupar y recodificar aquello que nos cueste memorizar.

  31. Resultados al aplicar la conclusión del 6to experimento • El largo memorizado fue 9 elementos para binario y 7 para octales. • A medida que aumentaba la relación, se recordaban menos elementos. • Sugirieron que esto se debía a que no dominaban bien la técnica de re-codificación.

  32. Conclusiones • Tenemos limitaciones severas para percibir información y memorizarla. • Para aminorar dichas limitaciones, se debe manejar varias dimensiones a la vez y sucesiones de elementos multidimensionales. • La teoría de la información es útil para obtener información cuantitativa de estos aspectos.

  33. ¿Aplicaciones a las interfaces? • ¿Cómo diseñar la interfaz de un sistema, de forma que sea “fácil” recordar sus múltiples opciones y funcionalidades? • ¿Ventajas entre una interfaz gráfica y una textual? • ¿Cómo se utiliza la multidimensionalidad gráfica en una interfaz? • ¿Cómo se podría utilizar lo ya aprendido para acelerar el proceso de aprendizaje ?

  34. Aplicaciones a las interfaces • No basar las interfaces en la memoria. Probar con el reconocimiento de formas multidimensionales. • Utilizar íconos, dado que manejan muchas dimensiones simultáneamente. (Es fácil distinguir entre cientos de íconos). • Utilizar elementos para las interfaces que permitan el agrupamiento de elementos similares (menús, ventanas, etc.) • Conocer la capacidad de transmisión de cada tipo de señal. • La redundancia dimensional permite reforzar o brindar más información a una única señal. • Diseñar sistemas que manejen múltiples dimensiones gráficas para expresar múltiples dimensiones de información. • Construir nuevos sistemas basándose en las estructuras gráficas de otros similares, para acelerar el aprendizaje.

  35. Críticas al artículo • Investigaciones posteriores (Cowan en 2001, p. ej.) revelaron que la capacidad depende de la categorías de los chunks usados. • Siete para dígitos. • Seis para letras. • Cinco para palabras. • E incluso en los componentes de los chunks. • Disminuye con el largo de las palabras. • Cowan propone cuatro como un número más adecuado para adultos.

  36. Otros límites en la transmisión de información

  37. algunas tareas bidimensionales representativas: • Target acquisition, pointing • Consiste en alcanzar y hacer clic sobre un objetivo estático. • Estudiado por la Ley de Fitts. • Constrained Linear and Circular Motion(movimiento constreñido lineal y circular) • Estudiados por Accot y Zhai. • Homing Time • Tiempo para cambiar de dispositivo de interacción teclado y viceversa. (estudiado en KLM-GOMS) • Pursuit Tracking (seguimiento y captura) • hacer clic sobre un objetivo en movimiento. • Free-Hand Inking (escritura a mano alzada). • Tracing and Digitizing (calcar o digitalizar).

  38. tiempos para apuntar y seleccionar: La ley de Fitts. Basado en el Artículo: Movement Time Prediction inHuman-Computer Interfaces I. Scott MacKenzie Department of Computing and InformationScience. University of Guelph. La tesis de doctorado de MacKenzie (1991) fue sobre la utilización de la Ley de Fitts como una medida de performance en HCI.

  39. Objetivo Disponer de algunos parámetros para medir el tiempo requerido para hacer una tarea. En particular: medir y predecir el tiempo invertido en algunos movimientos.

  40. La Ley de Fitts. Ley de Fitts (Paul Fitts en 1954) La dificultad de movimiento (o ID, por “índice de dificultad”) de las tareas puede ser cuantificada a través de la teoría de la información utilizando bits. ID= log2 (2A/W) Donde: • A es la distancia a desplazarse • W es la tolerancia de la región dentro de la cual el movimiento debe terminar.

  41. Diagrama original de Fitts (1954). W A

  42. Diagrama de Fitts actualizado(1992). Cursor y objetivo desplegados en un monitor

  43. Correlación entre dificultad (bits transmitidos) y tiempo para realizar la tarea. MT = b * ID MT = a + b*ID Si ID = 4 bits y es ejecutado en MT = 2 segundos  La información transmitida es 4/2 = 2 bits/segundo Ancho de banda = 2 bits/segundo a0 a=0

  44. Correlación entre dificultad (bits transmitidos) y tiempo para realizar la tarea. MT= b * ID MT= a + b * ID

  45. IDMT Error IP AaWa (bits) (ms) (%) (bits/s) ------------------------------------------ 8 8 1 254 0.0 4.3 8 4 2 353 1.9 6.1 16 8 2 344 0.8 6.4 8 2 3 481 1.7 6.4 16 4 3 472 2.1 6.6 32 8 3 501 0.6 6.2 8 1 4 649 8.8 6.3 16 2 4 603 2.1 6.8 32 4 4 605 2.7 6.7 64 8 4 694 2.5 5.9 16 1 5 778 7.0 6.6 32 2 5 763 3.4 6.6 64 4 5 804 2.3 6.3 32 1 6 921 8.5 6.6 64 2 6 963 3.3 6.3 64 1 7 1137 9.9 6.3 ------------------------------------------ Mean 645 3.6 6.3 SD 243 3.1 0.6 ------------------------------------------ a experimental units; 1 unit = 8 pixels Calculo de las variables a y b Cada fila es el resultado de 470 pruebas

  46. Resultados del experimento MT= 53 + 148*ID

  47. Resultados de otros experimentos Study Predict.equat. (ms) Bandwidth (bits/s) ----------------------------------------------------- Boritz et al., 1991 MT = 1320 + 430 ID 2.3 Epps, 1986 MT = 108 + 392 ID 2.6 MacKenzie et al., 1990 MT = -107 + 223 ID4.5 Han et al., 1990 MT = 389 + 175 ID 5.7 Card et al., 1978 MT = 1030 + 96 ID 10.4 Gillan et al., 1990 MT = 795 + 83 ID 12.0

  48. Reformulación del Indice de Dificultad (ID) Welford (1960) ID = log2(A/W + 0,5) puede dar valores negativos MacKenzie (1989) ID = log2(A/W + 1)  MT = a + b*log2(A/W + 1) • Ajusta mejor con las observaciones • Ajusta mejor con el Teorema de Shannon-Hartley • Siempre da positivo.

  49. W A= 0 1 2 3 4 5 6 7 Posible explicación de la fórmula de Fitts ID = log2 (A/W + 1) A / W + 1 = (A+W) / W Que se transmitan tres bits equivale a seleccionar uno en ocho

More Related