Título: La iteración persona-ordenador

Página 276-304

Resumen

Capítulo 6:  Dispositivos

En los últimos años, ha habido un notable avance en el rendimiento y la reducción de costos de los ordenadores, llevando a un aumento del número de usuarios. Este progreso se ha extendido a los dispositivos de interacción, reemplazando a los antiguos.

Además, se ha observado un surgimiento de nuevos dispositivos de interacción que complementan las computadoras de escritorio o se utilizan en nuevos estilos de interacción, como lápices para escritura manual, dispositivos de realidad virtual, hápticos, realidad aumentada y rediseños de dispositivos existentes para adaptarlos a nuevas necesidades, como kioscos. Este desarrollo ha sido impulsado por una creciente preocupación por los aspectos humanos de las interfaces.

En este capítulo, se revisa cómo se manejan los periféricos en las computadoras y se proporciona una visión general del estado actual de los dispositivos de interacción, abordando diversos ámbitos de aplicación, como ordenadores personales, entrada y salida por voz, y realidad virtual.

1. Gestión de los periféricos

Se emplea un protocolo multinivel que abarca desde programas de usuario hasta el hardware. Cuando un programa realiza una salida de información, se ejecuta una llamada al sistema operativo, que verifica permisos y posibles errores. En caso de que sea correcto se pasa la información al manejador del dispositivo, un conjunto de rutinas que convierte las peticiones del sistema operativo en órdenes específicas para el dispositivo.

El controlador del dispositivo es un hardware que comunica periféricos con el ordenador y se encarga de activar actuadores físicos según las señales del hardware de interacción. Para la entrada de datos a un programa, el hardware digitaliza señales físicas de sensores y las envía al controlador. Este comunica la entrada al manejador del dispositivo, y los programas pueden recibir estas entradas mediante llamadas al sistema.

Los programas de usuario no manejan directamente los recursos de entrada/salida; esto lo realizan las rutinas del sistema operativo. Esto proporciona ventajas como independencia del dispositivo y mecanismos de protección y compartición de recursos. La sincronización entre componentes puede ser mediante espera activa, encuesta o señales asíncronas. También puede haber circuitos adicionales para entrada/salida o transmisiones específicas, mejorando el rendimiento del ordenador.

2.Teclado

Es la forma más común de introducir información en una computadora, compuesto por un grupo de botones on-off que se usan individualmente o en combinación.

El diseño qwerty es ampliamente conocido, pero es considerado poco eficiente. El mecanismo es simple: al presionar una tecla, se cierra una conexión y se envía el código del carácter al ordenador, ya sea mediante cable o inalámbricamente.

La ergonomía del teclado incluye la presión y la distancia de viaje de las teclas. Algunos teclados son sensibles al tacto, pero pueden no ser prácticos para un uso intensivo. La cantidad y distribución de teclas depende de la función y tipo de información que se desea introducir.

La mayoría de los teclados tienen un buffer para almacenar caracteres antes de enviarlos al ordenador. Algunos teclados retienen los caracteres hasta que se presiona una tecla especial, lo que permite una transmisión eficiente. Se asignan múltiples valores a una tecla mediante teclas especiales de cambio. Las funciones de las teclas incluyen caracteres alfabéticos, numéricos, especiales, control del dispositivo y transmisión al ordenador.

Las necesidades de transferencia del teclado son bajas en comparación con la capacidad de la CPU.

Las características técnicas más importantes son:

  • Robustez
  • Número de caracteres y símbolos
  • Sensibilidad al toque
  • Ergonomía
  • Peso, tamaño y transportabilidad
  • Memoria local
  • Distribución de teclas
  • Carencia o presencia de teclado numérico
  • Consumo de energía
  • Formas de transmisión local y remota.

Tipos de teclas

Podemos distinguir:

  • Teclas mecánicas: compuestas por dos piezas metálicas que contactan al aplicar fuerza, vuelven a su estado inicial mediante un muelle de retorno cuando cesa la fuerza. Aunque son relativamente económicas, presentan inconvenientes. Los contactos metálicos causan rebotes en la conexión y desconexión, generando falsos contactos antes de estabilizarse, lo que debe eliminarse para evitar lecturas incorrectas. Con el tiempo, los contactos metálicos se oxidan y ensucian, degradando la calidad de la conexión.
  • Teclas de membrana: son un tipo especial de teclas metálicas, formadas por una estructura de tres capas plásticas que componen el conjunto del teclado. La capa superior contiene una pista conductora delgada que pasa por debajo de cada fila de teclas, la capa del medio tiene un agujero en la posición de cada tecla, y la capa inferior cuenta con una pista conductora delgada por debajo de cada columna de teclas. Cuando se presiona una tecla, la capa superior entra en contacto con la capa inferior a través del agujero en la capa del medio. Estas teclas permiten la construcción de teclados delgados y compactos.
  • Teclas capacitivas: aprovechan la variación de capacidad que ocurre cuando se presiona la tecla y los dos contactos se acercan. La detección de la variación de capacidad permite determinar si la tecla ha sido accionada. Se requiere circuitería adicional para convertir el cambio de capacidad en niveles lógicos válidos. La principal ventaja de este tipo de teclas es que los contactos no se oxidan ni se ensucian.
  • Teclas de efecto Hall: basadas en detección de movimiento de carga se valen de un campo magnético. Al presionar la tecla, se induce el movimiento de un cristal semiconductor por un campo magnético, cuyas líneas son perpendiculares a una corriente circulante en el cristal. Amplificando el pequeño voltaje generado en el cristal debido al cambio del campo magnético, se puede detectar la activación de la tecla. Aunque este tipo de teclas es costoso.
  • Teclas inductivas: funcionan al hacer pasar un imán a través de una bobina al presionar la tecla. La corriente inducida en la bobina por el movimiento del imán permite determinar qué tecla ha sido accionada. Estas teclas también tienen un tiempo de vida largo.

Cómo funcionan

Para teclas individuales o teclados con pocas teclas se pueden realizar a través de un puerto de entrada, donde cada línea del puerto detecta el estado de una tecla. Sin embargo, cuando el número de teclas es grande, se utiliza una estrategia de matriz para ahorrar hardware y simplificar la interfaz. En esta configuración, cada tecla tiene un terminal conectado a una fila y otro a una columna. Para detectar la activación de una tecla, se excita una fila del teclado y se lee el estado de las columnas.

Cuando se trata de teclados mecánicos, es necesario tener en cuenta y eliminar los rebotes en la conexión o desconexión de las teclas.

El teclado QWERTY          

El diseño de los dígitos y las letras en los teclados está fijado, pero la disposición de otras teclas puede cambiar. Este posicionamiento no es óptimo debido a limitaciones de las máquinas de escribir. La solución fue poner las combinaciones de teclas más comunes en puntos extremos del teclado para evitar atascos.

Los teclados franceses utilizan una disposición ligeramente diferente llamada “azerty” por las primeras teclas en la primera fila de letras empezando por la izquierda.

Composición de teclado

La disposición actual del teclado QWERTY tiene sus raíces en las máquinas de escribir del siglo XIX.

En la década de 1920, se propuso el teclado DVORAK, que reducía las distancias de viaje de los dedos y aumentaba las pulsaciones de los expertos.

Sin embargo, a pesar de sus ventajas, la adopción masiva del teclado QWERTY ha dificultado el cambio, y aún hoy se sigue utilizando ampliamente. Otras opciones ergonómicas mantienen la distribución de las teclas, pero dividen el teclado en dos zonas, cada una asociada a una mano, conocidas como “teclados partidos” o “split.

3.Pantalla

Es el dispositivo de salida más común conocida como la unidad de visualización, que consiste en un monitor que presenta caracteres y gráficos en una pantalla. Estos monitores pueden tener tubos de rayos catódicos o pantallas más pequeñas de cristal líquido o electro luminiscente.

Un terminal, que consta de un teclado y una pantalla (o monitor de vídeo), es la forma común de acceder a un ordenador. Puede considerarse un periférico independiente, conectado al computador a través de un enlace, o ser parte integrante de los computadores personales. Para controlar el monitor, se requiere un controlador específico llamado controlador de vídeo. En el caso de computadores personales, estos controladores se diseñan en tarjetas independientes llamadas tarjetas controladoras de vídeo, lo que ha llevado a un desarrollo significativo de tarjetas con altas prestaciones y bajos costos.

Esta subdivisión describe los fundamentos de los monitores y las tarjetas controladoras de vídeo.

Monitores de vídeo

La palabra “pantalla” es utilizada para referirse a la Unidad de Representación Visual (VDU en inglés, Video Display Unit), o Unidad de Visualización, la cual consiste en una superficie rectangular de cristal sobre la cual se presentan los caracteres, gráficos e imágenes de un computador, utilizando principalmente un tubo de rayos catódicos (TRC en castellano, CRT en inglés).

Fundamento físico del tubo de rayos catódicos

Los sistemas de visualización a través de una pantalla de tubo de rayos catódicos (TRC) están compuestos por un monitor que alberga el TRC y la electrónica de control asociada y una fuente de alimentación.

El controlador de TRC, también conocido como interfaz TRC. En el caso de ordenadores personales, la tarjeta controladora de vídeo está conectada directamente a los buses del sistema, mientras que el monitor es un componente separado. En algunos casos, el controlador de vídeo puede integrarse en el mismo monitor.

La operación del TRC implica la emisión de un haz de electrones dirigido a la pantalla, donde al chocar con el fósforo provoca la emisión de luz y forma puntos luminosos. El barrido de la pantalla se realiza desviando el haz horizontal y verticalmente mediante placas deflectoras. Los monitores en blanco y negro y en color utilizan principios similares, pero en los monitores a color, se emplean tres cañones de electrones para los colores primarios (rojo, verde y azul).

Los monitores se clasifican en monocromo y a color, y pueden ser alfanuméricos o gráficos. Ofrecen características como enrollado, doble página, pantalla partida, atributos de caracteres y control del cursor. Además, presentan propiedades técnicas como colores, tamaño de pantalla, capacidad alfanumérica y gráfica, señales de entrada, tipo de barrido y conexión al computador.

Las características clave de los monitores incluyen su velocidad, capacidad de reescritura, economía, confiabilidad y capacidad bidireccional cuando se utilizan con un teclado. Las características técnicas adicionales se refieren a la resolución, el tamaño de la pantalla y las opciones de conexión al computador.

Tarjetas controladoras de vídeo

Tiene como función preparar la información que se visualizará en un monitor y generar las señales analógicas necesarias para atacar los circuitos electrónicos. Esta tarjeta realiza la conversión de la información que debe mostrarse en una señal eléctrica de vídeo. Cuenta con una memoria RAM de vídeo, que actúa como memoria local del controlador y almacena la información que se mostrará en la pantalla. Esta memoria local reduce la carga en los buses del sistema, ya que el refresco de la pantalla requiere accesos frecuentes a la memoria.

La cantidad de información que la tarjeta debe manipular depende del tipo de monitor que controlará. La información está codificada en la memoria de vídeo de la tarjeta, cuyo tamaño variará según el tipo de monitor.

Existen dos modos típicos de funcionamiento de las tarjetas controladoras de vídeo:

  • Funcionamiento en modo texto: se utiliza principalmente con pantallas monocromas y se basa en el empleo de un generador de caracteres. En este modo, todos los caracteres representables están almacenados en el generador de caracteres. Cada carácter tiene asociada una matriz de puntos que indica cuáles deben iluminarse para dibujar el carácter en la pantalla. Se requiere un bit por punto en la matriz, y el tamaño de estas matrices está relacionado con la resolución del monitor. La memoria de vídeo se utiliza para almacenar el código del carácter que se mostrará en cada posición de texto. La visualización se realiza consultando al generador de caracteres.
  • Funcionamiento en modo gráfico: se utiliza con monitores en color y algunos monocromos. La información a almacenar es por cada punto, y se organiza en planos, donde cada plano tiene un bit por punto. Esta organización permite codificar el color o nivel de gris asociado a un punto. La cantidad de memoria necesaria en la tarjeta controladora se determina por el número total de puntos del monitor, la paleta de colores y la resolución.

El generador de barrido tiene la tarea de leer la memoria de vídeo y transformar la información en señales analógicas para gobernar el tubo de rayos catódicos del monitor. Este bloque genera señales que sincronizan y controlan las bobinas deflectoras del TRC, así como la señal que modula el haz de electrones para lograr la imagen correcta.

Es crucial que toda la memoria de vídeo se lea cada 20 milisegundos, lo que implica que se pueda escribir, al menos parcialmente, durante ese tiempo. En el modo texto, se lee la memoria para extraer el código del carácter a representar y se utiliza este código como índice para leer la matriz correspondiente en el generador de caracteres.

El aumento de la memoria de vídeo implica un mayor flujo de información desde la CPU y requiere una mayor potencia de cálculo. Para abordar esto, muchos monitores gráficos tienen su propio hardware gráfico para realizar cálculos y procesamiento de imágenes.

En el ámbito de los computadores personales, existen diversas tarjetas controladoras de vídeo

            Pantallas de cristal líquido

Son más pequeñas que las pantallas convencionales de tubo de rayos catódicos y han experimentado un gran desarrollo tecnológico, impulsando en la popularidad de portátiles (laptops).     Se basa en el giro de moléculas transparentes de cristales especiales. Al aplicar un campo eléctrico, se modifica el ángulo de polarización de las moléculas, alterando la cantidad de luz que puede atravesar el cristal. Esto permite cambios de color en puntos muy localizados, posibilitando altas resoluciones.

Entre las características principales de una pantalla LCD se encuentran:

  • Relación de contraste: es la diferencia de brillo entre las zonas más claras y oscuras
  • Velocidad de refresco: es el tiempo necesario para actualizar la información sin producir estelas ni imágenes manchadas
  • Tamaño: medido en pulgadas.
  • Bajo consumo de energía
  • Relación de aspecto: ancho y alto de la pantalla
  • Peso

Los ordenadores portátiles han adoptado pantallas LCD durante años, y las últimas generaciones ofrecen una competencia real a las pantallas tradicionales de tubo de rayos catódicos (TRC), superando las limitaciones anteriores en términos de imagen, calidad, tamaño y prestaciones.

Problemas de salud con las pantallas TRC

Los problemas de radiación en las pantallas incluyen:

  • Absorción de rayos X
  • Radiación UV e IR de los fósforos en niveles insignificantes
  • Campos electrostáticos
  • Emisiones de radiofrecuencia y ultrasonidos, así como campos electromagnéticos que pueden inducir corrientes en materiales conductores, incluyendo el cuerpo humano. Se han atribuido dos clases de efectos a estos campos electromagnéticos: trastornos en el sistema visual y afectaciones en la reproducción, como abortos y defectos de nacimiento.

Se recomiendan medidas como:

  • Mantener una distancia adecuada de la pantalla
  • Evitar tipos de letra pequeña
  • No mirar constantemente la pantalla durante períodos prolongados, trabajar en entornos bien iluminados
  • No colocar la pantalla directamente frente a una ventana bien iluminada

4. Ratón

Es un componente crucial en la mayoría de los ordenadores personales y estaciones de trabajo. Se trata de una pequeña caja del tamaño de la palma de la mano que permite al usuario desplazar un puntero en la pantalla, especialmente útil para interactuar con interfaces gráficas. Aunque versátil, requiere espacio adicional al del teclado y puede presentar desafíos en entornos de computación ubicua.

Existen dos tipos principales de ratones:

  • Mecánicos: emplea una bola que se mueve sobre la superficie de la mesa, detectando su rotación mediante potenciómetros
  • Ópticos: utiliza diodos, fotodetectores y una almohadilla especial con líneas para detectar el movimiento sin partes móviles.

El ratón suele tener dos o tres botones que se utilizan para selecciones y acciones. Es un dispositivo preciso y útil para el dibujo y el diseño, aunque puede requerir cierta experiencia.

5. Trackball

Es un dispositivo similar a un ratón pero girado, con una bola pesada que se mueve dentro de una carcasa estática. Detecta el movimiento de la bola de manera similar a un ratón y no requiere espacio adicional, siendo compacto y preciso. Aunque puede ser incómodo para movimientos largos, se utiliza comúnmente en ordenadores portátiles. Permite reposar el antebrazo, proporciona retroalimentación táctil y puede integrarse en un teclado.

A diferencia de los ratones, no pueden salirse de la superficie de trabajo y se utilizan en modo relativo. Sin embargo, suelen ser menos útiles para tareas de dibujo o escritura a mano. La interacción con los botones asociados al puede ser complicada con una sola mano.

Otro dispositivo similar es el touchpad, utilizado en algunos portátiles. Detecta la capacitancia del dedo para calcular su posición absoluta. Estos dispositivos son compactos y permiten un control preciso sin apartar la vista de la pantalla.

6. Joystick

Es un dispositivo de entrada compacto que puede incorporarse dentro del teclado. Consiste en una caja del tamaño de la palma de la mano con un bastón que se levanta y se desplaza en todas direcciones. Utiliza potenciómetros para detectar los movimientos del bastón. Es un dispositivo económico y robusto. Opera en dos dimensiones y se utiliza en tareas que requieren dirección y velocidad sin necesitar una gran precisión.

7. Micrófono

Es un dispositivo que convierte la energía del sonido en energía eléctrica. Existen varios tipos de micrófonos, cada uno con su principio de funcionamiento específico.

  • Micrófono de carbón: utilizado en teléfonos, consta de un disco metálico lleno de granos de carbón y un diafragma metálico móvil. Las ondas sonoras hacen vibrar el diafragma, alterando la presión sobre los granos de carbón y variando la resistencia eléctrica. Esta variación se traduce en una corriente eléctrica que puede ser amplificada y digitalizada.
  • Micrófono de cristal: emplea cristales piezoeléctricos para generar un voltaje al aplicar presión. Las ondas sonoras hacen vibrar un diafragma, modificando la presión sobre el cristal piezoeléctrico, generando un pequeño voltaje que se amplifica.
  • Micrófono dinámico: incluye micrófonos de cinta y de bobina móvil. En el primero, una cinta metálica en un campo magnético genera voltaje por inducción electromagnética al vibrar con las ondas sonoras. El segundo utiliza una bobina de hilo fino en lugar de una cinta.
  • Micrófono de condensador: compuesto por dos láminas metálicas cercanas que actúan como un condensador. Las ondas sonoras alteran la distancia entre las láminas, cambiando la capacidad entre ellas. Suelen ser pequeños y requieren una fuente de alimentación adicional.

Las características clave de los micrófonos incluyen la respuesta en frecuencia, direccionalidad, sensibilidad e inmunidad a perturbaciones externas.

8. Altavoces

También conocidos como bocinas, son dispositivos electromecánicos utilizados para producir sonido audible a partir de voltajes de audio amplificados.

La mayoría de los altavoces modernos son de tipo dinámico. Estos altavoces cuentan con una bobina de cable muy ligero que se encuentra dentro del campo magnético generado por un potente imán permanente o un electroimán. Cuando una corriente eléctrica variable proveniente del amplificador atraviesa la bobina, se modifica la fuerza magnética entre la bobina y el campo magnético del altavoz. Esta variación en la fuerza magnética provoca vibraciones en la bobina, y estas vibraciones, a su vez, se transmiten mecánicamente a un diafragma o un cono vibrante grande unido a la bobina. Estas vibraciones generan ondas sonoras en el aire, reproduciendo así el sonido deseado.

Salida de sonido

El sonido se destaca como un mecanismo claro de interacción para proporcionar a los usuarios información sobre el estado actual del sistema. Algunos investigadores sugieren que el sonido puede ser utilizado como un método de codificación para enriquecer las representaciones gráficas. En sistemas complejos, se argumenta que el uso de sonidos con una relación directa con el proceso representado puede ser beneficioso.

 Además, se presenta como una herramienta valiosa para aquellas personas que no pueden ver, ofreciendo una forma alternativa de percepción y comprensión del entorno o de la información.

Tipos

Distinguimos:

  • Sonido musical: usado en interfaces de propósito general está en una fase inicial y su valor puede variar según los usuarios.
  • Sonido natural

9. Interacción usando el lenguaje

El lenguaje hablado es un medio natural de comunicación que ha sido fundamental en el desarrollo humano y en la interacción con el entorno.

A pesar de la complejidad del reconocimiento de voz, se han realizado intentos, aunque con éxito parcial.

Diferentes métodos de interacción basados en el lenguaje incluyen:

  • Reconocimiento del habla: también conocido como voz-a-texto, es una tecnología que permite a los ordenadores convertir la voz en texto. Hay dos tipos principales de reconocimiento de voz:
    • Reconocimiento de órdenes
    • Dictado de voz: puede ser:
      • Discreto: requiere pausas entre cada palabra
      • Continuo: tiene tales limitaciones.

Existen diferentes métodos:

  • Reconocimiento de voz: sistemas de palabras aisladas que requieren pausas entre palabras y tienen un vocabulario limitado
    • Sistemas de reconocimiento de voz continua: pueden identificar palabras en secuencia.
    • Sistemas pueden ser dependientes del hablante: requiriendo entrenamiento previo con la voz de los usuarios
    • Sistemas independientes del hablante: sin restricciones en el reconocimiento de cualquier usuario.
  • Síntesis de voz: conocida como texto-a-voz, es la tecnología que permite a las computadoras producir sonidos que emulan la voz humana al leer texto en voz alta. Es una tecnología que requiere menos potencia y no depende de hardware de alta calidad.
  • Identificación y verificación de la persona por el habla: son tecnologías relacionadas que se centran en reconocer la identidad de la persona en lugar de comprender el contenido de lo que dicen. En la identificación de la persona que habla, se utiliza tecnología para intentar identificar a una persona. Por otro lado, la verificación de la persona que habla busca garantizar que la persona que habla es realmente quien dice ser, aplicando el concepto de “mi voz es mi contraseña”.
  • Comprensión del lenguaje natural (NLU: Natural Language Understanding): es una tecnología que posibilita que los ordenadores comprendan el significado de las palabras habladas o del texto escrito. Representa la próxima generación de tecnología de voz en el mercado, permitiendo que las computadoras comprendan preguntas u órdenes en lenguaje natural, no solo interpretando las palabras, sino también su sentido.

Usos

Podemos distinguir:

  • Ordenes habladas: el reconocimiento de órdenes es una aplicación común en el software actual y se relaciona con el reconocimiento de palabras o frases cortas. El software que utiliza esta tecnología tiende a caracterizarse por el uso intensivo del teclado para comandos individuales, estructuras de menú complejas, operación manos libres, cambios frecuentes de modalidad (transición entre teclado y ratón) y entradas repetitivas.
  • Dictado por la voz: encuentra un uso significativo en la manipulación de grandes cantidades de texto y en la creación de informes especializados. El software que aprovecha esta tecnología incluye aplicaciones de procesamiento de texto a. Además, esta tecnología se integra con operaciones manos libres y con la comprensión dellenguaje natural
  • Síntesis de la voz:  tiene diversas aplicaciones. Algunas de las características necesarias para estas aplicaciones incluyen la capacidad de revisar grandes volúmenes de texto, confirmar órdenes y selecciones, y operar en condiciones que requieran atención auditiva en lugar de visual.

Existen dos métodos principales para la síntesis de voz:

  • Concatenación: implica grabar registros digitales de voz humana real en el ordenador. Estos registros pueden almacenarse por frases o segmentos de palabras, y luego se pueden combinar para construir nuevas frases organizando las palabras en el orden correcto. Aunque este método presenta algunos problemas
    • Síntesis por reglas: no se utiliza directamente la voz humana. La síntesis se controla mediante reglas de fonemas y reglas relacionadas con el contexto de una frase. Al utilizar fonemas, las unidades más pequeñas de sonido que cambian una palabra, el sistema puede teóricamente articular un vocabulario indefinido de palabras.

Ambos métodos tienen sus propias características y consideraciones, pero en conjunto, la síntesis de voz a partir de texto ofrece una solución valiosa para diversas aplicaciones centradas en la voz.

  • Identificación y verificación de la persona por la voz: tiene aplicaciones en entornos donde puede haber varios usuarios en un mismo sistema o cuando es crucial contar con controles de acceso seguros. Algunas características y aplicaciones clave de esta tecnología incluyen:
    • Configuraciones de muchos usuarios o personalizadas: permite reconocer y adaptarse a las preferencias o perfiles de diferentes usuarios en un sistema.
    • Derechos de acceso seguros: proporciona un nivel adicional de seguridad al autenticar la identidad a través de la voz.
    • Elementos de la interfaz de usuario dedicados a control de accesos y restricciones para usuarios: integra funciones específicas en la interfaz de usuario para gestionar el acceso y las restricciones basadas en la identificación vocal.
    • Bloqueo y desbloqueo de elementos: permite la capacidad de bloquear y desbloquear elementos o funciones del sistema mediante la autenticación de la voz.
  • Comprensión del lenguaje natural: abre amplias posibilidades de aplicaciones. Algunas de las áreas en las que se pueden aprovechar estas tecnologías incluyen:
    • Aplicaciones de Preguntas y Respuestas
    • Sistemas Expertos
    • Aplicaciones con Agentes del Tipo Wizard
  • Sistemas de Acceso a Bases de Datos para la Resolución de Problemas:
  • Motores de Búsqueda de Bases de Datos, incluyendo Internet:
  • Sistemas de Interrogación y Respuesta

Ejemplos

Algunos de ellos son:

  • Sistema Festival Speech Synthesis
  • Text-to-audiovisual-speech
  • IBM Voice: donde distinguimos tres modalidades:
    • Via Voice Execute
    • Via Voice Office
    • Via Voice Home
  • Dragon Naturally Speaking
  • In Cube

Resumo do Livro guia bussiness week para apresentações em Multimédia.

página 80- 91

Neste capitulo abordaremos a diversidade de pacotes de animação, desde ferramentas simples e acessíveis até aquelas de nível profissional com curvas de aprendizado mais extensas. Enquanto os pacotes mais básicos automatizam funções difíceis, eles podem não oferecer a flexibilidade necessária para aqueles com conhecimento em animação tradicional. Além disso, são mencionadas as capacidades de animação em programas de modelagem 3D e ferramentas de autoria de multimídia. O parágrafo também discute programas de captura e edição de vídeo digital, destacando a predominância no mercado para Mac e a disponibilidade do Adobe Premiere para ambas as plataformas. Esses programas permitem a captura, compressão e edição de vídeos, com a possibilidade de criar arquivos digitais compatíveis com QuickTime no Mac ou Video for Windows (AVI) no Windows. A flexibilidade desses formatos permite trabalhar com vídeos de maneira semelhante a outros arquivos digitais. No final, é mencionada a capacidade de reprodução em diferentes ambientes, desde que o sistema seja compatível com os formatos QuickTime ou AVI.

apresenta informações sobre software de edição de vídeo, efeitos especiais, captura e edição de som, bem como ferramentas de gerenciamento de mídia em apresentações multimídia. Destaca a variedade de efeitos especiais disponíveis em pacotes de edição de vídeo, incluindo a popularidade das técnicas de morphing e distorção de imagem. Também menciona a diversidade de software de edição de som, variando de utilitários básicos a ferramentas profissionais, e destaca a importância de escolher um editor de som compatível com os formatos desejados. Além disso, aborda a integração de música e MIDI nas apresentações e a disponibilidade de arquivos MIDI pré-preparados. Por fim, discute a importância das ferramentas de gerenciamento de mídia na organização eficaz de elementos multimídia em projetos digitais.

Existem diferentes categorias de software relacionado a apresentações multimídia. Inclui software de apresentação capacitado para multimídia, destacando sua longa existência e popularidade na criação de imagens para diversos fins. Em seguida, discute programas profissionais de apresentação, que oferecem recursos mais avançados, como a adição de elementos de mídia diretamente na apresentação, ferramentas de pintura, transições de imagens e características de interatividade.

Além disso, menciona o software dedicado de integração de mídia, uma categoria mais recente projetada especificamente para apresentações multimídia. Esses programas fornecem uma estrutura para consolidar diversos elementos em uma única apresentação, embora a linha que os separa de outras categorias seja incerta. Destaca a sobreposição de funções e características entre essas categorias de software.

Software de Desenvolvimento de Multimídia Profissional Apresentações complexas de multimídia – qualquer situação na qual o criador do grama deseje um roteiro de ações complexas e conexões – geralmente requerem uis potència do que a fornecida pelas ferramentas de integração de mídia e presentações de slides. As ferramentas de desenvolvimento profissional, que picamente custam US$70012 ou mais, são projetadas para criar vários níveis de teratividade, incluindo a capacidade de capturar ou ler dados de um sutrio/público e customizar ações baseadas naquela informação.

Inclui software de apresentação capacitado para multimídia, destacando sua longa existência e popularidade na criação de imagens para diversos fins. Em seguida, discute programas profissionais de apresentação, que oferecem recursos mais avançados, como a adição de elementos de mídia diretamente na apresentação, ferramentas de pintura, transições de imagens e características de interatividade.

Além disso, menciona o software dedicado de integração de mídia, uma categoria mais recente projetada especificamente para apresentações multimídia. Esses programas fornecem uma estrutura para consolidar diversos elementos em uma única apresentação, embora a linha que os separa de outras categorias seja incerta. Destaca a sobreposição de funções e características entre essas categorias de software.

A segunda parte do trecho discute a categoria de software de desenvolvimento de multimídia profissional. Esse tipo de software é destinado a apresentações complexas que exigem maior potência e interatividade, geralmente custando mais de US$700. Esses programas utilizam linguagens de roteiro para ampliar as capacidades do software, permitindo a criação de ações complexas e conexões. No entanto, requerem um conhecimento sofisticado de técnicas e princípios de programação.

A parte final do trecho aborda a categoria de sistemas de execução e exibição em apresentações multimídia. Discute a importância do hardware de execução, como dispositivos de reprodução e transporte, e das opções de exibição, incluindo monitores, projetores CRT e LCD, e painéis de projeção LCD. Também destaca a influência das escolhas de execução e exibição no processo de configuração do sistema multimídia.

Resumo Capítulo 4 – Manipulação direta e ambientes virtuais. Pag. 77 – 80

Neste resumo, vamos dar continuidade a discussão dos sistemas que incorporam algumas das características vistas no resumo passado.

1.3 Gerenciamento espacial de dados
O gerenciamento espacial de dados são diversos os usos potenciais de aplicações cuja abordagem é o gerenciamento espacial de dados.

Vamos ver um exemplo a titulo de ilustração, uma aplicação militar pode oferecer a um oficial da Marinha um sistema de rastreamento de navios baseado no mapas e em zoom contínuo. Assim o oficial pode identificar comboios de navios como pequenos pontos no meio do oceano. Após selecionar os pontos, o oficial pode fazer um zoom, que pode ser implementado a partir de um movimento com o mouse (Clica-se o botão direito do mouse e arrasta-o para direita para aumentar o nível de zoom, ou para esquerda para diminuir). A medida que os objetos vão se tornando mais visíveis, mais detalhes a respeito deles vão se ficando disponíveis (Prefixo do navio, foto, nome e matrícula de seu comandante, etc.).

Por tanto, o sucesso dos sistemas de gerenciamento espacial de dados depende da habilidade dos projetistas na escolha de ícones, representações gráficas, e leiautes de dados com apelo natural e compreensível aos usuários. A satisfação de pairar sobre um objeto e explorá-lo com o zoom atrai e seduz até o mais ansioso dos usuários, que demanda poder e informações adicionais.

1.4 Video games

Considera-se que é na área de “games”, que muitos dos conceitos que estamos a apresentar são aplicados de forma mais efetiva. Como por exemplo, vejamos o que acontece com uma pessoa jogando um antigo e elementar video game, o pong (Figura 37).

Figura 37 – – Pessoas jogando o pong

Tudo que o utilizador tem de fazer é mexer um botão da direita para esquerda e verá um elemento gráfico se mexendo na tela que representa sua raquete. Tudo que um novo utilizador precisa fazer para aprender a jogar o jogo é observar outro jogador em ação por não mais que uns trinta segundos. Jogos mais modernos promovem competição entre jogadores que podem inclusive morar em países diferentes, possuem gráficos tridimensionais e em alta resolução, além de interfaces gestuais. Esses jogos propiciam diversão estimulante, desafios para novos utilizadores e experientes e muitas lições que podem ser empregadas em outros projetos. Esses jogos criam um campo de ação visual convincente. Os comandos são ações físicas cujo resultados são exibidos imediatamente na tela. Não existe nenhuma sintaxe que deva ser memorizada e, portanto não há mensagens de erro. Se utilizador acha que a sua espaçonave está muito para esquerda, ele simplesmente move o joystick para direita. Se a brincadeira é de luta de boxe, ele pode interagir utilizando nada mais que seu próprio corpo, dando socos no ar. As mensagens de erro são dispensáveis, pois as ações são óbvias e facilmente reversíveis. Esses princípios podem ser aplicados em aplicações voltadas para escritório, computação pessoal ou outros domínios de sistemas interativos.

Entretanto, é importante salientar que existem diferenças importantes entre o ambiente de diversão e o de trabalho que devem ser consideradas pelo projetista. A pletora de recursos multimodais oferecidos ao utilizador em ambiente de jogo pode ser vista como distração para um funcionário em um escritório. No jogo há muitos eventos aleatórios projetados para desafiar o jogador, utilizadores em outro ambiente de interação preferem que o sistema tenha comportamento previsível. Jogadores estão normalmente envolvidos em competições com outros jogadores ou mesmo com o sistema. Em um ambiente de escritório, por exemplo, a colaboração é mais valorizada do que a competição e o lócus de controle interno (utilizador no comando) é mais importante do que o externo.

1.5 Projeto auxiliados por computador

Os sistemas de CAD (Computer Aided Design, figuras abaixo), concebidos
para auxiliar engenheiros e arquitetos enquanto projetam automóveis, circuitos integrados, espaços interiores, etc., também se valem dos conceitos de manipulação direta. O engenheiro eletrônico, por exemplo, pode ver um esquema de circuito na sua tela e, com uns cliques de mouse, mover resistências e capacitores para dentro do circuito ou ainda trocar por outros de diferentes especificações. Quando o projeto é concluído, o computador pode fornecer informação sobre corrente, voltagem, custos de fabricação,
além da fazer uma checagem técnica do projeto à busca de eventuais imperfeições no projeto.

Figura 38 – Modelo de projeto auxiliado por computador
Figura 39 – Modelo de projeto auxiliado por computador

O que satisfaz os utilizadores desse tipo de aplicação é a capacidade de manipulação direta do objeto de interesse e as múltiplas possibilidades criadas a partir dessa manipulação. Isso é bastante diferente da antiga interação feita a partir da emissão de comandos via teclado.

Página: 19 á 28

4º Resumo

A verdade se revelou lentamente .Meus trabalhos de pesquisa conduziram-me ao estudo do erro humano e de acidentes industriais. Os seres humanos, eu descobri, nem sempre se comportam desastradamente. Os seres humanos não eram sempre. Mas o fazem quando as coisas que usam são mal concebidos e mal projetados . Não obstante ainda vemos o erro humano levar a culpa por tudo que acontece com a sociedade.

A historia da porta ilustra um dos princípios mais importantes do design: VISIBILIDADE. As peças corretas tem de estar visível ,e devem transmitir a mensagem correta. No caso de portas de empurrar o designer precisa fornecer sinais que indiquem naturalmente onde empurrar. Esses não precisam destruir estética. Ponha uma placa vertical do lado que deve ser empurrado e nada no outro. Ou deixe os pilares de sustentação visíveis . A placa vertical e os pilares de sustentação são sinais naturais, interpretados naturalmente, sem nenhuma necessidade de se estar consciente deles, Eu denomino o uso de sinais naturais de DESIGN NATURAL e falarei com mais detalhe sobre essa abordagem longo do presente livro.

Computação : Interação Humano Computador 07º Resumo

pagina 69-75

Uma vez com apoio do guia da uma impressão que tal tarefa é uma tarefa simples , porem confecionar uma interface boa o suficiente para atendar as necessidades de um grupo seleto de indivíduos exige muito dos projetistas , onde será exigida muita atenção para analisa e interpretar cada cenário que será feito pelo futuro utilizador. Como por exemplo ,numa empresa temos um Administrador que é responsável por um grupo de de funcionários, onde temos uma situação de um formulário com um design que não respeita o respetivo guia , que fez com que tal tarefa da empresa fosse feita com baixa performance e isso não agradou muito o administrador,provocando uma situação onde o administrador reclame dos funcionários e estes reclamem também que o formulário era muito trabalhoso e difícil para ser preenchido.

3. Projeto participativo

Dado a situação acima , mostra o peso da importância de envolver teste com os usuários nas varias etapas do desenvolvimento Interativo, onde esse envolvimento é capaz de fornecer dados precisos acerca das tarefas que pertencem ao escopo do sistema, também mais oportunidades desses utilizadores influenciar diretamente nas escolhas para o projeto, assim facilitam uma possível maior aceitação futura da aplicação, deixando assim o produto final mais próximo dos seus consumidores finais.

Alem disso convém ao projetista saber quão longe pode ir esse sentimento de inclusão/envolvimento, que como tudo deve estar bem balanceado, sendo que se o envolvimento for muito extenso , poderá tanto aumentar o tempo para conclusão do projeto devido a todas as demandas dos seus users. Todavia os users que não estão envolvidos no processo de desenvolvimento interativo iram futuramente oferecer alguma resistência ao no sistema pelo facto de não terem sido levantadas os requisitos necessários para uma satisfação face conteúdo no sistema e aos gostos e necessidades de cada user, sendo que também a ma seleção de usuários com alguma incompetentes o resultado de uma analise com as informações desses tipos de usuários pode induzir o projetista a projetar uma interface com péssima qualidade na tentativas de tentar satisfazer as demandas desses grupo.

Desenvolvido por Muller em 1992, o método PICTIVE é uma abordagem tradicional para design colaborativo de interfaces. Nele, os usuários constroem protótipos de baixa fidelidade usando papelão, etiquetas e fita adesiva. O papelão funciona como uma tela em branco na qual os próprios usuários criam elementos interativos, como botões.
Depois de concordarem sobre como interagir, os usuários gravam vídeos deles mesmos interagindo com o protótipo. Com uma liderança eficaz, esta abordagem incentiva o surgimento de formas inovadoras de interação que tornam o processo interessante para os usuários.
É crucial que os usuários se comprometam com o projeto, participem de reuniões regulares e cumpram os prazos. Por serem muitas vezes profissionais de áreas diferentes, podem estar ocupados em outros departamentos e ter outras responsabilidades. Portanto, aderir à agenda do projeto e cumprir os prazos é fundamental para o sucesso da abordagem PICTIVE.

4. Desenvolvimento baseado em cenários

Normalmente esta fase de Desenvolvimento de interfaces no processo Interativo, consiste em criar os cenários com base nos requisitos funcionais levantadas durante uma entrevista ou aplicação de um formulário de levantamento de requisitos. Uma vez que algumas pessoas fazem essa parte para fazer a projetar as demandas de os seus futuros users e é construido um diagrama de casos de usos que mostra diretamente que cenários serão aplicados ao sistema e que personagens iram participar no funcionamento do sistema.

Após ser feita esse diagrama de casos de uso , normalmente é construido um outro denominado diagrama de Atividade ou State Machine em inglês , onde numa tabela dividida por todos os participantes/Personagens do sistema incluindo o próprio sistema como participante, onde mais tarde ira descrever como é que cada cenário desenvolve dentro do sistema e que determinadas etapas um cenário pode atravessar ate a sua conclusão, sendo que tal cenário pode ser inicializado pelo Personagem para satisfazer um Requisito ou também pode ser feita pelo sistema, de forma a fornecer todos os requisitos necessários para a continuação da tarefa pretendida, abrangendo todos os envolvidos desde o mais novatos ou mais experientes.

Diagrama de Atividade exemplo de desenvolvimento de um cenário

Ou seja, o diagrama acima mostra exatamente como é que um determinado estudante que esta preenchendo um formulário, este aperta para fazer a submissão e o restantes do diagrama explica como a sua intenção flui dentro do sistema ate retorna um informação contendo uma resposta para a tentativa de submissão feita anteriormente.

5. Impacto social

Cada Interface construida pelo sistema de Desenvolvimento Interativo de Interface tem um grande impacto no dia-a-dia de qualquer pessoa ou organização, pelo simples facto de que ambos dependem desse sistema para realizar as suas tarefas.

Contudo, para reduzir os riscos do desenvolvimento e implementação é imprescindível ter bem documentado todos os aspetos importantes que iram possivelmente afetar a usabilidade do utilizador no decorrer de alguma tarefa, prevenindo assim futuros constrangimentos numa situação de tomada de decisões importantes para a vida de um individuo ou instituição.

Este documento será distribuído a todos os usuários do sistema de forma prevenir o mau uso de uma aplicação, assim prevenindo erros por parte dos utilizadores mas também dá a possibilidade de esses utilizadores apresentarem possíveis sugestões de melhorias para futuras manutenções/atualizações produtivas para esse grupo de modo a impulsionar a eficiência de resolução de uma tarefa.

Isto tudo afeta também o custo do projeto que se for corrigido ainda e fase inicial será capaz de ser mais barato o custo da resolução do que em etapas mais avançadas.

Nas Linhas abaixo podemos encontrar um guia para a construção de um documento de Impacto Social proposto em 1997 por Shneiderman e Rose :

Descreva o novo sistema e seus benefícios

  • Transmita os objetivos de alto nível do novo sistema;
  • Identifique os stakeholders;
  • Identifique os benefícios específicos

Aborde preocupações e potenciais barreiras

  • Antecipe mudanças em funções de trabalho e potenciais demissões;
  • Aborde questões relacionadas a segurança e privacidade;
  • Discuta responsabilidades por mal uso e falha do sistema;
  • Evite julgamentos direcionados;
  • Discuta direitos individuais e benefícios sociais;
  • Avalie questões acerca de até que ponto sistemas devem ser centralizados
  • ou descentralizados;
  • Preserve princípios democráticos;
  • Assegure acessibilidade;
  • Mantenha a simplicidade e preserve o que funciona

página 32

2.3.2.1 OBJECTIVOS DO UTILIZADOR

Alan Cooper destaca a importância dos objetivos do usuário no design de produtos digitais. Ele ressalta que simplesmente ter um produto tecnologicamente perfeito não é suficiente. É crucial entender e atender aos objetivos dos usuários para criar um design que os satisfaça. Muitos produtos digitais no mercado falham ao ignorar esses objetivos, resultando em interfaces problemáticas que dificultam a comunicação com os usuários. Cooper identifica uma lista de falhas comuns nesses produtos:

  1. Fazer os usuários parecerem estúpidos.
  2. Permitir que os usuários cometam erros graves.
  3. Exigir um grande esforço do usuário para realizar tarefas de forma eficiente.
  4. Não proporcionar uma experiência agradável e envolvente.

Esses erros são frequentes, já que, muitas vezes, as metas comerciais ultrapassam as expectativas e objetivos dos usuários, resultando em uma experiência desagradável nos produtos digitais.

Empresas que desenvolvem produtos digitais estão se esforçando para torná-los mais amigáveis aos usuários, buscando compreensão e alterações na estrutura das aplicações. No entanto, esses esforços muitas vezes são ineficazes, pois a fase de design de interfaces geralmente ocorre após a programação da aplicação. Isso contrasta com a importância do planejamento alinhado aos objetivos do usuário. Cooper compara esse cenário ao da construção de um prédio, onde, uma vez iniciada a construção, o design não pode ser facilmente alterado. Essa mesma abordagem deve ser adotada no desenvolvimento de produtos digitais para garantir sua adequação aos objetivos dos usuários.

2.3.3 PROCESSOS DE DESENVOLVIMENTO (WEBSITES, APLICAÇÕES DIGITAIS)

O Design de Interfaces varia conforme o produto, exigindo habilidades específicas. De acordo com Cooper, um designer eficaz precisa entender propriedades visuais como cor, tipografia, forma e composição para criar interfaces gráficas envolventes. É crucial transmitir comportamento e informações para induzir respostas desejadas.

Esses profissionais devem dominar os princípios da linguagem de interação e da linguagem visual das interfaces para moldar o comportamento do produto. No desenvolvimento de websites e produtos digitais, etapas de design e implementação são essenciais. A implementação de um website requer prototipagem detalhada e testes de usabilidade para garantir sua eficiência.

Robin Landa descreve 10 fases cruciais no desenvolvimento de um website ou produto digital:

  1. Planejamento do projeto: Orientação, análise e definição de objetivos, formação de uma equipe profissional.
  2. Briefing criativo: Estratégia relacionada à identidade visual da marca, posicionamento e público-alvo.
  3. Estrutura do website ou produto digital: Planejamento de conteúdo, arquitetura de informação e desafios tecnológicos. Uso de wireframes como guias visuais para mostrar a estrutura da página e possíveis caminhos de navegação.

Claro, aqui está a síntese das etapas restantes:

   1.Delinear conteúdo: Definir o conteúdo que será apresentado no website ou produto digital. 2.Design conceitual: Criar um design baseado na identidade da marca, estratégia e briefing.

3.Desenvolvimento do design visual: Criar estruturas base, definir métodos de visualização, paleta de cores, estilos tipográficos, elementos gráficos, integração de mídia, entre outros.

4.Resultados tecnológicos: Avaliar os resultados das soluções tecnológicas utilizadas.

5.Protótipo: Criar uma versão inicial do produto para testes e refinamentos.

6.Tecnologia: Implementar soluções técnicas, versões alpha, beta I e II.

7.Implementação: Lançar o produto, promovê-lo, realizar atualizações e testes de usabilidade para garantir seu funcionamento eficaz.

Até Página 35

Formulação do problema

A formulação do problema é um passo crucial no processo de pesquisa, envolvendo a identificação e definição clara de uma dificuldade teórica ou prática de real importância. Esse processo requer clareza, concisão e objetividade, preferencialmente apresentado de forma interrogativa e delimitado com indicações das variáveis relevantes. A formulação do problema exige um pensamento reflexivo contínuo, combinando conhecimento prévio do assunto com imaginação criativa.

A gravidade de um problema está relacionada à importância dos objetivos e à eficácia das alternativas. A caracterização adequada do problema simplifica a pesquisa, enquanto um problema muito abrangente a torna mais complexa. Após a formulação, é necessário analisar o problema quanto à viabilidade, relevância, novidade, exequibilidade e oportunidade.

A concepção de um problema científico muitas vezes envolve relacionar variáveis independentes com o fenômeno em estudo. Existem diferentes tipos de problemas, como problemas de estudos acadêmicos (descritivos, informativos, explicativos ou preditivos), problemas de informação (coleta de dados observáveis), problemas de ação (aplicação de conhecimentos) e investigação pura e aplicada (relacionados ao conhecimento científico ou sua aplicabilidade).

Ao formular um problema, é essencial responder às perguntas: “O quê?” e “Como?”, estabelecendo as bases para as etapas subsequentes da pesquisa.

Definição dos Termos

A definição dos termos tem como objetivo torná-los claros, compreensíveis, objetivos e apropriados, evitando interpretações errôneas. Isso contribui para uma melhor compreensão da realidade observada. Alguns conceitos podem ser bem ajustados aos objetivos, enquanto outros menos usados podem gerar ambiguidades. As divergências muitas vezes surgem de diferentes teorias ou áreas do conhecimento. Portanto, é crucial definir, esclarecer e explicitar os termos. O pesquisador está interessado nos conceitos que as palavras indicam, nos aspectos da realidade que representam. Existem dois tipos de definições: simples, que traduzem o significado de termos menos conhecidos, e operacionais, que, além do significado, utilizam exemplos para tornar claro o conceito, relacionando-o à experiência no mundo extensional.

Construção de Hipóteses

O processo de construção de hipóteses desempenha um papel crucial na pesquisa científica, sendo uma proposição formulada para verificar a validade de respostas a problemas específicos. Essas suposições, embora provisórias, orientam a busca por informações e explicam fenômenos. A clareza na definição dos termos é essencial, e as hipóteses devem ter embasamento teórico, servindo como guias na investigação. Os resultados da pesquisa podem confirmar ou rejeitar as hipóteses, levando a reformulações e novos testes. Há desafios na formulação, como a falta de um quadro teórico claro, dificuldades lógicas e desconhecimento de técnicas de pesquisa. Mesmo em estudos exploratórios, a formulação de hipóteses, conhecida como hipótese de trabalho, é fundamental para alcançar interpretações mais profundas e úteis.

Indicação de Variáveis / Delimitação da Pesquisa

O texto aborda aspectos importantes no planejamento de uma pesquisa, destacando a necessidade de indicar claramente as variáveis dependentes e independentes ao formular o problema e a hipótese. Além disso, enfatiza a importância de delimitar a pesquisa, estabelecendo limites em termos de assunto, extensão e fatores como recursos humanos, econômicos e prazo.

O autor menciona três níveis de limites propostos por Ander-Egg: relacionados ao objeto (variáveis no fenômeno estudado), ao campo de investigação (tempo e espaço) e ao nível de investigação (estágios exploratórios, de investigação e de comprovação de hipóteses). A escolha entre estudar todo o universo da pesquisa ou apenas uma amostra é discutida, destacando a importância da representatividade e significância da amostra selecionada.

O método de amostragem é apresentado como uma alternativa quando não é possível pesquisar todos os indivíduos devido a limitações de recursos ou tempo. A eficácia desse método depende da representatividade da amostra e da inclusão de características proporcionais ao universo total

Métodos de Amostragem, Seleção de Métodos e Técnicas, Organização do Instrumental de Pesquisa

1. Amostragem:

  • Amostra é uma parcela selecionada do universo ou população.
  • Processos de determinação da amostragem são detalhados em capítulos subsequentes.

2. Seleção de Métodos e Técnicas:

  • Métodos e técnicas são escolhidos desde a proposição do problema até a delimitação do universo ou amostra.
  • A escolha depende da natureza do problema, das hipóteses, dos recursos financeiros, da equipe e outros fatores.
  • Métodos e técnicas devem se adequar ao problema, às hipóteses e aos informantes envolvidos.
  • Em pesquisas, utiliza-se uma combinação de métodos e técnicas, dependendo do caso.

3. Organização do Instrumental de Pesquisa:

  • A elaboração dos instrumentos de investigação é uma etapa crucial no planejamento da pesquisa.
  • Obras sobre pesquisa científica oferecem esboços práticos para montagem de formulários, questionários, roteiros de entrevistas, escalas de opinião, etc.
  • A organização do material de pesquisa inclui dois aspectos: organização para a investigação e arquivamento de ideias e fatos acumulados.
  • Fichários são indicados, incluindo os de pessoas, de documentação e dos “indivíduos” pesquisados.
  • Arquivos devem conter resumos de livros, recortes de periódicos, notas e outros materiais organizados para ampliação de conhecimentos.

Teste de instrumentos e procedimentos

O teste de instrumentos e procedimentos é essencial para garantir a validade de uma pesquisa. O método mais comum para essa verificação é o teste-preliminar ou pré-teste, que consiste em aplicar os instrumentos a uma pequena parte da população antes da implementação definitiva. Isso visa evitar resultados falsos e avaliar a capacidade dos instrumentos em fornecer resultados livres de erros. Realizar o pré-teste em 5 a 10% do tamanho da amostra é geralmente suficiente. Investigadores experientes devem conduzir o pré-teste para avaliar a validade dos métodos. Dificuldades na coleta de dados, como falhas em questionários, podem surgir, e o pré-teste ajuda a identificar e corrigir esses problemas antes da aplicação final. Para assegurar perspectivas científicas sólidas, é necessário considerar a fidelidade dos instrumentos, precisão dos testes, objetividade e validade das entrevistas e questionários, além do critério de seleção da amostra. O pré-teste pode ser aplicado a uma amostra aleatória representativa ou intencional e, quando conduzido rigorosamente, resulta em uma pesquisa-piloto.

Execução da Pesquisa : Coleta de Dados/ Elaboração dos Dados

Coleta dos Dados Na fase de coleta, são aplicados instrumentos e técnicas para obter os dados planejados. Essa etapa demanda paciência, perseverança e esforço do pesquisador, além de um registro cuidadoso. O alinhamento entre tarefas organizacionais e científicas é crucial, e o planejamento prévio reduz o desperdício de tempo no trabalho de campo. O controle rigoroso na aplicação dos instrumentos evita erros.

Técnicas de Pesquisa: Diversas técnicas, como coleta documental, observação, entrevista, questionário, formulário, medidas de opiniões, técnicas mercadológicas, testes, sociometria, análise de conteúdo e história de vida, são utilizadas de acordo com as circunstâncias.

Elaboração dos Dados: Após a coleta, os dados passam por seleção, codificação e tabulação antes da análise.

  • Seleção: Exame minucioso para detectar falhas ou erros e evitar informações confusas.
  • Codificação: Transformação dos dados em símbolos, categorizando e atribuindo códigos para facilitar a tabulação. Requer critérios do codificador.
  • Tabulação: Disposição dos dados em tabelas para verificar inter-relações. Parte da análise estatística, facilita a compreensão e interpretação rápida. Pode ser manual ou mecânica, dependendo do projeto.

Análise e Interpretação dos Dados

O texto aborda a fase de análise e interpretação dos dados em uma pesquisa, destacando a importância dessa etapa no núcleo central do processo investigativo. A análise envolve a busca por relações entre o fenômeno estudado e outros fatores, utilizando métodos lógicos dedutivos e indutivos. Esse processo compreende três níveis: interpretação, explicação e especificação, visando ampliar o conhecimento sobre o fenômeno.

A interpretação, por sua vez, busca dar um significado mais amplo às respostas, conectando-as a outros conhecimentos. Isso envolve a exposição do verdadeiro significado do material apresentado em relação aos objetivos da pesquisa. A construção de tipos, modelos e esquemas, assim como a ligação com a teoria, são elementos importantes nessa fase.

Para uma análise e interpretação eficazes, é essencial um planejamento bem elaborado da pesquisa e consideração da complexidade ou simplicidade das hipóteses ou problemas. O texto destaca ainda alguns aspectos que podem comprometer o êxito da investigação, como confusão entre afirmações e fatos, incapacidade de reconhecer limitações, tabulação descuidada, procedimentos estatísticos inadequados, erros de cálculo, defeitos de lógica, parcialidade inconsciente do investigador e falta de imaginação.

Em resumo, a análise e interpretação dos dados são etapas cruciais que exigem rigor metodológico, conexão com a teoria e atenção a possíveis armadilhas que podem comprometer a validade da pesquisa.

Resumo 6

Este livro é em parte uma tentativa de imaginar a natureza dessa nova experiência, delinear suas propriedades de antemão.

No início da década de 1960, McLuhan fez a célebre observação de que viver com tecnologias elétricas e mecânicas ao mesmo tempo era “o drama peculiar do século XX”. O grande drama das próximas décadas vai se desdobrar sob as estrelas cruzadas do analógico e do digital.

Como o coro da tragédia grega, filtros de informação vão nos guiar através dessa transição,
traduzindo os zeros e os uns da linguagem digital nas imagens mais conhecidas, analógicas, da vida cotidiana. Essas metáforas, esses mapeamentos de bits virão para ocupar praticamente todas as facetas da sociedade contemporânea: trabalho, divertimento, amor, família, arte elevada, cultura popular, política. Mas a forma propriamente dita será a mesma, apesar de suas muitas aparências, a labutar continuamente nessa estranha nova zona entre o meio e a mensagem. Essa zona
é o que chamamos de interface.

Capitúlo dois

O desktop

O desktop

“O princípio da arquitetura gótica”, disse Coleridge certa vez, “é a infinidade tornada imaginável”. O mesmo poderia ser dito da interface contemporânea. Assim como os arcobotantes de Chartres traduziam o reino dos céus em pedra, o espaço-
informação do monitor corporifica “torna imaginável” o de outra forma invisível cotilhão de zeros e uns a rodopiar por nossos microchips. É claro que, em retrospeto, pode nos parecer que as coisas eram fáceis para os primeiros mapeadores de bits, como
Doug Engelbart e Ivan Sutherland. Estavam tentando representar um sortimento modesto de bits e bytes, informação que não encheria um disquete. Os designers de interface de hoje se defrontam com uma tarefa muito mais assustadora: os gigabytes de dados armazenados na maior parte dos discos rígidos para não mencionar a infinita épica da World Wide Web.

Antes de Gutenberg, as catedrais eram as grandes máquinas significantes da vida pública. Mais que meras construções, implicavam um modo de olhar para o mundo, uma
ordem sagrada, um senso de proporção. Num tempo em que a alfabetização em massa era inimaginável, as catedrais serviam como uma espécie de texto popular feito de vitrais e gárgulas.

Esse sistema de signos funcionava em diferentes escalas. Podia-se, é claro, ler a história de Cristo nas pedras cinzeladas em impossível detalhe, mas podia-se também tomar distância suficiente para ver a catedral em relação ao burgo que a rodeava. Mais que qualquer outra, essa história era crucial, inescapável todas as demais narrativas estavam envoltas nela, como tramas secundárias num romance em três camadas. Uma cidade de cabanas, telhados de colmo e casas simples de um só pavimento em tomo das agulhas majestosas da catedral. Cem vezes maior que qualquer outra estrutura construída, e cem vezes mais
elaborada, a catedral se erguia no centro mesmo do burgo fisicamente, é claro, mas também espiritualmente.

Resumo 5

Conforme o autor é dito que daqui a 20 ou 30 anos todos verão uma explosão dos parasitas televisivos com uma espécie de esquisitice evolucionária, umancestral distante que partilhava alguns fios de DNA cultural comas espécies contemporâneas, mas nunca chegou a vingar emseu próprio ecossistema.

As metáforas não se dão bem no mundo analógico da televisão, em que o sinal não tem mais maleabilidade do que os botões de contraste e saturação dos aparelhos. Mas o mundo digital é uma outra história.
O mundo e a fronteira rica, expansível dos computadores pessoais, caixas automáticos de banco, videodiscos, World Wide Webs, comunicadores pessoais, agentes inteligentes, é o planeta ativo dos filtros de informação. As formas parasitas são um benefício marginal na TV analógica, um floreio. No mundo digital elas são um fato da vida.

Informação digital sem filtros é coisa que não existe, por razões que ficarão cada vez mais claras, á medida que parte cada vez maior da cultura se traduzir na linguagem digital de zeros e uns, esses filtros assumirão importância cada vez maior, ao mesmo tempo que seus papéis culturais se diversificarão cada vez mais, abrangendo entretenimento, política, jornalismo, educação, e mais. O que se segue é uma tentativa de ver esses vários desenvolvimentos como exemplos de uma idéia mais ampla, uma nova forma cultural que paira em algum lugar entre meio e mensagem, uma metáfora que vive no submundo entre o produtor e o consumidor de informação. A interface é uma maneira de mapear esse território novo e estranho, um meio de nos orientarmos num ambiente desnorteante.

Décadas atrás, Doug Engelbart e um punhado de outros visionários reconheceram que
a explosão da informação poderia ser tanto libertadora quanto destrutiva e sem uma rnetaforma para guiar por esse espaço-informação, correríamos o risco de nos perder no excesso de informação. Uma prova do poder e da radiação dessa idéia é o fato de a própria televisão ter adotado alguns dos seus valores básicos ao longo dos últimos anos, ainda que na canhestra forma bidimensional de Mystery Science Theater e Talk Soup.

O restante deste trabalho estará voltado para o destino dessa metáfora no mundo digital, já que esse é seu hábitat natural. Mas o sucesso misto dos parasitas na sopa analógica da
televisão do século XX demonstra uma idéia importante, que será um tema recorrente neste livro. Nenhuma forma cultural significativa brota plenamente realizada. Há sempre um período de gestação em que as divisões entre os diferentes gêneros, convenções ou tipos de meio são menos definidos. Esses pontos de transição podem ser desorientadores para as sociedades que os experimentam, e parte dessa desorientação é de um tipo
taxonómico, a confusão de criar categorias para coisas que não são facilmente categorizáveis, e de perceber relações entre elas.

As páginas precedentes podem parecer ter aumentado
essa confusão. Aparentemente, Talk Soup e um caixa automático de banco não têm muito em comum. Por que emparelhar Butt-n head com World Wide Web, quando ele pertence tão claramente à televisão? A resposta é que as formas culturais nem sempre são redutíveis ao meio físico que as sustenta. Muitas vezes as parelhas são tão estranhas que não se tornam visíveis por décadas. Suponhamos uma viagem imaginária no tempo até
Moscou por volta de 1924, em que informaríamos Sergei Eisenstein que sua sofisticada inovação da montagem cinematográfica iria transformar por completo a indústria da música popular através da edição rápida, saturadora da retina, da maioria dos vídeos da
MTV.

A história da inovação cultural está apinhada dessas alianças improváveis. O artifício do “fluxo de consciência” introduzido por Joyce em Ulisses se desenvolveu a partir dos
monólogos do drama shakespeariano, da introspeção psicológica de William James e Freud, e da nova “ciência” da publicidade, orientada para os impulsos. (Joyce faz de um
agente publicitário, Leopold Bloom, o herói de sua Odisséia dos tempos modernos, embora a profissão ainda estivesse engatinhando.) A afirmação de que o fluxo de consciência
“pertence” ao meio do romance faz sentido num ambiente acadêmico extremamente especializado, mas representa uma terrível injustiça para com a verdadeira história do artifício.

Resumo 4

Theater é considerado tão negligente e míope quanto que só
valoriza a obra de Europeus Brancos do Sexo Masculino Mortos.
Certamente é possível falar sobre a televisão sensacionalista e o
romance como análogos tendo que admitir que Beavis e Butt-head
no cânone das Grandes Obras. O Shakespeare foi considerado a MTV de seu tempo os como os aficcionados do pop gostam de relembrar, isso não significa
necessariamente que a recíproca seja verdadeira.

Qualquer pessoa que pense seriamente que a MTV é o Shakespeare do tempo atual
provavelmente faria bem em desligar o cabo da televisão por alguns meses, só para pôr tudo isso em perspetiva.
Apesar das pregações das cassandras pop, a mediocridade geral das formas parasitas não é um sinal do declínio da civilização ocidental, ou da estreiteza da mente
norte-americana. Os programas podem ser considerado na sua maioria tolos e unidimensionais, e comparado só um pouco melhor do que a interrupção de um espetáculo teatral por um bêbado, mas não e deve lançar a culpa por essas limitações sobre alguma
conspiração para “idiotizar” nosso entretenimento de massa. Se as suas metáforas acabarem de fato ficando aquém dos gabaritos culturais costumeiros e todos os resultados iniciais indicam que ficarão com a deficiência que sugere um padrão mais
interessante, que chega a funcionar quase como uma lei geral na evolução dos tipos de meios de comunicação. As metaformas parecem tão decepcionantes porque estão assumindo uma missão simbólica que excede a capacidade de seu meio.

Os novos parasitas continuam parasitas porque são, numa palavra, quentes demais para seu ambiente. Flutuam por nossas telas de televisão como sugestões e insinuações, um vislumbre do futuro escondido nas roupas gastas e restritivas do passado, como um
corpo cubista ataviado com espartilhos e renda. São fantasmas de tecnologias que estão por vir.