resumo pag 54-64

O autor continua falando sobre prototipos de alta e baixa fidelidade dando exemplos , como por exemplo no cenario de elaborar um site para um cliente. A primeira coisa a fazer é aprovar o projeto de como será́ este site e os protótipos começam a se mostrar excelentes ferramentas aqui, explicando que na hora de aprovar é melhor utilizar protótipo de baixa fidelidade, e não um layout (que é um protótipo

de alta fidelidade) e nunca mostre uma solução funcional de cara.

Depois o autor fala sobre as diversas ferramentas que podem ser usadas na construcao destes protótipos. Desde o lápis e papel até ferramentas mais arrojadas como o Axure (que gera wireframes funcionais e navegáveis), resaltando que o mais importante é escolher a ferramenta mais adequada para você e sua equipe.

O autor continua falando sobre wireframes, mas ja foi abordado nos resumos anteriors e dele da exemplos do processo dele que comeca sempre com lapis e papel e vai evoluindo dependo da tarefa e do projecto em si.

Validação de layouts

Essa etapa vai sempre depender das anteriores , onde cada nova etapa valida a anterior, e a etapa anterior for bem feita – a etapa seguinte será́ sempre mais tranquila. O autor  destaca que precisamos estabelecer as metas deste procedimento.desde O quê vamos validar? Quais serão os nossos parâmetros? O quê esperamos em termos de rendimento e performance? E tmb tem que ser definido qual aspecto do layout está sendo validado.

O autor resalta que os metodos seguintes de validação dos layouts é aconcelhavel ser por meio de análise heurística, priorizando a objetividade e evitando influências pessoais e caso as metas envolvam compreensão do usuário, tempo de realização e processamento de informações, procedimentos empíricos, como testes com usuários, são aconselhaveis. E para estes testes o autor fala que é necessário criar fluxos representativos do sistema, realizar testes locais ou remotos e analisar os resultados , ondea amostra de usuários deve ser de qualidade, focado na compreensão do comportamento do usuário durante o teste.

A aoutor depois realca que embora o Jakob Nielsen fale que não é necessário testar com mais do que cinco usuários,  para ele duas ou três pessoas que representem cada persona é mais do

que o suficiente para encontrar a maior parte das questões.

Monitoramento

Depois o autor aborda a etapa de monitoramento, ou seja acompanhar de perto, ver o que está acontecendo, e em caso de um produto interativo, podemos fazer isso de diferentes maneiras. Pense num app. por exemplo, podemos monitorar o uso do sistema se ele, por exemplo, fazer requisições ao servidor sempre que for acionado. Outra maneira, é acompanhar o que é discutido sobre o app. na

loja de aplicativos. Ler os reviews, entender os eventuais problemas reportados ali.

 Podendo assim descobrir muita coisa importante que podeos ter deixado passar no desenvolvimento ou ainda identificar diferentes maneiras que as pessoas usam nossos serviços e sistemas interativos. Coisas para as quais nem imaginamos usar aquilo que fizemos. Entender estes

usos e as particularidades dos usuários, seus problemas e como eles os resolvem é crucial para propormos melhorias no futuro.

E por fim o autor ressalta a importância de ferramentas como Google Analytics e CrazyEgg de form a coletar feedback e tambem fóruns e até sessões de grupo focal.

Computação : Interação Humano Computador 10º Resumo

pagina 78 -79

1.3 Gerenciamento Espacial de Dados

Neste tópico, falamos um pouco do uso de Gerenciamento Espacial de Dados em termos das possíveis aplicações no dia a dia de quem o utiliza. Em termos de aplicações Militares e Aeronáutica Civil é possível fazer o rastreamento dos seus assets/recursos que nessa caso podiam ser navios militares ou aviões de uma companhia de Transporte de Carga onde o rastreio é feito baseado em mapas e um zoom sobre o determinado assets no mapa podendo fazer zoom e visualizar a posição geográfica do mesmo, o que capacita as entidades responsáveis durante a tomada de decisões importantes com o auxilio da informação fornecido previamente, sendo toda essa informação fornecida pelo ARCGIS , onde ele é o responsável pelo manuseio e analise de informações geográficas e a capacidade de ver estatísticas geográficas por meio de construção de mapas com recurso a dados GIS, onde tudo isso é feito através da interpretação desses dados GIS ,exploração e modelagem , desde da aquisição ate a compreensão dos resultados.

Com Auxilio de poder computacional por meio de um software de analise espacial onde é feita a recuperação da informação, onde sua variação depende do numero de Tarefas e sua complexidade. A analise dessas áreas permite ao usuário saber se uma determinada região/área é adequada para realizar a operação pretendida e que impactos isso poderia ter na finalidade de uso, analisando também possíveis riscos afim de evitar possíveis perdas, com auxilio de tais ferramentas ao nosso dispor é possível saber qual será o melhor caminho a se seguir , onde podemos ver isso nos dias de hoje em aplicativos com Google mapa , Waze , Uber entre vários outros onde e possível ver o asset no mapa e realizar alguma operação, podendo ser visualizar e chamar um Uber de acordo com a sua proximidade de sua posição geográfica permitindo assim os condutores aloquem as suas viaturas em áreas que lhes permitem fazer o seu serviço de forma eficiente e os usuário terem a capacidade de saber que veiculo esta mas próximo e que preço ou tarifa será associado ao mesmo.

No exemplo abaixo mostramos com era feito controlo e a gestão de asset de um navio militar pelo seu capitão através do uso do Sistema da Xerox chamada Information visualizer que possui um conjunto de ferramentas que possibilitavam por meio de explorações animadas em 3D de edifícios , veículos ,diretórios e diagramas organizacionais

Sistema da Xerox

Os sistemas de gestão de dados espaciais são muito importantes para o nosso dia a dia e para a vida de quem os utiliza. A escolha de ícones, representações gráficas e layouts de dados que atraiam os usuários de maneira natural e fácil é fundamental para o sucesso desses sistemas. Os designers são responsáveis ​​por criar interfaces intuitivas e atrativas que permitem aos usuários explorar as informações de maneira fácil e eficaz. A satisfação de pairar sobre um objeto e explorá-lo ampliando e diminuindo o zoom atrai até os usuários mais ansiosos, que desejam recursos e informações adicionais.

DISEÑO DE INTERFACES – DAVE WOOD

Página 0 – 30

CAPÍTULO 1 – CÓMO COMUNICAR LA INTERFAZ

En este capítulo del libro nos relata que diseñar una interfaz implica un proceso muy difícil con el equipo de diseño de UI, usuarios y cliente. Este proceso es un ciclo en el que se tiene que investigar, buscar ideas, hacer pruebas y construirlo.

Aunque el diseñador gráfico es un puesto esencial, no hay que olvidar que es una parte de un equipo multidisciplinario, la comunicación empieza con las ideas y no al acabar el proyecto. El diseñador gráfico es un trabajo que va más allá de crear gráficos, el diseñador se encarga de la comunicación visual eficaz mediante imágenes y texto.

FLUJO

En el proceso del diseño, lo que puede aportar el diseñador gráfico recoge un gran alcance antes de volverse una tarea específica. Diseñar implica realizar un “flujo” durante todo el proceso interactivo, creando una experiencia agradable y estética para el usuario final. La interacción se explica como un bucle en el que se ven implicados causa-efecto-retroalimentación, en el cual el usuario experimenta ese flujo. La interfaz actúa como el control visible de ese flujo, y la usabilidad es el resultado de un flujo diseñado teniendo en cuenta al usuario

Parte 3

Páginas 76 à 90

  1. PROJECTOS
    2.1 PRINCIPAIS
    2.1.1 BOONZI MOBILE
    2.1.1.1 INTRODUÇÃO

Na era digital em constante evolução, as aplicações para smartphones se tornaram populares, especialmente no ramo das finanças pessoais, onde aplicativos concorrentes funcionam como rastreadores de despesas simples em forma de gráficos.

Apesar da maturidade do Boonzi Desktop no gerenciamento financeiro, a empresa reconhece a necessidade de inovar e acompanhar a crescente demanda por soluções móveis. Assim, surge o Boonzi Mobile, uma extensão do Boonzi para smartphones.

Esse novo aplicativo tem como objetivo oferecer a mesma eficiência do Boonzi Desktop no controle financeiro, adaptado para a experiência móvel, permitindo aos usuários gerir suas finanças de forma simples e eficaz em qualquer lugar.



2.1.1.2-Objetivos Principais do Boonzi Mobile:

  1. Integração e Sincronização:
  • Conexão com o Boonzi Desktop.
  • Sincronização entre múltiplos dispositivos.
  • Capacidade de registrar transferências entre contas e editar transações.
  1. Adaptação Multilíngue e Multimoedas:
  • Disponibilidade em Português ou Inglês.
  • Suporte a várias moedas.

Objetivos de Comunicação e Posicionamento da Marca:

  • Expansão para o mercado de aplicativos móveis.
  • Aumento do valor da marca com um produto mais abrangente.
  • Atrair novos clientes para a comunidade Boonzi.

A ênfase foi em garantir que o Boonzi Mobile oferecesse uma experiência familiar aos usuários do Boonzi Desktop. Elementos como navegação, ícones e conteúdos foram adaptados para a visualização em dispositivos móveis.

Em essência, o foco principal foi tornar o Boonzi acessível em qualquer lugar, simplificando o registro de despesas e enfatizando o controle financeiro preciso e a maximização das economias pessoais.


2.1.1.3 PRÉ-DESENVOLVIMENTO
No pré-desenvolvimento, a discussão de ideias e esboços é crucial para desconstruir conceitos existentes e explorar novas ideias. A evolução dos esboços, discussões com a equipe e pesquisa de tendências financeiras são partes essenciais desse processo. O moodboard resulta da pesquisa, consolidando imagens, cores e formas para definir as interfaces gráficas da aplicação.

2.1.1.4 DESENVOLVIMENTO — PROCESSO DE DESIGN
Durante o desenvolvimento, os wireframes, guias visuais sem uso de cor, desempenham um papel fundamental na estrutura de um produto digital. Constantes discussões com a equipe e o gestor de produto moldaram o layout. Exemplos de alterações incluem a evolução do menu das contas para seguir a coerência gráfica do Boonzi Desktop e a relocalização do saldo total na tela de transações, eliminado após considerações com os programadores sobre a viabilidade de um menu lateral semelhante ao Boonzi Desktop.



Multimédia

Hoje vamos dar sequencia ao resumo, começando da página 9 e página 10. A página 10 já é o segundo capítulo do livro

Resumo página 9:

O texto na página 9 ressalta a implementação atual das interfaces e a necessidade de organização e talento comercial na produção de projetos de multimídia, incluindo questões de propriedade e direitos autorais.

Além disso, destaca-se a complexidade da produção de multimídia, equiparando-a às habilidades diversificadas de figuras renascentistas como Leonardo da Vinci. O desenvolvedor de multimídia é descrito como alguém que precisa ter conhecimento detalhado em computadores, textos, artes gráficas, sons e vídeos, trabalhando em conjunto com outros especialistas. O texto conclui ressaltando que a implementação da multimídia em computadores é um episódio recente em uma série de avanços tecnológicos ao longo da história, destacando o desejo humano de expressão criativa e uso da tecnologia para liberar ideias. A citação de Glenn Ochsenreiter reforça a importância da multimídia na sociedade contemporânea.

Resumo página 10. Capítulo 2:

O Capítulo 2 explora o poder associado à comunicação escrita ao longo da história. Inicialmente, destaca o surgimento de textos e símbolos como formas de comunicação, remontando a cerca de 6.000 anos no Mediterrâneo, especificamente nas civilizações da Mesopotâmia, Egito, Suméria e Babilônia. Nesse período, apenas a elite, composta por membros do governo e sacerdotes, tinha a capacidade de ler e escrever os sinais pictográficos e cuneiformes.

A comunicação escrita tornou-se uma ferramenta de controle, transmitindo informações vitais sobre o governo, políticas e taxas. A escrita oferecia vantagens, pois não exigia memorização e só podia ser compreendida por aqueles que haviam aprendido a ler. A leitura, a escrita e o poder político estavam intrinsecamente ligados, sendo considerado uma afronta saber ler sem a autorização da classe social ou dos governantes.

O texto destaca a conexão entre as palavras e o poder, enfatizando que a habilidade de ler e escrever tornou-se fundamental para o poder e conhecimento. No contexto atual, a leitura é fundamental em muitas culturas modernas, e o texto continua a ser uma fonte de informações e influência. Conclui mencionando que, mesmo nos dias de hoje, o texto pode conferir status, como a obtenção de um título de doutor, e ressalta a importância contínua do poder associado às palavras.

resumo do livro pág. 134-155

Neste capítulo o livro vamos falar de tabelas, ou seja, como fazer tabelas, adaptando informações a elas e ainda como representar dados complexos em tabelas. As tabelas são necessárias para serem apresentados vários tipos de informações como por exemplo, resultados desportivos, relatórios de ações, horários de comboio, relatórios financeiros e programação da televisão. Desta forma, uma tabela é composta por linhas e colunas, desta forma, é necessário aprender como usamos os quatro elementos-chave para a sua criação; representar dados complexos usando tabelas; e ainda adicionar legendas para melhor idêntificação de tabelas. Portanto, as tabelas representam informações em um formato de grade. As Grids permitem compreender dados complexos, fazendo referência a informações sobre os dois eixos. Cada bloco na grade é referida como uma célula da tabela. Em HTML uma tabela é escrita linha por linha. Portanto, vamos compreender a estrutura básica de uma tabela. O < table> elemento é usado para criar uma tabela; Cada linha usa a abertura < tr> tag. (O tr significa linha da tabela.) e é seguido por um ou mais elementos na finalização da linha que você usar um fechamento tag. Desta forma, cada célula de uma tabela é representado usando um < td> elemento. (O td significa dados da tabela). Nos cabeçalhos da tabela, o < th> elemento é usado apenas como o < td> elemento, mas o seu objetivo é representar o título ou uma coluna ou uma linha. Às vezes é preciso as entradas em uma tabela para esticar em mais de uma coluna. O colspan atributo pode ser usado em um < th> ou < td> elemento e indica quantas colunas que a célula deve se deparar. Também podemos precisar de entradas em uma tabela para esticar para baixo em mais de uma linha. Assim o rowspan atributo pode ser usado em um < th> ou < td> elemento para indicar quantas linhas uma célula deve abranger. Existem três elementos que ajudam a distinguir entre o conteúdo principal do restante
, os títulos da tabela devem sentar-se no interior do < thead> elemento. o corpo deve sentar-se no interior do elemento. , o rodapé pertence dentro do elemento. Se a primeira linha da tabela contém apenas < th> elementos, então podemos achar que o editor insere um < thead>
elemento automaticamente. Parte da razão para ter separado < thead> e < tfoot> elementos é para que, se você tem uma tabela que é mais alto do que a tela (ou, se impresso, mais de uma página), em seguida, o navegador pode manter o cabeçalho e rodapé visível. Este destina-se a tornar mais fácil para os usuários para ver qual coluna os dados estão. Assim concluo este capitulo de ensinamento de criação e utilização de tabelas.

Título: La iteración persona-ordenador

Página 334-347

Capítulo 7:  Accesibilidad

Resumen

Es muy importante el diseño de interfaces de usuario ya que debemos considerar la diversidad humana para lograr la usabilidad universal, es decir, intentando evitar barreras innecesarias basadas en las características de grupos específicos.

Las diferencias individuales muchas veces se etiquetan como discapacidades, donde se abordarán las más comunes y se propondrán soluciones para abordarlas, proporcionando adaptaciones que beneficiarán tanto a personas con limitaciones mayores como aquellas consideradas “normales”, sobre todo en entornos de trabajo.

Asimismo, se señalarán que las soluciones tienen componentes genéricos y otros que deben ser complementados por desarrolladores individuales. Por último, se aborda la importancia de la accesibilidad y su verificación por parte de los desarrolladores.

1. La importancia del diseño universal

EGAN destaca la importancia de considerar las diferencias individuales, sobretodo en el caso de personas con discapacidades en el desarrollo de productos de software.

Algunos desarrolladores no estan dispuestos a invertir esfuerzos para hacer sus productos accesibles, ya que la percepción de las necesidades especiales no es suficientemente importante, pero es un error; debido a que un gran porcentaje de la población tiene algún tipo de discapacidad, y a menudo las empresas contratan a individuos con discapacidad.

Además, es importante cumplir con las regulaciones y leyes que estan relacionadas con la accesibilidad.

Por último, se destaca el potencial de la tecnología para romper barreras físicas y ofrecer oportunidades a personas con discapacidad, subrayando la necesidad de diseño de productos y servicios que sean fácilmente utilizables para este grupo.

2. ¿Qué es el diseño universal?

Es un proceso que busca crear productos reutilizables por la mayor cantidad de personas en diversas situaciones, siendo comercialmente viable. Se basa en los siguientes principios:

  • Uso equitativo: los productos deben ser asequibles y accesibles para personas con diversas habilidades.
  • Uso flexible: debe adaptarse a un amplio rango de preferencias y habilidades.
  • Uso simple e intuitivo: debe ser fácil de entender, independientemente de la experiencia del usuario, conocimiento, habilidades lingüísticas y nivel de concentración.
  • Información perceptible: debe comunicar información de manera efectiva considerando las condiciones ambientales y las habilidades sensoriales del usuario.
  • Tolerancia al error: debe minimizar los incidentes ambientales y las consecuencias adversas de acciones imprevistas.
  • Esfuerzo físico mínimo: debe ser utilizado de forma eficiente, cómoda.
  • Tamaño y espacio adecuados: debe tener un tamaño y espacio apropiado para la aproximación, alcance y uso por parte del usuario.

3. Tipos de discapacidades y soluciones

Algunas de las discapacidades más importantes son:

Deficiencias visuales: las más comunes son:

  • Color: el ojo humano contiene bastones y conos (especializados en el color) que son sensibles a la luz. Los defectos en la percepción del color pueden surgir de la falta de alguno de los tres tipos de conos, afectando a la visualización de ciertos colores. Este problema es más común en hombres que en mujeres debido a la relacion con el cromosoma X.

La falta de percepción del azul es el problema más grave. Esto puede ocurrir debido a la falta de centrada de los conos en áreas específicas del espectro de colores y al procesamiento cerebral para compensar colores ausentes.

Los diseñadores de interfaces no deben depender exclusivamente de colores para codificar conductas importantes.

  • Visión reducida: las discapacidades audiovisuales pueden ir desde una falta de agudeza visual hasta la completa falta de visión. Muchas interfaces actuales dependen de elementos gráficos, por lo que se debería ofrecer opciones a los usuarios con visión reducida para utilizar estos elementos en la medida posible. Sin embargo, cuando esta estrategia alcanza los límites y los usuarios no pueden depender de la información visual, se debe tratar el diseño de interfaces desde una perspectiva diferente.

Los ampliadores de pantalla como programas que permiten la ampliación de parte de la pantalla, facilitando la lectura para usuarios con dificultades visuales. Aunque ayuda a la visualización, pueden introducir a problemas de navegación y orientación.

Es importante que algunas aplicaciones pueden ofrecer ayudas de manera natural como los que proporciona Microsoft Windows tiene una utilidad llamada Ampliador, que se considera básica e insuficiente para las necesidades de los usuarios con discapacidades visuales.

  • Ceguera: cuando las deficiencias visuales impiden el uso de la información visual en las pantallas, es necesario cambiar el canal de comunicación, como por ejemplo utilizar la voz sintetizada o las tablas Braille actualizables como canales de output. En estos casos, la información gráfica se convierte en descripciones textuales, y las utilidades de revisión de pantalla leen el texto y lo reproducen a través de medios alternativos.

Los elementos gráficos descritos mediante etiquetas insertadas por los programadores con normas estandarizadas de intercambio de información. Sin embargo, hay un problema en la estructura serial del texto, ya que no permite el procesamiento paralelo como la información visual. Para esto, las utilidades de revisión de pantalla deben ofrecer información relevante de manera oportuna y guardan el resto hasta que el usuario lo solicite.

Auditivas: se enfrentan a menos problemas con las interfaces actuales, ya que la mayoría se basan en claves visuales. Sin embargo, a veces es necesario convertir cierta información en texto para que los usuarios puedan acceder a ella. Algunos mensajes de alerta son codificados con sonidos pueden llegar a ser problemáticos ya que este tipo de usuarios pueden no ser conscientes de los riesgos asociados a esta situación.

Otro problema es el caso de personas que utilizan el lenguaje de señas desde su nacimiento, ya que tienen vocabulario reducido; por lo que hay que prestar atención a su lenguaje y adaptar la interfaz para su comprensión.

Movimiento: algunas personas presentan dificultades para realizar tareas físicas. En este caso, a veces no son capaces de usar teclado o ratón y puedes preferir sistemas alternativos de entrada de datos.

Para esto es recomendable que las aplicaciones proporciones un interfaz de teclado lo más completo posible. En el caso de sistemas de entrada vocal, las aplicaciones pueden utilizar etiquetas asociadas a cada elemento del interfaz.

Para personas que utilizan teclado, pero tienen dificultades para controlar sus acciones los programas que filtran las pulsaciones pueden ser útiles, ya que captan y corrigen automáticamente repeticiones de letras, errores ortográficos o respuestas demasiado lentas.

Cognoscitivas: para tratar estos problemas es necesario planificar los sistemas informáticos para que las personas con dificultades cognitivas también puedan utilizarles, siendo la solución la sencillez y la evaluación con personas apropiadas.

La accesibilidad, una necesidad general

Muchas de las ayudas diseñadas para usuarios con necesidades especiales pueden ser útiles para personas sin necesidades especiales, como indican en el siguiente cuadro:

4. Accesibilidad en la web

La accesibilidad en la web es fundamental, y la Web Accessibility Initiative (WAI) aborda esta importancia.

Una web accesible proporciona un acceso sin precedentes para personas con discapacidades y el envejecimiento de la población.

Esto beneficia a otros usuarios y situaciones. El W3C y WAI promueven la evolución e interoperabilidad de la web, ya que estan respaldados por diversas organizaciones e instituciones.

Las áreas de trabajo de WAI incluyen asegurar que las tecnologías web permitan la accesibilidad, desarrollar guías y herramientas.

Además, los diseñadores de páginas web deben conocer la legislación sobre la accesibilidad en distintos países.

5. Comprobación de la accesibilidad

Para comprobar la accesibilidad de interfaces sin necesidad de depender de los usuarios con discapacidades, se pueden seguir las siguientes indicaciones:

  • Lista de recomendaciones
  • Utilizar solo teclado
  • Herramientas básicas de accesibilidad
  • Ampliación de pantalla
  • Cambiar tipos y tamaños de letras

Estas acciones pueden proporcionar una idea de cómo mejorar la accesibilidad de una aplicación. Es crucial recordar que existen organizaciones dispuestas a ofrecer ayuda para tratar estos problemas.

6. Conclusiones

Lograr llegar a la mayoría de usuarios es una meta para muchos sistemas interactivos, y para poder lograrlo es esencial adaptarse a la mayoría de las diferencias individuales. Aunque cada problema por separado pueda afectar a un porcentaje reducido de usuarios, la suma de todos los problemas significa que un gran número de usuarios podría estar fuera de los límites de la llamada normalidad. Además, muchas adaptaciones necesarias para hacer las interfaces más accesibles pueden beneficiar a personas que trabajan en condiciones inusuales.

La tecnología actual ofrece la ventaja de proporcionar igualdad de oportunidades en el mundo laboral y social a personas. Sin embargo, es fundamental que quienes diseñan estas herramientas se esfuercen por evitar imponer barreras o limitaciones.

Resumo da página 78 até 94

REDES DE COMPUTADORES

 As redes de computadores surgiram devido à necessidade da troca de informações entre computadores, possibilitando acessar dados que estão localizados fisicamente distantes. O principal objetivo de uma rede de computadores é permitir a comunicação e a troca de dados entre esses dispositivos.

Redes de computadores é um conjunto de dispositivos eletrônicos interconectados que compartilham recursos e informações. É importante entender que na maioria das vezes, o mais importante na utilização de uma rede de computadores não é o compartilhamento de recursos, mas sim, a troca de informações.

Existem dois tipos de rede de computador que são: Rede ponto-a-ponto e Rede Cliente Servidor.

Rede ponto-a-ponto é usado principalmente para conectar computadores, servidores e impressoras em uma rede. Em uma rede ponto a ponto, cada dispositivo pode atuar como cliente ou servidor, compartilhando recursos diretamente entre si sem depender de um servidor central.

Rede Cliente Servidor neste tipo de rede o papel do servidor é controlar todos os recursos do computador como impressoras, arquivos, softwares e sistemas de armazenamentos. As máquinas clientes e servidores são conectadas entre si por uma rede que possui maior desempenho e um alto nível de segurança.

As redes de computadores podem ser classificada por: PAN – Personal Area Network;  LAN – Local Area Network; MAN – Metropolitan Area Network; 4 WAN – Wide Area Network.

PAN – Personal Area Network: é uma rede de área pessoal que conecta dispositivos eletrônicos em torno de uma única pessoa. Essa rede é usada para a comunicação entre os dispositivos pessoais de uma pessoa como smartphones, tablets, fones de ouvido sem fio e outros dispositivos de mão.

LAN – Local Area Network: é uma rede de computadores que abrange uma área geográfica limitada, como uma residência, escritório ou campus universitário. O principal propósito de uma LAN é permitir a comunicação eficiente e a compartilhamento de recursos entre dispositivos na mesma área local.

MAN – Metropolitan Area Network: é um tipo de rede de computadores que abrange uma área geográfica como por exemplo países, continentes. Ela permite a comunicação a longa distância, interligando redes dentro de uma grande região geográfica.

TOPOLOGIA DAS REDES DE COMPUTADORES

A topologia tem como objetivo descrever como é uma estruturada uma rede de computadores, tanto física como logicamente. As topologias físicas mais utilizadas são: Topologia em barramento; Topologia em Anel e Topologia em Estrela.

PRINCIPAIS COMPONENTES

Uma componente de rede de computador são compostos por vários dispositivos, cada um deles com a sua função. O objetivo é dar funcionalidade e organização bem como prover a comunicação entre os diferentes componentes de uma rede. Os tipos de componentes são: os hubs, switches, o servidor, o cliente, bridge, gateway, e o ponto de acesso Wireless.

 O hub é um dispositivo que tem a função é interligar os computadores de uma rede local. O funcionamento do hub é simplesmente repassar o sinal vindo de um computador para todos os computadores ligados a ele.

 Switch um concentrador em uma rede que quando ele recebe um sinal de um computador de origem, ele entrega somente para o computador de destino. Isso acontece devido à capacidade em criar um canal de comunicação exclusivo que opera entre a origem e o destino.

 Servidor É um computador que disponibiliza recursos para a rede.

 Cliente É o computador que utiliza os recursos oferecidos pela rede.

 Bridge ponte de ligação entre uma ou mais redes.

Gateway é o equipamento que conecta os hosts à rede.

Ponto de acesso Wireless é um dispositivo de rede que permite a conexão de dispositivos sem fio a uma rede com fio existente.

MODOS DE TRANSMISSÃO

Existe três modalidades de transmissão por meio de linhas que são: simplex; Half-duplex; full duplex.

Simplex é um tipo de comunicação que que só tem único sentido, onde a transmissão de dados ocorre em apenas uma direção. Há um transmissor que envia dados e um receptor que recebe dados como por exemplo televisão e rádio.                                                                                            

Half duplex é um tipo de comunicação em que a transmissão pode ocorrer em ambas as direções, mas não simultaneamente. Isso significa que enquanto um dispositivo está transmitindo e outro está recebendo e vice-versa.

Full duplex é um tipo de comunicação no qual a transmissão pode ocorrer em ambas direções simultaneamente, isso significa que dois dispositivos podem enviar e receber dados ao mesmo tempo.

Os meios de transmissão de dados também podem ser físicos ou não.

Meios físicos

Os meios físicos mais utilizados na transmissão de dados são: cabo de par trançado; cabo coaxial e a fibra óptica.

Cabo de par trançado é um tipo de cabo que consiste em pares de fios de cobre entrançados uns aos outros para reduzir o ruído e minimizar a emissão de interferência eletromagnética para o ambiente.

Cabo coaxial é um tipo de cabo de transmissão que consiste em um condutor central, geralmente de cobre, envolto por uma camada isolante, uma malha condutora e um revestimento externo.

Fibra óptica é um meio de transmissão de dados que utiliza filamentos de vidro ou plástico extremamente finos para transmitir pulsos de luz que representam dados.

Resumo do livro

CONTEXTUALIZAÇÃO E EVOLUÇÃO DAS INTERFACES GRÁFICAS DIGITAIS

A interface Gráfica que hoje é possível observar em sistemas operativos, programas e aplicações passou por um longo processo de evolução como forma de aprimorar a interação e torná-la acessível. Em 1950, a interação com a interface era realizada por especialistas que inseriam cartões perfurados em computadores massivos, aguardando um resultado indicado por luzes caso o sistema correspondesse de forma positiva. O Computador Pessoal (PC) surgiu para introduzir maneiras inéditas de pensar e interagir com essas máquinas. Para que essa interação ocorresse, áreas como o design e a psicologia foram desenvolvidas com o objetivo de inserir esses novos utilizadores ao contexto em que se encontravam, resultando no surgimento de novos estilos de interfaces gráficas digitais. Para demonstrar o desenvolvimento da interface, esta dissertação de mestrado baseou-se na importância da interdisciplinaridade, no surgimento de novas áreas como Experiência do Utilizador (UX) e Interface do Utilizador (UI), e na análise do aparecimento de novos estilos que se desenvolveram devido a uma busca contínua de aprimoramento por parte de grandes empresas como a Microsoft, Apple e Google. Por meio de um estudo de casos e de conceitos históricos e científicos, o presente trabalho visa contribuir literariamente com o intuito de ampliar o interesse sobre o tema abordado e incentivar a criação de novos projetos gráficos e tecnológicos capazes de modificar nossa percepção do mundo, onde a premissa deve ser construída em prol da satisfação do elemento humano.


A Terceira Revolução Industrial, também reconhecida como Revolução um Tecnocientífica, teve início em meados do século XX, na época pós-Segunda Guerra Mundial. Engloba o período de maior progresso tecnológico, que não apenas envolveu o sistema produtivo, mas também se voltou para o campo científico, alterando as relações sociais e o cotidiano da sociedade. As tecnologias introduzidas, e que passaram a ficar ao alcance da população, alteraram as formas de comunicação, as informações começaram a ser disseminadas instantaneamente, alcançando pessoas em todo o mundo.

A quebra de limites físicos e essa conexão social, econômica, política e cultural tornaram-se conhecidas como globalização. Dada a necessidade, as Interfaces Gráficas presentes nos sistemas operacionais, programas e aplicações atualmente foram progressivamente aprimoradas ao longo do tempo. Avanços ao longo da história humana decorrem de progressos tecnológicos, melhores abordagens de desenvolvimento e a compreensão de que uma interface gráfica vai além do visual ou do próprio sistema; deve ser centrada no usuário e em suas capacidades. Com isso, o campo do design visual também teve progressos importantes, onde princípios e padrões foram elaborados para aprimorar a experiência de interação como objetivo principal, tornando-a agradável e acessível.

Para melhor entendimento dos avanços da representação visual ao longo do tempo, é essencial analisar o contexto permitindo aprofundar o conhecimento sobre o tema e, por conseguinte, fornecer fundamentos para novas pesquisas.

Para explicar como e por que foi conduzido este estudo histórico sobre as interfaces, tornou-se relevante realizar uma breve exposição das abordagens psicológicas e visuais dos conceitos que englobam o tema. Observando como o ambiente afeta a interpretação de símbolos em suas diversas significações, influenciando, portanto, as percepções humanas e suas interações.

Antes de começar uma investigação mais profunda sobre as esferas da psicologia cognitiva e gestáltica em uma interface gráfica digital, é crucial apresentar a interação entre o ser humano e o computador para que, dessa maneira, nosso cérebro opere e desempenhe suas atividades psicológicas humanas.

A Interação Homem-Computador (IHC) é o campo interdisciplinar destinado a desenvolver técnicas e recursos para as esferas de concepção, elaboração, instalação e manutenção de sistemas computacionais visando aprimorar a adequação entre as características comportamentais humanos e o processamento e representação de dados. Uma disciplina que requer a exploração e aprofundamento de diversas áreas de forma a ser utilizada com menor esforço e máxima eficácia possível.

A investigação desse campo teve início com o psicólogo cognitivo Donald Norman, que explorou o conceito de facilidade de uso. Podem-se identificar três fases ao longo da história da Interação Homem-Computador (IHC):

Primeira onda – concentrada nos aspectos humanos. Análise do utilizador como um conjunto de dispositivos de processamento de informação. Enfoque no indivíduo. Estabelecimento de diretrizes para criação de interfaces, métodos formais e avaliações sistemáticas baseadas em medidas.

Segunda onda – direcionada para aspectos humanos. Ênfase em coletividades. Abordagens qualitativas em vez de quantitativas, prototipagem e design situacional. Compreensão integral do indivíduo em determinado contexto.

Terceira onda – enfoque em elementos culturais e estéticos. Expansão do aspecto cognitivo para o emocional. Consideração dos fatores sociais e pragmáticos na experiência. Tecnologias onipresentes, móveis e de dimensões reduzidas. A tecnologia ultrapassa os limites do ambiente de trabalho e passa a fazer parte da cultura, vida e residência das pessoas.

Para Norman, o sistema ideal “oculta” a tecnologia de modo a permitir que o utilizador não perceba sua existência, visando aumentar a produtividade, a capacidade e a satisfação em sua usabilidade. Para que essa relação entre o computador e o utilizador tenha sucesso, é preciso realizar um estudo detalhado do comportamento e uso dessa interface. O design, busca aprimorar a transmissão de informações e favorecer a usabilidade para otimizar o sistema e melhorar a eficiência dessa interface, assim como a humana. Junto com a Ergonomia, por exemplo, é um dos métodos de avaliação que produzem resultados, já que têm como foco principal o utilizador.

Tal como a ergonomia produz resultados significativos na interação homem computador, a psicologia cognitiva investiga a função psíquica que opera na aquisição do conhecimento e ocorre por meio de alguns procedimentos, como a percepção, a concentração, ligação, memória, raciocínio, discernimento, criatividade, pensamento e linguagem – os processos intelectuais que subjazem ao comportamento humano.

Card, Moran e Newell (1983) propuseram a teoria de uma psicologia aplicada no que tange ao processamento de informação.

Conforme os autores, a interação homem-máquina consiste na relação e comunicação entre o utilizador e o computador com o propósito de concluir de maneira bem-sucedida a atividade desejada.
Esse diálogo consiste em uma forma fundamental e comum a todos de interface:

o hardware (dispositivos físicos) e os programas informáticos que coordenam a interação, os softwares (componentes virtuais). Para eles, a análise da estrutura da atividade oferece a maior parte do conteúdo antecipatório da psicologia. Uma vez compreendidos os objetivos dos utilizadores e consideradas as suas limitações de perceção e processamento de informação, devemos ser capazes de oferecer respostas a questões que auxiliem na melhoria da atividade desejada.

Com base na psicologia cognitiva em um modelo de processamento de dados, Card, Moran e Newell em seu livro The Psychology of Human-Computer Interaction (1983) desenvolveram o que denominaram de “Modelo de Processador Humano” (MHP). Segundo os autores, a utilização de modelos que enxergam o ser humano como um processador de dados fornece um “esqueleto” comum no qual modelos de memória, de solução de problemas, de percepção e de comportamento podem ser integrados entre si. Ao considerarmos a percepção da mente humana como um sistema de processamento de dados, é viável realizar uma previsão de seu comportamento. O MHP composto por três subsistemas, cada com suas próprias memórias e processadores com alguns princípios de funcionamento: o perceptivo, o motor e o cognitivo.

O processador perceptivo , tal como o próprio nome indica, percebe e comunica as perceções do mundo físico detetadas pelos receptores (visão, audição, tato, olfato, paladar) para representações mentais. Estas são guardadas por tempo limitado em áreas de memória sensorial (sobretudo nas memórias visual e auditiva), ainda codificadas fisicamente e com uma rápida taxa de esquecimento, dependendo da intensidade do estímulo. Posteriormente, algumas são codificadas e armazenadas na memória de trabalho, isto é, um local temporário de armazenamento de informações com capacidade limitada.

O processador cognitivo é a parte deste sistema que escolhe e determina quais conteúdos das memórias sensoriais devem ser codificados e guardados na memória de trabalho, especialmente quando o conteúdo da memória perceptiva for complicado ou percebido apenas por um período de tempo muito breve. O sistema intelectual recebe a informação codificada dos armazenamentos sensoriais na sua memória de trabalho e utiliza dados previamente guardados na memória de longo prazo para tomar decisões sobre como reagir aos estímulos recebidos. O resultado da combinação destas memórias é traduzido em ação através da ativação de padrões de músculos voluntários realizados pelo sistema motor que executa a tarefa desejada.
Os parâmetros a serem considerados quando se trata das memórias são: a capacidade de armazenamento em quantidade de itens, o tempo de esquecimento de um item e o tipo de código principal (físico, acústico, visual ou semântico). Já em relação aos processadores, o critério mais importante é o tempo do ciclo.

Psicologia gestálgica
Max Wertheimer, Wolfgang Köhler e Kurt Koffka (1912) conceberam uma teoria fundamentada em uma investigação de orientação, compreensão e interpretação da nossa visão e da maneira como percebemos os objetos e o universo, denominada Gestalt. Os psicólogos enfatizaram que nosso cérebro identifica padrões ou configurações completas, não apenas elementos individuais. O termo pode ser bem compreendido por meio do conhecido ditado de Max Wertheimer: “A totalidade é superior à soma de suas partes”.

A mente humana utiliza parâmetros visuais. Ao visualizarmos um conjunto de elementos (indivíduos, itens, cenário, fauna ou escritos), a mente percebe a necessidade de agrupar elementos semelhantes para possibilitar uma interpretação mais rápida. Conforme a teoria da Gestalt, inicialmente percebemos o objeto como uma totalidade para depois analisar suas partes de forma separada.

Max Wertheimer, Wolfgang Köhler e Kurt Koffka (1912) elaboraram um conjunto de princípios teóricos e metodológicos que buscavam reestruturar a abordagem da investigação psicológica. Isso contrasta com as pesquisas desenvolvidas no início do século XX, seguindo a metodologia científica convencional, que fragmentava o objeto de estudo em diversos elementos para análise separada, com o intuito de simplificar a complexidade desse objeto. Para isso, os psicólogos formularam os Oito Princípios da Gestalt como forma de ilustrar sua pesquisa:

Princípio 01 – Lei da Pregnância:

O primeiro princípio indica que o objeto observado deve manifestar equilíbrio em sua totalidade, sendo coeso e suficientemente claro para simplificar qualquer complexidade visual em sua estrutura. Nisso, sua implementação consiste em: arranjo (permitindo uma compreensão clara e rápida do objeto) e mapeamento de conduta (refere-se ao comportamento automático gerado pela mente, necessário para moldar e utilizar na criação de formas mais simples para a compreensão).

A primeira análise realizada pelo cérebro diz respeito às formas: um conjunto de 5 blocos empilhados com alturas distintas no centro da imagem e depois as cores específicas dos elementos que se destacam do fundo neutro. Se esses elementos e marcas são reconhecíveis pelo receptor, o logotipo seria apenas usado como parte reafirmadora do anúncio. De qualquer modo, o matiz vermelho intenso do logotipo, guia o olhar do receptor para concluir que o objeto observado são peças de Lego, enquanto a palavra “imagine” é apresentada como sugestão de ação e representação da animação e série de comédia americana criada por Matt Groening: Os Simpsons. Confirmando o propósito de simbolizar os personagens principais da série: Homer, Marge, Bart, Lisa e Maggie.

Ao confrontarmos o anúncio do jornal Gazeta Mercantil (figura 02), podemos notar a abordagem distinta escolhida para a criação da peça visual. Vários componentes devido às tonalidades e seus significados reunidos, são interpretados como um componente de natureza política. No entanto, a conclusão da mensagem só pode ser alcançada após a leitura da expressão “Compreenda o verdadeiro valor do dinheiro”.

A moeda apresentada abaixo é o Yen e a disposição de imagens mostra parte do contexto do Japão. Devido à presença de muitos elementos em conflito e à necessidade de mais tempo para compreender o anúncio, essa peça tem menor destaque, porém é facilmente compreensível. Em outras palavras, uma peça de menor destaque pode alcançar seu objetivo se for usada adequadamente para que o público-alvo capture a mensagem. Para o desfecho para ser eficaz na comunicação, o designer deve considerar a estrutura geral da peça e se a interpretação realmente é coerente ao reunir todos os elementos da composição.

Claro, aqui está o texto com algumas palavras substituídas por sinônimos e equivalentes de verbos:

Princípio 02 – Lei da Unidade:


Como complemento à Lei da Pregnância, temos a unidade. Dentro das leis da Gestalt, a unidade é fundamental para a interpretação da forma. A unidade refere-se à estrutura que pode ser percebida e interpretada como uma entidade única, sendo predominante em relação à imagem e à informação.

Além disso, está distinto do entorno que o rodeia, embora seja formado por várias outras partes. Como segunda lei entre os princípios da Gestalt, a regra da unificação é crucial na produção, pois está presente na organização e disposição de elementos, permitindo criações originais e inovadoras a partir de elementos já existentes. Como exemplo da regra da unificação, podemos observar na figura abaixo o anúncio da Heinz utilizando fatias de tomate para criar a forma de uma garrafa de ketchup.

convencional. O objetivo do anúncio é destacar que a marca valoriza a qualidade e a autenticidade do produto sem aditivos: “Ninguém produz ketchup como a Heinz”.

Princípio 03 – Lei da Unificação:

Dentre as leis da Gestalt , a unificação indica a capacidade de identificarmos unidades pertencentes a um mesmo grupo. Por meio dela, aprendemos a conectar diferentes elementos, mas que possuem estrutura semelhante que os invoquem a um meio. Da mesma forma, exemplificando, é possível observar a presença da Lei da Unificação na arte da campanha da marca Mercedes Benz , onde há duas unificações diferentes percebidas. Cada uma é caracterizada a partir de formas, texturas e cores, onde o lado racional (esquerdo) se dá há um conjunto de unidades mais rígidas e cores pouco saturadas e o lado emocional (direito) do cérebro representado e unificado pela fluidez das tonalidades e configurações. Assim, são formadas duas entidades em um único quadro.

Princípio 04 – Lei da Semelhança:


A lei da semelhança é uma das diretrizes da Gestalt mais simples de serem identificadas. O elemento específico que auxilia na unificação de peças e elementos é a similaridade. Características muito próximas associam objetos e seres como parte de um mesmo conjunto. Por exemplo, mesmo que uma criança não compreenda o que são gatos, ela reconhecerá pelas similaridades que aquele grupo de animais pertence à mesma categoria.

Elementos que possuem formatos, tonalidades ou aspectos visualmente próximos geralmente são percebidos como uma única entidade, como evidenciado pelo anúncio da Shootz Cafe & BillIards.

Onde dois conjuntos de bolas de bilhar com tonalidades parecidas se juntam para criar uma nova disposição.

Princípio 05 – Lei da Proximidade:


A regra da proximidade indica a percepção de elementos próximos como originários de um mesmo conjunto. Com isso, passam a ser visualizados como componentes únicos ou até mesmo partes específicas pertencentes a uma totalidade. Na aplicação das leis da Gestalt, a proximidade é o ponto de partida para a conexão. Quando associada à lei da semelhança, a interpretação visual se torna ainda mais intensa. Por conseguinte, a compreensão da configuração torna-se mais fácil, agradável e rápida, o que é crucial em certas circunstâncias. Segundo a Gestalt, elementos em estreita proximidade, ajustando-se de maneira harmoniosa, são interpretados pelo nosso cérebro como elementos agrupados ou unidades: a regra da proximidade.

sobretudo em fontes e componentes que, teoricamente, seriam usuais, mas com um método simples se convertem em diversos elementos. O desfecho frequentemente se transforma em uma entidade coesa e inovadora, como por exemplo, o emblema em formato de U da Unilever.

O logotipo é uma representação visual do comprometimento da empresa com o cliente. Cada símbolo possui uma significância profunda em seu cerne e simboliza algum aspecto do que a Unilever defende para tornar a vida sustentável e uma área de atuação. Em outras palavras, variados elementos, porém em harmonia entre si devido à sua proximidade.”

Princípio 06 – Regra da Continuidade:


A regra da continuidade refere-se à capacidade do cérebro humano de conceber formas sem interrupção em sua estrutura. Isso facilita uma interpretação mais suave, já que a mente humana antecipa situações envolvendo esse elemento. Trata-se da propensão dos objetos em seguir uma trajetória de fluidez visual gradual. Isso é alcançado por meio de formas, traços, tonalidades, profundidade, planos, etc. Se quem recebe a mensagem percebe elementos em uma composição sem interrupções, essa peça possui uma boa continuidade. O foco da continuidade é sempre proporcionar a melhor forma possível visualmente. O anúncio da FedEx demonstra em sequência o processo de envio e recebimento de um produto através da empresa.”

Princípio 07 – Regra do Encerramento:


O cérebro humano interpreta de forma visual e natural a repetição de unidades, pois facilita a compreensão de uma forma e, portanto, busca um encerramento visual para criar imagens vazadas ou abertas, dependendo do contexto. Quando essa imagem é visualizada e mantém uma continuidade fluída, é comum ocorrer o encerramento da imagem. Isso se deve aos padrões sensoriais e à organização espacial presentes em nossa mente.”

Princípio 07 – Regra do Encerramento:


O cérebro humano interpreta de forma visual e orgânica a repetição de elementos, pois facilita a compreensão de uma forma e, portanto, busca um encerramento visual para criar imagens vazadas ou abertas, dependendo do contexto. No momento em que essa imagem é percebida e mantém uma continuidade fluída, é comum ocorrer o encerramento da imagem. Isso acontece devido aos padrões sensoriais e à organização espacial presentes em nossa mente.”

A campanha da Coca-Cola elaborada pela agência McCann, que visa mencionar novas técnicas de preparo incorporando a Coca-Cola como um dos ingredientes, ilustra de maneira direta a lei do fechamento. Os ícones de um garfo e uma faca posicionados lado a lado, formam, em negativo, o reconhecível formato da garrafa de refrigerante Coca-Cola. A logomarca aplicada de forma circular torna o fechamento praticamente secundário da campanha.

Princípio 08 – Lei da Separação:


Finalizando os princípios da Gestalt, a separação é outro elemento na interpretação de uma imagem. Este elemento refere-se à habilidade de separar unidades dentro de uma mesma figura. A quantidade de separações viáveis depende diretamente da complexidade e do tempo de observação. O cérebro humano é capaz de distinguir ou destacar objetos, mesmo quando estão sobrepostos. Isso ocorre devido à variação de configuração e estilo que um elemento possui em comparação com outro. Assim, os estímulos visuais de cada unidade também são distintos, já que a separação acontece de várias maneiras, por meio de: pontos, traços, superfícies, dimensões, sombras, brilhos, texturas, relevos, entre outras formas.

Na ilustração anterior , é possível visualizar a estreia da app de entregas do McDonald’s. Sob a supervisão criativa da Tricia & Tina, a empresa tornou os dispositivos móveis atrativos devido à combinação de cores e designs, aparecessem produtos icônicos da marca como, por exemplo, o Big Mac, as batatas fritas e o McMuffin.

Claro, vou substituir algumas palavras por sinônimos ou equivalentes verbais:

Visão de Cores e Luminosidade


Um dos principais componentes de uma interface visual é a cor. A observação de cores e luminosidade (avaliação da densidade e força de uma luz refletida em uma direção específica) está incorporada em um conjunto de componentes que constituem a linguagem visual da interface gráfica, guiando e ajudando o cérebro a identificar os objetos. Através da aplicação da psicologia cognitiva e gestáltica, a interpretação desses elementos busca aprimorar a praticidade do sistema e orientar a navegação pela interface gráfica digital de maneira intuitiva e bem-sucedida.

A literatura indica que as tonalidades são sensações interpretadas pelo nosso cérebro quando nossos olhos são estimulados por uma faixa específica do espectro de ondas eletromagnéticas – a luz (Guimarães, 2000). Segundo Barros (2006), a cor e sua luminosidade sempre foram uma ferramenta utilizada pelo ser humano como canal de comunicação, expressão de conhecimentos e emoções. A tonalidade é percebida como um dos meios de recepção de comunicação mais imediatos, escolhida com base na contextualização da informação e na estrutura dos códigos culturais. Conforme Guimarães (2003), as tonalidades desempenham papéis específicos que podem ser divididos em dois conjuntos:

  • Entende as estruturas e as conexões classificatórias, tais como: organizar, atrair atenção, ressaltar, desenvolver esquemas de percepção, estratificar dados, guiar a leitura, etc;
  • Entende as relações de significado, como: situar no ambiente, representar simbolicamente, sugerir e explicitar significados.

Ao implementar em uma interface gráfica digital, a interpretação das tonalidades e brilhos pode desempenhar uma função crucial no que diz respeito à praticidade:

  • Chamar a atenção: Botões ou áreas relevantes da tela apresentam tonalidades distintas para chamar a atenção e atrair;
  • Mostrar estado da ação: À medida que o estado se torna mais crucial, a cor do elemento pode sofrer mudanças;
  • Tornar atrativo: Embora o objetivo seja a praticidade, é essencial assegurar que a paleta de cores seja atraente aos olhos;
  • Destacar informações: A cor pode ser empregada para estruturar a tela ou evidenciar a perspectiva.

Entre os métodos de aplicação de cores em uma interface, o uso da diferenciação se destaca como o mais efetivo devido à maior sensibilidade do sistema visual humano (Campbell & Maffei, 1974). A diferenciação é definida como a variação de luminância ou cor que torna um objeto (ou sua representação em uma imagem ou tela) discernível. O contraste de tonalidade, ou seja, a diferença entre o claro e o escuro (luminância), é considerado o mais eficaz. Os efeitos cromáticos também são amplificados ou reduzidos pelo contraste de tonalidade das cores. Uma mesma tonalidade pode sofrer variações ao contrastar com outras cores, alterando a sua percepção. Um círculo cinza-claro parece mais sombrio em um fundo branco do que em um fundo preto e parece maior no fundo preto do que no fundo branco. Até mesmo a cor cinza sobre um fundo branco parece ser mais escura do que quando sobre um fundo cinza-médio.

As diferenças, segundo Da Vinci (PEDROSA, 2008), são abordadas pela reciprocidade e reversão, também enfatizando que toda a tonalidade ressalta mais ao lado de sua cor complementar. A diferença entre as cores vibrantes, puras e saturadas se destacam quando o branco e o negro estão presentes nessa composição, ou seja, o contraste claro-escuro explora o valor tonal das cores e o uso da luminosidade (PEDROSA, 2008).

Examinar a Psicologia Cognitiva Aplicada e Gestáltica integradas no surgimento das interfaces, especialmente no que se refere à percepção cerebral acerca das cores e formas, é adotar a relevância da centralização do ser humano no procedimento de criação. Entender como novos tipos de dados são absorvidos pelo cérebro humano com o intuito de diminuir a complexidade dessa ação é possuir uma ferramenta crucial para o aprimoramento de uma interface que atenda às expectativas e cumpra sua função com eficácia, tornando-a mais acessível e melhorando sobretudo a experiência do usuário.

Capítulo 02: Vivência do Utilizador

(UX)
Frederick Winslow Taylor e Henry Ford lideravam a exploração de novos métodos para tornar o labor humano mais eficaz e produtivo. A pesquisa inovadora de Taylor em 1948 sobre a efetividade das interações entre trabalhadores e suas ferramentas é o exemplo mais antigo que se assemelha aos alicerces da vivência do utilizador nos dias atuais. O Taylorismo, sistema de gestão concebido por Frederick Taylor (1856-1915), é caracterizado pela ênfase nas tarefas, visando o aumento da eficácia ao nível operacional, ou seja, eficácia do trabalho, que envolve realizar as tarefas de forma mais inteligente e com a máxima economia de esforço. Para isso, era necessário escolher adequadamente o operário e instruí-lo na função específica que iria desempenhar. Taylor em 1948 já percebia a interação entre o ser humano e a máquina como algo capaz de revolucionar a indústria e posteriormente estimular novas formas de aplicação para seu modelo.

Em 1955, o projetista industrial Henry Dreyfuss redigiu o renomado “Designing for People” no qual enfatizava a ligação entre as pessoas, sua vivência e o design de um produto de sucesso. Dreyfuss (1955) expressou: “Se o ponto de interação entre o produto e as pessoas se transforma em um ponto de atrito, então o projetista falhou. Por outro lado, se as pessoas se sentirem mais seguras, confortáveis, mais inclinadas a adquirir, então o projetista obteve êxito”. As declarações de Dreyfuss podem ser empregadas para ilustrar o campo em expansão do design de vivência do utilizador hoje, juntamente com muitas das concepções e princípios de design sobre os quais ele escreveu.

Até o término da década de 1970, os computadores predominantes eram os Mainframes, conhecidos por suas dimensões, capacidade de armazenamento, capacidade de processamento e elevado nível de confiabilidade. Eles ainda são predominantemente utilizados por grandes instituições para aplicações que demandam grandes volumes de processamento de dados. Devido à sua complexidade, a maioria dos escritórios operava da mesma maneira no início da década de 1970: arquivos metálicos, máquinas de escrever, papel carbono e memorandos eram partes integrantes.

do quotidiano. Contudo, com a chegada do computador pessoal (PC), tudo o que se compreendia de interação e vivência do utilizador seria ajustado a uma nova realidade.
O termo Vivência do Utilizador surgiu pela primeira vez no livro do especialista em design de UX Donald Norman, “The Design of Everyday Things” (1988). D. Norman assinalou uma mudança do termo anterior “design de sistema centrado no utilizador” no qual, em vez de se focar no próprio sistema e na estética da interface, Norman concentrou-se nas necessidades do utilizador. Numa entrevista ao Adaptive Path, Norman disse: “Eu criei o termo porque achei a interface humana e a usabilidade muito restritas. Eu quis abranger todos os aspectos da vivência da pessoa com o sistema, incluindo o design industrial, a interface, a interação física e o manual. Desde então, o termo se difundiu amplamente, ao ponto de começar a perder o significado.”
O design de vivência do utilizador (UX) é o processo de design para criar produtos que proporcionem experiências significativas e relevantes e que se envolvam em todo o processo de aquisição e integração do produto. Para desenvolver uma UX, é preciso considerar questões como o porquê, o quê e como utilizar o produto. O Porquê envolve as motivações dos utilizadores, sejam elas relacionadas a uma tarefa que desejam realizar ou a valores e visões que os utilizadores associam à posse e ao consumo. O Quê trata das interações que podem ser realizadas – sua funcionalidade. Por fim, o Como se refere ao desenho da funcionalidade de maneira acessível e esteticamente agradável.
Para compreender a importância do ser humano no processo de design de uma interface e proporcionar vivências significativas e relevantes aos utilizadores, é necessário analisar previamente aspetos importantes como a ergonomia e a arquitetura de informação.

Ergodesign: A Ergonomia das Interfaces Gráficas

Ergonomia é a investigação científica das relações entre o ser humano e o sistema, visando o incremento, a performance, o conforto e a qualidade de vida da sua utilização. Conforme Cybis (1998), devido ao processo de informatização, o estudo da ergonomia adquire importância perante a sociedade, permitindo que utilizadores leigos consigam realizar tarefas bem-sucedidas antes consideradas improváveis.

No entanto, visando eliminar as disparidades existentes entre as disciplinas de Ergonomia e Design, surgiu o conceito de Ergodesign e pode ser incorporado em outros conceitos como “facilidade de uso”, “design orientado ao utilizador”, “vivência do utilizador”, onde o enfoque está no utilizador e na sua relação com qualquer interface. A ergonomia num projeto de interface gráfica estabelece a ligação entre o ser humano e a ação executada, procurando criar uma integração perfeita entre as condições apresentadas, considerando as capacidades e limitações do utilizador e a eficiência da ação.

Esta análise mais aprofundada da relação entre utilizador e sistema pode ser dividida em dois principais eixos. No que diz respeito à utilidade do sistema, aborda os recursos funcionais e de desempenho necessários para a execução das tarefas para as quais foi concebido; e no que tange à facilidade de uso, está relacionada à qualidade do sistema em facilitar a manipulação e o aprendizado (ABRAHÃO, 2005). O desenho ergonómico da interface leva em conta funcionalidades práticas, aspetos estéticos e de facilidade de uso. A base nesses três fatores proporciona à interface a capacidade de atender às necessidades dos utilizadores, apresentando e fomentando um fluxo contínuo entre a interação de hardware e software.

Arquitetura de informação

Claro, aqui está o texto com os verbos substituídos por equivalentes e algumas palavras trocadas por sinônimos:

O Information Architecture Institute (Instituto de Arquitetura da Informação) tem como descrição: “A organização da informação é a prática de decidir como estruturar as partes de algo para torná-lo compreensível.”. Assim como a ergonomia, organiza a interação, a arquitetura de informação estrutura de maneira prática as informações. É a configuração e hierarquização de dados de um sistema com o objetivo de facilitar a utilização para determinados utilizadores. Conforme Rosenfield e Morville (2002), a arquitetura de informação é composta por um conjunto base de elementos que atuam de forma integrada:

  • Navegação: Especifica os modos de deslocamento, de movimentação pelo espaço informacional e hipertextual;
  • Organização: Determina a agrupação e categorização do conteúdo informacional;
  • Rotulação: Auxiliam no reconhecimento de controles e influenciam a sequência das atividades. Estabelecem formas de representação e apresentação da informação, definindo símbolos para cada elemento informativo;
  • Busca: Determina as perguntas que o utilizador pode fazer e o conjunto de respostas que irá obter. A busca é um serviço secundário de navegação;
  • Tesauros, vocabulário controlado e metadados: Auxiliam na navegação suplementar oferecendo recursos que permitem cruzar conteúdos por relações diretas ou dependência.
    O pesquisador James Garrett, no livro “The Elements of User Experience”, desenvolveu um diagrama visual separado no qual o autor chama de “camadas para apresentar o processo de evolução das atividades de UX”. Conforme o diagrama proposto por Garrett, todos os produtos digitais partem de um conceito/ideia, e a partir dessa definição se moldam até atingir o produto final.
    O planeamento e a definição da Arquitetura da Informação estão diretamente relacionados a grande parte das atividades do fluxo de UX, pois as definições de como as informações devem ser estruturadas e exibidas para os utilizadores ocorrem antes mesmo do desenho do “esqueleto” da aplicação. Isso ocorre porque são aspetos abstratos que antecedem a aparência da interface. Para James Garrett, o alicerce do processo é a definição de uma estratégia, que busca compreender o que o utilizador espera de um determinado produto (que neste caso pode ser um website ou um app, sistema operacional, etc). A partir dos dados iniciais recolhidos, a próxima etapa de desenvolvimento é a elaboração do escopo, ou seja, qual objetivo se pretende atingir com determinado produto. Para isso é feito um levantamento detalhado de requisitos e especificações das funcionalidades, bem como atributos que irão medir a qualidade e como o projeto deverá ser conduzido. Em seguida, o próximo passo é definir a estrutura do produto e determinar como o conteúdo será organizado: o que é mais e menos importante para os utilizadores e como deve ser.

definidas as normas relacionadas à facilidade de uso do que será desenvolvido. A partir do desfecho das definições apresentadas acima, é viável elaborar o esqueleto do produto, o desenho e a organização dos elementos e componentes que constituirão a aplicação. Por fim, como desdobramento do processo, é possível visualizar a superfície, que representa a interface gráfica digital obtida como resultado final.

Design Centrado no Utilizador (DCU)


O Design Centrado no Utilizador (DCU) é um processo de design no qual a criação se focaliza nos utilizadores e em suas necessidades ao longo de todo o processo de desenvolvimento. É uma abordagem inovadora para resolver problemas: começa com as pessoas e culmina em soluções individuais adaptadas às suas necessidades.
No DCU, são empregados uma variedade de métodos e ferramentas de investigação (por exemplo, pesquisas e entrevistas) e métodos geradores (por exemplo, tempestade de ideias) para conceber e visualizar um entendimento mais amplo das necessidades, visando satisfazê-las de maneira mais eficaz. O DCU valoriza todas as fases da experiência do utilizador, portanto envolve profissionais de áreas diversas (por exemplo, etnógrafos, psicólogos, engenheiros de software e hardware), assim como especialistas em domínio, partes interessadas e os próprios utilizadores.

Nos últimos anos, muitas empresas adotaram o design voltado ao utilizador (UCD) em sua estratégia organizacional. IKEA, Lego, Google, Facebook, Microsoft e Apple, em vez de focarem na tecnologia, direcionaram sua atenção para a conexão emocional atrativa entre seus produtos e o consumidor. Os princípios de design centrado no utilizador incluem os seguintes fatores responsivos:

  • Uma compreensão clara dos utilizadores, tarefas e ambientes;
  • Design direcionado para avaliação;
  • Consideração da experiência global do cliente;
    Segundo Susan Weinschenk, Ph.D (América Human Factors International), três dos doze principais motivos pelos quais os projetos de TI falham estão diretamente ligados à experiência do utilizador ou ao trabalho de design centrado no utilizador: requisitos pouco definidos, problemas na comunicação entre clientes, desenvolvedores e utilizadores, e conflitos de políticas das partes interessadas. Outros motivos incluem objetivos do projeto irrealistas, avaliação incorreta dos recursos necessários, má representação do status do projeto, entre outros. Através de entrevistas com as partes interessadas, pesquisas e testes com utilizadores, o design centrado influencia o sucesso final do lançamento do produto.
    Com uma ampla gama de fatores a serem considerados e trabalhados no desenvolvimento de um projeto, estão surgindo ferramentas que ajudam os designers a adotar uma metodologia mais completa ao longo do avanço do campo de Experiência do Utilizador, que continua em expansão. O Honeycomb, por exemplo, é um diagrama que descreve e orienta a compreensão dos sete aspectos essenciais da experiência do utilizador para desenvolvedores e clientes.

Honeycomb: As Facetas da Experiência do Usuário.

Em 2004 Peter Morville concebeu o diagramaw que nomeou como “User Experience Honeycomb” com o propósito de ilustrar aos seus clientes a necessidade de conceber uma experiência do utilizador para além da sua facilidade de uso. Apesar de ser amplamente empregado no processo de criação de um projeto ou avaliação de um sistema interativo, o diagrama ainda não recebeu consenso da comunidade científica ou de qualquer órgão de normalização. Contudo, para esta dissertação, que busca um entendimento geral sobre o UX, dado a importância do utilizador, o diagrama da Honeycomb serve como uma forma de análise do tema. Segue abaixo, juntamente com o diagrama (figura 14), a explicação de cada faceta ou qualidade da experiência do utilizador delineada por Peter Morville.

Claro, aqui está o texto com os verbos substituídos por equivalentes e algumas palavras trocadas por sinônimos:

  • Funcional: O produto ou sistema deve ser desenvolvido com o propósito de satisfazer as necessidades do utilizador;
  • Usável: Pode-se associar usável com a facilidade de uso. Os produtos ou serviços oferecidos pelas empresas devem estar prontos para serem utilizados;
  • Localizável: A estrutura e organização da informação são essenciais para evitar problemas na comunicação entre a interface e o utilizador;
  • Confiança: Conclusão bem-sucedida de uma tarefa ou objetivo;
  • Atraente: Grau de aceitação do seu produto ou serviço no mercado-alvo.
  • Acessível: Uma boa experiência independentemente da capacidade cognitiva de quem está a utilizar o produto ou serviço;
  • Valorizado: Tem uma experiência agradável e útil, fidelizando o utilizador.

Neste capítulo foram mencionados tópicos relevantes que colocam o utilizador como centro na criação de uma interface gráfica de maneira estruturada. A experiência do utilizador é válida ao longo de todo o processo de criação, desde o surgimento de uma ideia até ao desenvolvimento do produto final. Um tema abrangente que está em crescimento e tem como principal objetivo facilitar a forma como o utilizador interage com um produto ou serviço, analisando como melhorar cada etapa do processo considerando a facilidade de uso, confiança, acessibilidade, empatia, a tecnologia, entre outros. Mas como o próprio nome sugere, é um estudo da experiência. E para a experiência ser completamente atendida, uma nova área em design deve ser explorada, aplicada e desenvolvida em cada projeto: a Interface do Utilizador.

Fundamentos de Desenvolvimento Web

AUTORES : Bruno Batista Boniati E Teresinha Letícia da Silva

Resumo das páginas 55-67 ( 6ª RESUMO)

Ligações de hipertexto e de imagens

Hiperlinks

Hiperlinks ou simplesmente links , são uma das principais motivações de como a web é hoje . A web é formada por inúmeras ligações de links . OS links são usados em documentos HTML por meio da tag . Eles podem ser internos quando estão fazendo referencia a conteúdos do próprio documento ou externos quando estão fazendo referencia a recurdos do mesmo site ou de outros sites.

A tag possui dois atributos , href (Hypertext Reference): Especifica a URL de destino para a qual o usuário será direcionado ao clicar no link e o target: Define onde o conteúdo vinculado será exibido.

Imagens

Imagens também são uma boa opção para incrementar documentos em HTML . As imagens são apenas referenciadas em documentos em HTML . Para poder associar as imagens em documentos HTML , utiliza-se a tag . O parâmetro mais importante para usar a tag é o src que informa o caminho da imagem que será exibida .

Tabulação de dados

Listas

O html oferece diversas formas de estruturar textos por meio de tópicos . As listas com marcadores é o tipo de lista mais comum , ela é definida pelo uso da tag
e dentro das tags de abertura e fechamento , utiliza-se a tag (list) para fazer menção aos itens da lista .

A diferença entra a lista numerada para a lista com marcadores é a tag utilizada . Na lista numerada usa-se a tag. A tag utilizada para representar os itens da lista também é a mesma . Nas listas numeradas , o atributo type pode receber valores , tais como : “1” ( quando a numeração é feita com algarismos ) ou “a” ( quando a ordenação é feita por ordem alfabética) .