Resumo 2

Jeniffer Batalha

06/11/23

Neste trecho, o autor descreve a importância do evento liderado por Doug Engelbart, no qual ele fez uma demonstração de 30 minutos que revelou o conceito de “espaço-informação” pela primeira vez. A plateia era comparada a uma convenção de “Jornada nas Estrelas” ou a uma exposição kitsch de detetives particulares e especialistas em segurança. O autor sugere que, embora o cenário fosse improvável, esse evento é comparável em importância histórica aos experimentos de Benjamin Franklin e Alexander Graham Bell.

O autor explora a ideia de espaço-informação, que existia como uma ideia há milênios, mas que a demonstração de Engelbart tornou tangível. Ele menciona como a memória visual é mais duradoura do que a memória textual e como a técnica do “palácio de memória” foi usada na retórica por muitos anos.

O texto também destaca a importância da interface entre humanos e computadores, descrevendo como os computadores digitais são máquinas simbólicas que dependem de metáforas visuais para representar informações de uma forma compreensível para os seres humanos. A popularização da interface gráfica do usuário (GUI) teve um papel fundamental na revolução digital.

Em resumo, o texto discute a influência de Doug Engelbart na conceção do espaço-informação e na importância das interfaces visuais na interação entre humanos e computadores na era digital.

Título: La iteración persona-ordenador

Página 56-101

Resumo

Capítulo 1: Introdução à interação humano-computador

A interface, no contexto da Interação Humano-Computador, é o ponto de contato entre os seres humanos e os computadores por meio do qual são trocadas informações, ordens e sensações. Pode ser considerada uma superfície de contato que reflete as propriedades físicas, as funções a serem desempenhadas, o equilíbrio de poder e controle dos usuários. Também pode se tornar uma barreira se for mal projetado ou não atender aos detalhes que devem ser executados.

  1. A disciplina

    A disciplina de Interação Humano-Computador (IPO), também conhecida como Interação Humano-Computador (HCI) ou Interação Computador-Humano (CHI) e é fundamental para o sucesso de aplicações interativas, pois é o ponto de contato entre humanos e computadores. Apesar de sua importância, recebe pouca atenção no mundo dos estudos universitários de Ciência da Computação.

    1.1 Definição

A ACM (Association for Computer Machinery) possui um grupo especializado em IPO conhecido como SIGCHI (Special Interest Group in Computer Human Interaction) que o define como uma disciplina relacionada ao projeto, avaliação e implementação de sistemas computacionais interativos para humanos e fenômenos associados.

O IPO, como já mencionamos, tem como foco a interação dos usuários, que podem ser individuais ou grupos e computadores. Portanto, definir objetivos é uma das principais preocupações.

2. História do IPO

A Interação Humano-Computador (IPO) se desenvolve em um contexto social e organizacional diversificado, e requer diferentes tipos de aplicações para diversos fins, considerando temas como: trabalho em grupo, integração de mídias e impacto da tecnologia no trabalho e na vida em sociedade. Surgiu como uma disciplina interdisciplinar envolvendo: computação gráfica, sistemas operacionais, fatores humanos, ergonomia, psicologia cognitiva e ciência da computação.

A pesquisa de IPO tem sido frutífera ao longo dos anos, influenciando o desenvolvimento tecnológico, um exemplo pode ser o Microsoft Windows 2000. Além disso, o crescimento da World Wide Web se deve aos avanços desta disciplina.

As mudanças mais significativas que pudemos contemplar são:Manipulação direta de objetos gráficos

O mouse: inventado por Douglas Engelbart. Outros tipos de dispositivos semelhantes são: canetas ópticas, tablets digitalizadores ou mesmo telas sensíveis ao toque.

  • Manipulação direta de objetos gráficos
  • As janelas
  • Programas de desenho e pintura
  • Edição e processamento de texto
  • Planilha
  • Hipertexto

3. Metas do IPO

Os objetivos fundamentais são desenvolver ou melhorar a segurança, a utilidade, a eficácia, a eficiência e a usabilidade que incluem os computadores; Não se limita apenas à parte de hardware ou software, mas também a todo o ambiente em que operam. Para isso, os seguintes pontos são essenciais:

  • Compreender os factores, envolvendo a compreensão dos aspectos psicológicos, ergonómicos, organizacionais e sociais que influenciam a forma como as pessoas trabalham e utilizam os computadores.
  • Desenvolver ferramentas e técnicas: com a criação de técnicas e ferramentas que ajudem a adaptar os sistemas informáticos de acordo com as atividades.
  • Obtenha interação eficiente e segura tanto em nível individual quanto em grupo.

É muito importante ter em mente que devem ser projetados para se adaptar às necessidades e exigências dos usuários.

4. A interface do usuário

Pode-se dizer que a interface é a superfície de contacto entre duas entidades, ou seja, entre a pessoa e o computador, sendo importante para a eficiência e eficácia do sistema. Da mesma forma, reflete as propriedades físicas das entidades que interagem e deve ser visível e intuitivamente compreensível para os usuários, sendo este princípio conhecido como affordance e o nível cognitivo dos usuários para compreender o protocolo de interação e responder aos sinais da interface.

As interfaces não se limitam mais às telas e teclados tradicionais, elas já estão em diversas formas do nosso dia a dia, como os telefones celulares. Portanto, é muito importante ter uma visão ampla dos tipos de interfaces que podemos encontrar em diferentes contextos e dispositivos.

5. A interdisciplinaridade do IPO


Para projetar interfaces é necessário levar em consideração diferentes disciplinas como as que consideraremos no diagrama a seguir:

A seguir, explicaremos cada um deles com mais detalhes:

  • Psicologia: é importante porque fornece insights sobre como as pessoas se comportam, processam informações e agem em grupos. Além disso, oferece metodologias e ferramentas para avaliar e melhorar a satisfação dos usuários com os designs de interfaces e assim garantir sua eficácia.
  • Projeto: é uma disciplina fundamental para criar programas úteis e eficazes, pois atualmente buscamos melhorar o ambiente físico do ser humano
  • Etnografia-Sociologia: utilizada para compreender os usuários e assim poder melhorar.
  • Ergonomia ou fatores humanos, foca em alguns fatores como: organização dos controles, as informações mais importantes devem estar localizadas na altura dos olhos, o ambiente físico da interação, aspectos de saúde e uso de cores
  • Programação: É essencial dizer ao computador o que fazer e como fazer. Neste caso, os programadores desenham soluções para problemas e escrevem programas de computador que devem funcionar corretamente, ter boa documentação e ser eficientes. Alguns tipos são:
    • Programação Orientada a Objetos(OOP): baseado em conceitos de classes que são coleções de dados e métodos e objetos que são instâncias de classes. Exemplo: C++, Java.
    • Programação Imperativa: Baseia-se em comandos que utilizam variáveis ​​no armazenamento e é orientado à arquitetura do computador. Exemplo: PASCAL-ADA
    • Trabalhos de programaçãol: os dados neste caso são funções e os resultados podem ser valores ou funções. Neste caso, os programas são funções ou um grupo de funções e as relações entre eles são simples. Exemplo: LISP, ML, ESPERANÇA.
    • Programação Declarativa: baseado no conhecimento da relação e focado na forma humana de pensar em vez do computador. Possui vantagens como clareza, elegância e transparência referencial. Exemplo: PROLOG, HASKEL, MODULA-2
    • Programação Simultânea: campo em desenvolvimento que se concentra na execução simultânea de inúmeras tarefas
  • Inteligência artificial: concentra-se na criação de programas de computador que imitam aspectos do comportamento humano inteligente.
  • Engenharia de software: É muito importante em sistemas interativos, pois estuda técnicas de design e desenvolvimento de software. Exemplo: ADA.

6. Usabilidade

Os sistemas interativos devem ser utilizáveis ​​e acessíveis para atender aos objetivos decorrentes do uso de computadores pela população.

O termo usabilidade refere-se a se um produto pode ser utilizado por usuários específicos para atingir objetivos com eficácia, eficiência e satisfação. Para tanto, foram estabelecidos princípios de design para reduzir custos de produção, manutenção e utilização, além de melhorar a qualidade do produto.

A Interface do Usuário (UI) serve como conexão entre o usuário e as funcionalidades do sistema, se a interface for mal projetada pode ser um problema na utilização de suas funcionalidades.

Apesar da importância, continuam críticas como a crença de que os usuários precisam de melhor treinamento, a consideração disso é algo subjetivo e impossível de mensurar, e o equívoco de que o design de interface está implícito no desenvolvimento de software, portanto não precisa ser planejado ou avaliado.

Os princípios gerais são:

  • Facilidade de aprendizagem: envolve minimizar o tempo necessário para passar do desconhecimento da aplicação até a sua utilização, auxiliando os usuários intermediários e garantindo que o sistema possa ser sintetizado.
    • Consistência: um factor importante, pois implica que todos os mecanismos sejam utilizados da mesma forma sempre que possível, mantendo um “look & feel” comum e evitando alterações desnecessárias.
    • Flexibilidade: refere-se à utilização de múltiplas formas pelas quais o usuário e o sistema trocam informações, permitindo:
      • Dê controle ao usuário
      • Permitir migração de tarefas
      • Capacidades de substituição
      • Adaptabilidade
    • Robustez: relacionado à capacidade do sistema de atingir objetivos e aconselhar o usuário
  • Recuperabilidade: refere-se à facilidade com que o usuário pode corrigir erros uma vez reconhecidos.
    • Tempo de resposta, ou seja, o tempo que o sistema precisa para expressar as alterações feitas pelo usuário.
    • Adaptação de tarefas, ou seja, o grau em que os serviços do sistema suportam todas as tarefas que o usuário deseja realizar e a forma de compreendê-las.
    • Carga cognitiva diminuída, os usuários devem confiar mais no reconhecimento do que nas memórias e também não precisam lembrar abreviações ou códigos complexos.

7. Design centrado no usuário

O projeto de sistemas interativos exige considerar o usuário como elemento central do processo.

Este trabalho apresenta um Modelo de Processo para desenvolvimento de produtos interativos com foco em usabilidade e acessibilidade, após analisar o estado atual da Interação Humano-Computador.

A metodologia, denominada “Engenharia de Usabilidade e Acessibilidade. Modelo de Processo”, baseia-se em princípios multidisciplinares de psicologia cognitiva, psicologia experimental, etnografia e engenharia de software.

A Engenharia de Usabilidade está integrada à Engenharia de Software, combinando definição de requisitos, objetivos e projeto/teste, com ciclos iterativos para atingir objetivos específicos. O design ideal é conseguido através de um processo organizado e bem definido, adaptado a cada produto e aos seus utilizadores. Este modelo é aplicável a diversos projetos.

A avaliação de usabilidade é abordada através de três abordagens: inspeção, investigação e teste.

O Modelo de Processo está estruturado em atividades de análise de requisitos de usabilidade, estabelecimento de objetivos explícitos, design de interface de usuário e avaliação iterativa de objetivos de usabilidade para alcançar um produto final utilizável e acessível.

A figura anterior mostra-nos as diferentes fases em que se divide o Modelo de Processo de Engenharia de Usabilidade e Acessibilidade e como devem ser realizadas. Do esquema devemos levar em consideração o seguinte:

  • Fornece uma organização conceitual
  • Distingue três pilares fundamentais:
    • Engenharia de software(coluna azul), onde distinguimos:
      • Análise de requisitos
        São estabelecidos os serviços que o sistema deve fornecer e as restrições sob as quais funcionará. Também são definidos os requisitos que indicam o que o sistema deve fazer e como deve fazê-lo, podendo ser classificados em: funcionais e não funcionais. As atividades a realizar são as seguintes:
      • Análise etnográfica, é um método de estudo que envolve observar e descrever como as pessoas interagem no dia a dia para compreender crenças, valores e motivações.

        Graças às ferramentas, permite-nos responder a questões sobre organizações e mercados que outros métodos não conseguem responder
  • Perfil de usuário: envolve a obtenção de uma descrição detalhada das características são variadas e incluem o nível de conhecimento e utilização de equipamentos/programas informáticos, experiência profissional, etc.
    • Análise contextual de tarefas: significa analisar como eles executam tarefas, padrões de trabalho e compreender objetivos. Centra-se na identificação de todas as tarefas que o sistema é capaz de realizar no seu estado atual, antes de implementar o novo sistema.
      • Atores, o tipo é essencial para modelar as tarefas, isso pode ser distinguível devido a duas variáveis:
        • Características psicológicas
        • Recursos relacionados a tarefas
      • Funções: são as classes de atores aos quais foram atribuídas algumas tarefas, são genéricas para o contexto das tarefas e podem envolver um ou mais atores. Eles podem ser temporários
      • Organização: É a relação entre atores e papéis, descreve a hierarquia e a delegação de responsabilidades entre papéis. Aqui eles podem assumir várias formas, como ser um subtipo de outra função ou funções que fazem parte de outra função.
      • Coisas para fazer
      • Objetos: eles podem ser coisas físicas ou conceituais
      • Plataforma
      • Perfil ambiental
      • Metas de usabilidade: tem como foco garantir que os produtos sejam fáceis, eficazes e agradáveis ​​para os usuários, otimizando as interações. Os objetivos básicos incluem: facilidade de aprendizagem, consistência, flexibilidade, robustez, recuperabilidade, tempo de resposta, adaptação às tarefas e redução da carga cognitiva
      • Metas de aplicação
    • Projeto

Neste caso, o diálogo com o usuário em sistemas interativos é crucial, pois a interface determina a percepção que o usuário tem da aplicação. O principal objetivo é apoiar as pessoas no seu trabalho diário. As atividades a realizar são as seguintes:

  • Análise de tarefas– As atividades do usuário são redesenhadas para organizar o trabalho de forma eficiente e aproveitar os recursos de automação. Nesta etapa, a parte funcional da informação obtida na análise de requisitos é reestruturada, sem necessidade de intervenção no design. Isto envolve estudar como as pessoas realizam seu trabalho, incluindo ações, objetos e conhecimentos necessários. Alguns desses métodos são: Análise Hierárquica de Tarefas (HTA), GOMS (Seleção de Métodos de Operações de Metas), KLM (Modo de Nível de KeyStroke), TAG (Gramática de Ação de Tarefa), UAN (Notação de Ação do Usuário), CTT (ConcurTaskTrees) e GTA (Groupware). Análise de tarefas).
    • Modelo conceitual: As primeiras alternativas de projeto são geradas com base nas informações da seção anterior. São definidas as telas principais e caminhos de navegação; além de estabelecer regras para uma apresentação coerente.

Pode ser entendido como a parte mais importante do design, pois é uma descrição do sistema em termos de ideias, conceitos e como deve funcionar e parecer com base nas necessidades do usuário e assim poder entendê-lo de forma simples. . Existem dois tipos: baseado em atividades e baseado em objetos.

  • Definir estilo: O objetivo principal é ter um design coerente tanto visual quanto coerentemente. Recomenda-se ter um guia de estilo para que não ocorram problemas e mantenha a consistência da experiência do usuário. Nós distinguimos:
    • Padrões Gerais, são projetados para manter a uniformidade e a linha dos produtos desenvolvidos; garantindo assim coerência e consistência. Existem dois tipos:
      • De fato, são eles que devem ser seguidos devido ao enorme uso da tecnologia
      • Outros de diferentes áreas
    • Metáforas: São modelos conceituais que combinam objetos e conhecimentos familiares com novos conceitos.
    • Cores: eles complementam metáforas.
    • Padrões particulares: são coletados aspectos particulares do cliente final. Esta seção inclui metáforas e cores
    • Projeto detalhado: resultado das fases anteriores, onde são coletados todos os detalhes das tarefas anteriores.
    • Implementação: É uma seção crucial, pois envolve a codificação da aplicação usando linguagens de programação, bancos de dados e tecnologias apropriadas. Ele se concentra em alcançar usabilidade e acessibilidade do produto.
    • Lançar: determina o cumprimento das expectativas do produto.

O fator mais importante é o “User Feedback”, que é onde são coletadas impressões, reclamações, melhorias e defeitos durante a fase de testes e com isso são feitos os ajustes e melhorias pertinentes. É importante porque:

  • Fornece informações para manutenção e melhorias do produto
    • Fornece informações para futuras análises de produtos
      • Contribui para o design e desenvolvimento de produtos para os mesmos usuários ou com características semelhantes.
      • Facilita o aprendizado
    • Prototipagem(coluna verde)

Protótipos são documentos, projetos ou sistemas que simulam ou incluem partes do sistema final a ser desenvolvido.

Esta fase inclui diversas ferramentas que permitem aos projetistas criar simulações. Existem várias técnicas:

  • Modelos
  • Cenários
  • Protótipos de papel
  • Storyboards
  • Ferramentas de diagramação, que pode ser: narrativo, fluxograma ou texto processual.
  • Vídeos
  • Protótipos de software
  • Avaliação(coluna amarela)

É fundamental verificar o funcionamento do sistema antes da sua implementação e permite a participação ativa do utilizador nas primeiras fases do projeto, seguindo o modelo de ciclo de vida. Alguns dos métodos são:

  • Inspeção, para determinar o grau de usabilidade do sistema, alguns métodos são:
    • Heurística: São os avaliadores de exportação que analisam a interface com base em princípios de usabilidade reconhecidos.
      • Tour de usabilidade plural: participação de três tipos de usuários que avaliam protótipos de papel e em seguida ocorre um debate
      • Passeio Cognitivo– focado em avaliar a facilidade de aprendizagem do sistema através da exploração por revisores
      • Padrões: os revisores verificam a conformidade com eles
    • Investigação: Neste método é feito o trabalho de conversar com os usuários e observar como eles utilizam o sistema, obtendo respostas do mesmo. Os principais métodos são:
      • Observação de campo: o usuário é observado e depois questionado
      • Amostra: reuniões de usuários para discutir aspectos relacionados ao sistema
      • Entrevistas: obter informações diretas dos usuários sobre sua experiência
      • Exploração madeireira: registro de todas as atividades realizadas pelo sistema para analisá-las posteriormente
      • Questionários: obter informações depois que diferentes usuários testaram o sistema
    • Teste: os usuários trabalham em tarefas usando o sistema e os testadores usam o resultado para ver como é a interface. Os métodos mais proeminentes são:
      • Medição de benefícios: seu principal objetivo é melhorar a usabilidade graças a testes de usuários
      • Pensando alto: um usuário é solicitado a expressar como está visualizando o sistema em todos os momentos
      • Interação construtiva: é uma variante do sistema anterior, mas com um grupo de dois usuários, fornecendo mais informações que o anterior
      • Teste retrospectivo: é um complemento aos anteriores, pois envolve a realização de alguns dos métodos anteriores e o seu registo para realizar uma análise exaustiva e assim examinar cada um dos detalhes
      • Método de driver: A avaliação orienta o usuário na direção certa ao usar o sistema.
    • Os usuários estão no centro do ciclo de vida
    • As setas indicam a interatividade que deve ser feita entre operações e usuários

DESIGN DE INTERFACES


O RELEVO DA COERÊNCIA
GRÁFICA NO DESENVOLVIMENTO
DAS INTERFACES DE UMA MARCA

Resumo das paginas 20 à 31.

1.3.5 POSICIONAMENTO E ESTRATÉGIA DE UMA MARCA

O posicionamento e estratégia de uma marca, segundo Alina Wheeler, são elementos fundamentais para sua sobrevivência e sucesso. O posicionamento envolve a construção de uma identidade alinhada com valores transmitidos aos consumidores, enquanto a estratégia é a união de comportamentos, ações e comunicações consistentes e alinhadas. Esses conceitos são destacados por Andy Mosmans, ressaltando a influência dos valores na relação das pessoas com marcas e produtos.

Uma estratégia de marca eficaz deve ser diferenciada, poderosa e capaz de ultrapassar a concorrência, focando na ligação emocional com os consumidores, tanto em ambientes físicos quanto digitais. Construir uma marca demanda consistência e perseverança na implementação da estratégia escolhida, que não se resume apenas a uma posição, mas se traduz como uma perspectiva intrínseca de compreensão do mundo.
Neste caso, as marcas devem definir seu posicionamento no mercado e manter uma estratégia focada nos usuários para se destacarem da competição, destacando os seus produtos.

1.3.6 A IMPORTÂNCIA DA RELAÇÃO MARCA VS. UTILIZADOR, NA ERA DIGITAL

A relação entre marca e utilizador na era digital é crucial para o sucesso no mercado competitivo. Autores como Don Peppers, Martha Rogers e Bob Dorf destacam a importância de encarar essa relação como uma oportunidade de aprendizado, personalizando produtos para atender às necessidades individuais de cada cliente, aprimorando a capacidade da marca em se ajustar a cada interação.

A evolução tecnológica, especialmente a internet, desempenha um papel significativo nessa relação, permitindo a comunicação eficaz entre marca e consumidor, adaptando o marketing de forma mais personalizada. Autores como Daniel Raposo enfatizam a importância do ambiente virtual na interação marca-consumidor, destacando a relevância de um site customizado, intuitivo e de fácil acesso para garantir a eficácia na comunicação.

Compreender o comportamento dos utilizadores é fundamental na venda online. Joan Costa ressalta a importância de misturar o conteúdo da oferta com serviços de valor agregado para aproximar a marca do cliente, favorecendo o retorno do consumidor ao site.

A segmentação comportamental nas empresas na era digital é crucial para atender às reais necessidades dos clientes. Ferramentas de análise comportamental, conforme Shiva Nandan, são úteis para os gestores de marcas, permitindo a observação do comportamento de consumo online sem serem intrusivos.

Sugere-se, conforme Joan Costa citado por Daniel Raposo, quatro condições fundamentais para as marcas estabelecerem relações duradouras com os utilizadores:

1) Não causar perdas de tempo ao internauta, evitando a sobrecarga de
informação, a inconsistência gráfica e a falta de hierarquia e organização;
2) Garantir a individualidade de cada utilizador, tratando-o de forma
diferenciada e correspondendo às suas expectativas;
3) O serviço não termina no acto da venda, mas deve continuar a
resolver problemas ao cliente, como por exemplo através do serviço de
assistência pós-venda;
4) Criar comunidades ou fóruns de discussão livre entre os clientes.

Estes elementos são essenciais para promover uma relação sólida e duradoura entre marca e consumidor.

  1. DESIGN DE INTERACÇÃO DIGITAL
    2.1 BREVE INTRODUÇÃO AO DESIGN DE INTERACÇÃO DIGITAL

O design de interação digital remonta aos anos 1960, quando os engenheiros começaram a se concentrar na interação entre pessoas e computadores, introduzindo painéis de controle para usuários. Iniciativas como o projeto Xanadu de Ted Nelson e os padrões de e-mail por Ray Tomlinson impulsionaram o desenvolvimento do hipertexto e a introdução do mouse por Doug Engelbart em 1968.

O Xerox PARC, fundado em 1970, foi um marco na história da interação, originando produtos como o Xerox Alto e o Xerox Star, que incorporavam recursos de edição de texto, ícones e janelas. Em meados dos anos 80, o termo “interação” começou a se popularizar, mas foi nos anos 90 que o Design de Interação se tornou uma disciplina formal devido à explosão das interfaces gráficas para usuários (GUI) introduzidas pela Apple com o Lisa e o Macintosh.

O início dos anos 90 marcou a época dos computadores pessoais e a ascensão da web, levando à necessidade de melhor interação. O navegador Mosaic, de Marc Andreessen, foi essencial para o Design de Interação, introduzindo paradigmas como o botão de “voltar”. Esse período viu o crescimento da web e o termo “usabilidade” ganhou destaque na concepção de produtos digitais.

Com o crescimento exponencial da web, designers e arquitetos de informação emergiram, focando na criação de produtos centrados no usuário. O reconhecimento do Design de Interação cresceu ao longo do início do século XXI, culminando na formação da Interaction Design Association (IxDA) em 2005, evidenciando a maturidade da interação como disciplina e profissão indispensável para os produtos digitais.

2.2 PROJECTAR A INTERACÇÃO DIGITAL VISANDO A EXPERIÊNCIA DO UTILIZADOR

O design de interação digital está intrinsicamente ligado à experiência do usuário. Segundo Dan Saffer e Alan Cooper, esta disciplina enfoca as necessidades do usuário, garantindo uma harmonia entre o produto e o usuário, preocupando-se com comportamento, forma e conteúdo para proporcionar uma experiência, seja ela funcional ou emocional.

Cooper destaca que, assim como designers gráficos e de móveis criam experiências, os designers de interação influenciam a experiência das pessoas nos produtos digitais, moldando a forma como os usuários interagem com tais produtos. A estrutura do design de interação concentra-se em três conceitos base: forma, comportamento e conteúdo, preocupando-se com a interrelação entre esses elementos.

O processo de criação de produtos interativos, de acordo com a Associação Profissional de Experiência do Usuário (UXPA), envolve quatro fases principais: análise, design, implementação e desenvolvimento, garantindo a usabilidade e relacionando a forma e o conteúdo com o comportamento do usuário.

Saffer ressalta a importância dos fatores humanos na interação com produtos digitais, considerando as limitações do corpo humano, tanto física quanto psicologicamente, para garantir a conformidade dos produtos.

Ao longo do desenvolvimento do design de interação, gestores de projeto facilitaram a ligação entre as necessidades do mercado e os requisitos do produto. Com o crescimento e maturidade do mercado, os testes, designers e a introdução de elementos visuais importantes foram integrados no processo de criação.

A evolução do design de interação culmina na fase de Design Centrado em Objetivos, onde as capacidades, forma e comportamento do produto são testados antes da sua construção. Este processo visa garantir que o produto atenda às necessidades do usuário antes da implementação final.

RESUMO DO LIVRO UML GUIA DOS USUARIOS

Capitulo 4 classes pagina 50 a 62

As classes são blocos de construção mais importantes de qualquer sistema orientada a objetos. Uma classe e uma descrição de um conjunto de objetos que compartilham os mesmos atributos, operações, relacionamentos. Uma classe implementa uma ou mais interfaces.

Primeiros passos a modelagem de um sistema envolve a identificação de itens considerados importantes de acordo com uma determinada visão

Nome de uma classe deve ser um substantivo singular que descreva o que a classe representa e conhecido como um nome simples. O nome de um atributo deve ser um substantivo ou adjetivo que descreva a característica do objeto. O nome de uma operação deve ser um verbo que descreva o comportamento do objeto.

  • Os atributos de uma classe podem ser divididos em dois tipos: Atributos de instância: são atributos que são únicos para cada objeto.
  • Atributos de classe: são atributos que são compartilhados por todos os objetos da classe.

Operações uma operação e a implementação de um serviço que pode ser solicitado por algum objeto de classe para modificar o comportamento , em outras palavras uma operação e uma abstração de algo que pode ser feito com um objeto e que e compartilhado por todos os objetos dessa classe

Experiência do usuário em interfaces digitais

Resumo das paginas 23 até 28.

O livro “Design e UX em produtos digitais” aborda a importância e evolução dos produtos digitais no mundo atual. Produtos digitais incluem programas de computador, aplicativos móveis, páginas da web, realidades virtual e aumentada, entre outros. Eles se destacam por sua capacidade de escala e alcance, impulsionando o sucesso de empresas como Google e Spotify.

A internet permitiu a disseminação global de produtos digitais, incluindo a venda de produtos físicos e prestação de serviços por meio de lojas online e aplicativos. Hoje, é raro uma empresa não ter presença digital.

A distinção entre produtos e serviços é importante, pois os produtos digitais frequentemente atuam como pontos de contato para serviços. O planejamento de produtos digitais deve garantir uma experiência positiva para os usuários, abrangendo diversas disciplinas, como Interação Humano Computador, Ergonomia, Arquitetura da Informação e Tecnologia da Informação.

A experiência do usuário (UX) é fundamental, mas é importante diferenciá-la da interface do usuário (UI). A UI se concentra na aparência e layout, enquanto a UX envolve pesquisas sistemáticas para entender a experiência dos usuários e melhorar a interação.

A estratégia de UX é construída com base nos aprendizados da experiência do usuário e é catalisada pelo design de interação. As atividades de design acontecem em diferentes níveis organizacionais, desde a estratégia do produto até a operacionalização da interface, com iteração contínua para melhorar a experiência do usuário.

Design de Interfaces

Hoje, dia 05/11/2023, dar-se-á continuidade ao resumo do livro Design de Interfaces. O resumo será feito da pagina 16 a 19

Resumo pág. 16: Nesta página, fala a importância do desenho iterativo com foco nos utilizadores e enfatiza a necessidade do desenho participativo para atender às necessidades dos utilizadores finais. Destaca que o livro oferece uma lição valiosa com base na experiência de docentes em Engenharia Informática. O testo elogia a utilidade do livro para alunos, professores e profissionais da Engenharia das Interfaces Pessoa-Máquina.

Resumo pág. 17:

Existem pessoas que são especialistas em fazer coisas que as outras pessoas possam usar facilmente, como aplicativos em telefones ou sites na internet. Para ajudar essas pessoas a fazerem um bom trabalho, algumas outras pessoas criaram um conjunto de regras ou dicas que são como instruções para fazer as coisas de forma fácil e amigável.

Essas regras são chamadas de “heurísticas de usabilidade” ou “princípios de usabilidade”. Elas são como receitas para fazer com que as coisas funcionem bem para as pessoas. Alguns dos conjuntos de regras mais conhecidos foram criados por pessoas chamadas Norman, Shneiderman e Nielsen.

A ideia é que se você seguir essas regras ao criar algo, como um jogo ou um site da internet, as pessoas vão conseguir usá-lo de maneira mais fácil e agradável. É como se essas regras fossem um guia para fazer as coisas direito, e se você as seguir, você vai criar algo melhor do que se não as seguir.

Resumo da pág. 18: O texto da página 18 fala sobre a importância de tornar as funções visíveis em interfaces para que os usuários saibam como usá-las. Quando as funções estão escondidas, os usuários têm dificuldade em descobrir como usá-las. O texto também menciona o princípio de fornecer feedback aos usuários sobre ações realizadas e resultados. Isso pode ser feito com mudanças visuais, sons ou mensagens para indicar se a ação foi bem-sucedida ou não. Ter funções visíveis e fornecer feedback ajuda os usuários a interagirem de forma mais eficaz com as interfaces.

Resumo da pág. 19: Na página 19, texto fala sobre alguns princípios de design de interface, incluindo visibilidade de funções para facilitar o uso, feedback sobre ações realizadas, restrições que limitam o que os usuários podem fazer de maneira incorreta, e a importância da coerência para ajudar os usuários a reconhecer padrões e aplicar conhecimento adquirido. Esses princípios visam tornar as interfaces mais intuitivas e amigáveis para os usuários.

Por hoje é tudo. No próximo Domingo farei o resumo de mais paginas para dar continuidade. Falta a pagina 20/24. Penso que no Domingo próximo apenas farei o resumo de 2 paginas, que será de 20 e 21, até breve

Técnicas de Pesquisa

O conceito de pesquisa é amplo e variado, e ainda não há um consenso sobre o assunto. Segundo Asti Vera, a pesquisa começa com a definição e análise crítica de um problema, seguido pela busca por uma solução. De acordo com o Webster’s International Dictionary, a pesquisa envolve uma busca minuciosa por fatos e princípios, utilizando métodos científicos.
Ander-Egg define a pesquisa como um procedimento reflexivo sistemático, controlado e crítico, que permite descobrir novos fatos ou dados em qualquer área do conhecimento. Para Rummel, a pesquisa pode ser ampla, englobando todas as investigações especializadas, ou restrita, abrangendo estudos mais aprofundados.

O autor Abramo (1979) destaca a importância de dois princípios gerais na pesquisa científica: objetividade e sistematização de informações fragmentadas. Além disso, existem princípios particulares que são válidos para a pesquisa em determinado campo do conhecimento e dependem da natureza especial do objeto da ciência em questão.
A pesquisa tem uma importância fundamental nas ciências sociais, especialmente na busca por soluções para problemas coletivos. O desenvolvimento de um projeto de pesquisa envolve seis passos: seleção do tópico ou problema, definição e diferenciação do problema, levantamento de hipóteses de trabalho, coleta, sistematização e classificação dos dados, análise e interpretação dos dados, e relatório dos resultados da pesquisa.

A finalidade da pesquisa é descobrir respostas para questões, utilizando métodos científicos. Mesmo que nem sempre obtenham respostas precisas, esses métodos são os únicos capazes de oferecer resultados satisfatórios ou de total êxito. A pesquisa tem como objetivo conhecer e explicar os fenômenos que ocorrem no mundo existencial, compreendendo sua função, estrutura, mudanças, influências e possibilidades de controle.
Existem duas finalidades da pesquisa, de acordo com Bunge (1972): acumulação e compreensão dos fatos levantados. Isso é feito por meio de hipóteses precisas, formuladas e aplicadas como respostas às questões da pesquisa. A pesquisa sempre parte de um problema ou fenômeno a ser investigado, respondendo às necessidades de conhecimento sobre o assunto.

Ela pode invalidar ou confirmar as hipóteses levantadas.
Existem também duas finalidades da pesquisa apontadas por Trujillo (1974): pura, quando busca melhorar o conhecimento e desenvolver metodologias mais aprimoradas; e prática, quando aplicada com objetivos práticos. Selltiz et alii (1965) mencionam quatro finalidades da pesquisa: familiaridade com um fenômeno, obtenção de novos esclarecimentos sobre ele, desenvolvimento de hipóteses e formulação de problemas

Este texto aborda a organização quantitativa dos dados em uma pesquisa, destacando a importância de expressar os dados com medidas numéricas e a necessidade de paciência e cuidado nos procedimentos. O resumo também enfatiza a importância do relato e registro meticuloso e detalhado da pesquisa, incluindo a indicação da metodologia utilizada, referências bibliográficas e definição cuidadosa da terminologia. Além disso, menciona a abrangência da pesquisa social, indicando os diversos campos que podem ser estudados nessa área, como natureza e personalidade humanas, povos e grupos culturais, família, organização social e instituição social, entre outros. Também destaca a importância do estudo de problemas sociais, patologia social e adaptações sociais, assim como a teoria e métodos utilizados na pesquisa social.

Este resumo aborda os diferentes tipos de pesquisa social. Ander-Egg apresenta dois tipos principais: pesquisa básica, que busca o progresso científico e o conhecimento teórico, e pesquisa aplicada, que visa a aplicação prática dos resultados na solução de problemas reais. Best acrescenta mais três classificações: pesquisa histórica, que descreve o passado; pesquisa descritiva, que analisa os fenômenos atuais; e pesquisa experimental, que estuda as relações de causa e efeito. Hymann destaca os tipos descritiva e experimental, sendo a primeira uma simples descrição de um fenômeno e a segunda uma investigação explicativa e interpretativa. A classificação também pode ser feita em relação ao número de pesquisadores envolvidos, podendo ser individual ou grupal. Por fim, Selltiz et alii apresentam os estudos formulativos, sistemáticos ou exploratórios, que enfatizam a descoberta de ideias e discernimentos.

Estudos descritivos são aqueles que têm como objetivo descrever um fenômeno ou situação em um determinado espaço tempo. Eles são realizados através de um estudo detalhado e minucioso, que busca entender e documentar as características, comportamentos e relações entre variáveis em um determinado contexto. Já os estudos de verificação de hipóteses causais têm como objetivo principal a explicação científica de um fenômeno. Eles buscam entender as relações de causa e efeito entre variáveis, e a partir disso, realizar previsões. Se a investigação avançar e alcançar um nível mais aprofundado, pode levar à formulação de leis científicas. Esses estudos são fundamentais para o desenvolvimento e progresso da ciência, já que permitem a compreensão e explicação de fenômenos complexos.

Resumo De Livro – a50226

As páginas 6 a 16 do livro tratam dos seguintes tópicos:

  • A história dos sistemas operativos
  • O sistema operativo MS-DOS
  • O sistema operativo Windows

A história dos sistemas operativos

O livro começa com uma breve história dos sistemas operativos. Os primeiros sistemas operativos eram baseados em texto e eram muito difíceis de usar. Os sistemas operativos baseados em GUI tornaram-se populares na década de 1980.

O primeiro sistema operativo foi o UNIVAC I, lançado em 1951. O UNIVAC I era um sistema operativo baseado em texto que era muito difícil de usar. Os primeiros sistemas operativos eram muito simples e não ofereciam muitas funcionalidades.

Na década de 1960, os sistemas operativos tornaram-se mais complexos e ofereceram mais funcionalidades. O Multics, lançado em 1964, foi um dos primeiros sistemas operativos a oferecer multiprogramação, que permite que vários programas sejam executados ao mesmo tempo.

Na década de 1970, os sistemas operativos tornaram-se ainda mais complexos e ofereceram mais funcionalidades. O UNIX, lançado em 1969, é um sistema operativo que ainda é usado hoje. O UNIX foi um dos primeiros sistemas operativos a oferecer uma interface de linha de comando.

Na década de 1980, os sistemas operativos baseados em GUI tornaram-se populares. O Macintosh, lançado em 1984, foi um dos primeiros computadores pessoais a oferecer uma GUI. O Windows, lançado em 1985, também foi um dos primeiros sistemas operativos baseados em GUI a ganhar popularidade.

O sistema operativo MS-DOS

O MS-DOS é um sistema operativo baseado em texto que foi desenvolvido pela Microsoft para os computadores IBM PC. O MS-DOS foi o sistema operativo mais popular da década de 1980 e início da década de 1990.

O MS-DOS era um sistema operativo muito simples que oferecia apenas as funcionalidades básicas necessárias para executar programas. O MS-DOS era um sistema operativo baseado em linha de comando, o que significava que os utilizadores tinham de dar comandos ao computador usando o teclado.

O sistema operativo Windows

O Windows é um sistema operativo baseado em GUI que foi desenvolvido pela Microsoft. O Windows foi lançado pela primeira vez em 1985 e rapidamente se tornou o sistema operativo mais popular do mundo.

O Windows oferece uma interface gráfica de utilizador que permite aos utilizadores interagir com o computador usando um mouse e ícones. O Windows é um sistema operativo muito mais fácil de usar do que o MS-DOS.

Conclusão

As páginas 6 a 16 do livro “Sistema Operativos e interfaces Gráficas MS-DOS e Windows” fornecem uma breve introdução à história dos sistemas operativos e aos sistemas operativos MS-DOS e Windows. O livro é bem escrito e informativo, e fornece uma boa base para o estudo de sistemas operativos e interfaces gráficas de utilizador.

Resumo do livro

Página 13 até  27

 Conceito de processamento de dados e sistemas de computação

O computador é um instrumento capaz de solucionar problemas desde os mais simples até os mais complexos. Também é capacitado para sistematizar, coletar, manipular e fornecer resultados em forma de informação para os usuários.  Ele permite que a maioria das tarefas complexas sejam executadas em menor tempo possível que se fosse executado pelo homem.

O computador é um dispositivo formado por conjunto de partes eletrônicas e eletromecânicas, dessa forma muitos atores denominam que o emprego de computadores para um determinado fim seja de processamento de dados (1994). O processamento de dados são conjuntos de dados de entrada, para se obter um conjunto de dados de saída, que se chama resultados.

O dado são todos os sinais que o computador trabalha, ou seja, sinais brutos e sem significado individual. Já a informação é o resultado do processamento de dados de entrada, ou seja, o dado processado e/ ou acabado após passar por todo o processamento.

Exemplos de processamentos de dados:

  • Procurar por um número na agenda de contatos do celular;
  • Listar os produtos mais vendidos em uma determinada empresa;
  • Calcular o valor total pago pelo cliente;
  • Imprimir os maiores compradores no mês;

Os dados representam a entrada de todo o processo; o processamento por programas ou instruções do computador e a saída como resultado ou informação. Existem vários tipos de tratamento do processamento de dados sendo eles:

  • Processamento de dados descentralizados: todos os dados são descentralizados, sendo cada local com o seu controle;
  • Processamento centralizado: Todo o controle do processamento dos dados é centralizado em determinado ponto;
  • Processamento distribuído: Estabelece uma rede de processamento interligando vários pontos onde os mesmos são processados em quase todos os pontos, fornecendo uma visão como uma grande distribuição de processamento

HISTÓRICO DA EVOLUÇÃO DOS COMPUTADORES

As primeiras máquinas capazes de efetuar cálculos numéricos surgiram devido à grande necessidade de encontrar uma ferramenta que auxiliasse os homens a efetuarem cálculos numéricos mais rápidos e eficientes (date, 1994; manzano, 2009). O Ábaco (ver Figura 2) é uma ferramenta inventada por volta de 2000 a.C. para auxiliar nos cálculos numéricos e, ainda hoje, é utilizada em alguns centros de ensino espalhados pelo mundo.

Por volta de 1640 um matemático francês chamado Blaise Pascal inventou uma máquina capaz de somar (máquina pascalina,) composta por rodas dentadas.

Em torno de 1670, um matemático alemão chamado de Gottfried Wilhelm Von Leibnitz, aperfeiçoou a máquina criada por Blaise Pascal, introduzindo as operações capazes de multiplicar e dividir.

Em 1822, o matemático inglês, Charles P. Babbage, projetou a máquina das diferenças e a máquina analítica, considerado como o precursor do computador eletrônico digital, devido ao fato de que as suas máquinas possuíam três estágios fundamentais. São eles: entrada dada pelos cartões perfurados, o segundo estágio, o processamento utilizando memória por meio das engrenagens das máquinas e a sua execução e, no último estágio, a saída.

Devido à necessidade de processar em 1890, um engenheiro americano de nome Herman Hollerith, inventou um conjunto de máquinas de processamento de dados que operava com cartões perfurados. Os computadores eram denominados de máquinas mecânicas. Em 1930 que começaram o desenvolvimento de computadores eletromecânicos sendo que em 1941, o alemão Konrad Zuse, construiu o primeiro computador eletromecânico programável de utilização geral, composto por chaves eletromecânicas (reles) que executam operações de soma e comparação como exemplo. No ano de 1944 na Universidade de Harvard nos eua, o professor Howard H. Aiken criou um computador eletromecânico denominado Mark i que possuía basicamente 3 (três) estágios fundamentais: » Entrada dos dados via cartões perfurados; » Processamento dos dados utilizando memórias (engrenagens) que possuíam o programa em execução e; » A saída, que nada mais era que o resultado de todo o processamento.

A partir de 1946, houve uma grande evolução dos computadores com a criação do primeiro computador eletrônico denominado eniac. Era uma máquina enorme que pesava aproximadamente 30 toneladas e continha cerca de 18.000 válvulas. O eniac inaugurou a primeira geração de computadores. Nesta geração, houve vários avanços de computadores de programa armazenado, sendo o Whirlwind i construído no mit – eua, o primeiro computador a usar memória de núcleo de ferrite (muito utilizado nesta época). O primeiro computador de programa armazenado foi o ibm 701, iniciando uma longa série ibm 700 surgido em 1953. Os computadores dessa geração eram difíceis de serem usados, lentos quando comparados à tecnologia atual e relativamente grandes. Também existiam poucos programas disponíveis para uso, mas o seu modelo computacional continua sendo utilizado atualmente (stallings,2010). Conforme vários autores, a migração ou passagem dessa geração, para a segunda geração, se deu principalmente pela substituição de válvulas por transistores. Já a passagem da segunda, para a terceira geração, foi determinada pelo aparecimento dos circuitos integrados de baixa e média escala e, a quarta geração, por circuitos integrados de alta escala de integração representada pelos microprocessadores.

                                              SISTEMAS DE NUMERAÇÃO

Um computador é uma máquina composta de vários componentes eletrônicos, que precisam de eletricidades para funcionar. Todas as letras, números, sinais de pontuação, comandos, instruções de programação e consultas em banco de dados são compreendidos como números pelos computadores. Os dados e informações estão sob a forma de sinais elétricos em um computador. Há dois tipos de sinais elétricos em um computador: os sinais que indicam a ausência de eletricidade e os que indicam a presença de eletricidade. O número zero (0) identifica a ausência de eletricidade e o número um (1), a presença de eletricidade. Logo, em um computador os dados são representados por 0 e 1. Essa representação dada pelos dígitos 0 e 1 é chamada de sistema binário, que é a base do sistema digital do mundo da informática que conhecemos.  Existem quatros sistemas de numeração utilizados na computação (binário, octal, decimal e hexadecimal). Para a transformação de dados em informações (o processamento), é necessário entender o sistema binário e outros sistemas de numeração. Para todos os computadores, tudo que entra e/ou sai são simplesmente números ou dois estados (0 ou 1). No sistema binário, um dígito binário (0 ou 1) é chamado de bit. O bit é a menor unidade de informação de um computador. Qualquer tipo de dado, como um arquivo de texto, uma imagem, um vídeo ou um programa, é uma sequência de bits armazenados no computador. Logo, concluímos facilmente que deve existir uma forma de codificação para que as coisas que conhecemos sejam convertidas para o sistema de numeração que o computador entenda.

 Além das bases binárias, abordaremos a base octal, composta pelos algarismos “0, 1, 2, 3, 4, 5, 6, 7”, a base decimal composta pelos algarismos de “0, 1, 2, 3, 4, 5, 6, 7, 8, 9” e a base hexadecimal composta pelos algarismos “0, 1, 2, 3, 4, 5, 6, 7, 8, 9” e pelas letras “a, b, c, d, e, f”.

 O quadro mostra as 4 (quatro) principais bases numéricas com valores de 0 a 15 e os respectivos valores nas quatro bases.

Os valores da coluna Valor (conforme quadro) são iguais aos da coluna decimal, pois nós utilizamos o sistema decimal no nosso dia a dia. Porém, quando analisamos os valores das outras colunas com a coluna Valor, observa-se que são diferentes devido ao número de algarismos que cada base utiliza para representar. Como exemplo a base binária possui somente dois algarismos (0s e 1s) para representar qualquer valor possível, sendo que o valor 10 que aparece na coluna Valor corresponde a 1010 na coluna binária e 12 na coluna Octal. Já a base hexadecimal possibilita 16 combinações possíveis para representar qualquer número, sendo que, os caracteres “a, b, c, d, e, f” correspondem aos valores 10, 11, 12, 13, 14 e 15 respectivamente.

SISTEMA BINÁRIO

O sistema binário, também conhecido como base de dois, possui dois valores zero (0) e um (1). Os números que utilizamos no nosso dia a dia correspondem basicamente aos dígitos de 0 a 9. São apenas 10 dígitos, sendo chamados de sistema decimal. Na informática, precisamos frequentemente converter os números em decimal para números binários (0 ou 1).

Representação dos números decimais e os seus respectivos números binários

Para converter um número 11001 de binário para o sistema decimal, devemos fazer a multiplicação do último número binário para o primeiro (da direita para a esquerda), multiplicando o número em si por dois, elevado ao expoente zero. Assim, seguimos sucessivamente (segundo número 0 multiplicado por 2 na potência 1) até chegarmos ao último da sequência binária (no nosso exemplo como 1 multiplicado por 2 elevado ao expoente 4). O resultado final será o número decimal 25.

Exemplo de conversão de um número binário 11001 para decimal

 Conversão de números binários para octal, como exemplo, utilizaremos o número binário (001110101). A maneira mais fácil para obter essa conversão é separar primeiramente o número binário em grupos de três dígitos da direita para a esquerda conforme o exemplo anterior. Isso resulta nos seguintes grupos: 001; 110; 101. O próximo passo é fazer a conversão direta conforme mostra o quadro, que resulta no número octal 165.

Conversão direta de número binário em octal.

Agora iremos abordar a conversão de números binários para hexadecimal. Utilizaremos como exemplo o número binário 10111101101. A conversão segue a mesma ideia da conversão anterior só que agora dividiremos os números binários da direita para a esquerda em grupos de quatro (4) números. O resultado dessa conversão é dado pelo número hexadecimal 5ED conforme mostra o quadro.

Conversão direta de números binários para hexadecimal

Na informática tem uma codificação bastante utilizada para a conversão de texto para o sistema binário é o código ASCII (American Standard Code for Information Interchange) (machado, 2014).

O ASCII código é um mapeamento dos caracteres (letras, números e símbolos) para números binários de um (1) Byte. Um (1) Byte corresponde a oito (8) bits. Como exemplo, mostraremos, no quadro, como alguns caracteres são representados em códigos ASCII.

Alguns exemplos da representação binária de alguns caracteres

Introdução ao Design de Interfaces

PRINCIPIOS DE DESIGN DE NORMAN

Autilização de objetos no nosso dia-dia, como portas, tornriras ou secadores de mão devia ser
o mais simples possivel. No entanto , várias pessoas continuam a ter problemas de interraçao com estes objectos.
Empurram portas que deviam portas que deviam ser puxadas ,não se consegue sbrir as torneiras ou tiram água fria em vez de água quente.
Estes são alguns exemplos de interação causados por mau design.
E 1998, Dom Norman identificou um conjunto de princípios e conceitos de design que atualmente são considerados essenciais, quer para garantir uma boa usabilidade, quer para perceber porque é que alguns designs de interface são mais que outros.

Este conceitos são:
Visibilidade: Está relacionada com aquilo que se consegue ver num determinado passo de interação.
Retorno: Este princípio está relacionado com enviar de volta para o utilizador informação que este realizou e sobre os resultados que esta produziu. O retorno pode ser usado na combinação de mensagens ,sons, animações, vibrações e/ou realces e pode ser de dois tipos: Retorno de ação e Retorno de reação.
Restrições: As restrições impedem de fazer outras coisas que não a ação certa do modo correto.
Coerência: o princípio da coerência está relacionado com o uso de operações similares e operações similares para alcançar tarefas similares. Existem quarto tipos de coerência: Etética, funcional , interna e Externa.
Mapeamento: O mapeamento refere-se a duas coisas. No caso da interface , á relação entre os controlos desta e os resultados da sua atuação. Este mapeamento deve ser capaz de produzir o resultado que o utilizador está a espera.

A ALMA DO LÍDER

Um líder não pode cometer o erro de saltar por cima das necessidades básicas antes de antes que todas acharem que essas necessidades foram atendidas.
E isso requer que mergulhe na situação para que consiga compreender o que está passar em sua volta. Para ser a alma do grupo um líder tem de perceber exatamente quais as necessidades de cada um e de colocar as duas perceções em ação.
Eis algumas situações comuns que andam em torno das sete necessidades:
Segurança
Êxito
Cooperação
Inclusão, valorização
Criatividade ,Progresso
Valores morais
Realização espiritual

Em qualquer enumeração das características que um líder deve possuir surge sempre a referência a uma qualidade específica: tem de ser um bom ouvinte Existem muita perícia por detrás dos grandes ouvintes. Por norma todos eles apresentam os seguintes fatores:
1-Não interrompe.
2-Mostra ser empático, não criticam não discute nem trata ninguém com condescendência.
3-Estabelce uma proximidade física
sem invadir espaços pessoais.
4-Observa a linguagem corporal dos outros e faz com que a sua demonstre que não está distraído , mas atento.
5-Oferece as suas próprias opiniões , mas não demasiadas nem demasiado cedo.
6-Compreende o contexto em que o outros estão inseridos.
7-Ouve com o corpo, a mente , o Carção e a alma.

Cássia Afonso-a43351