Livro 1 – Introdução ao Design de Interfaces

Resumo do dia 24 outubro 2022

De acordo com a definição do SIGCHI, interação pessoa máquina é a disciplina que estuda o design. Este livro assenta em três pilares fundamentais: os humanos, os computadores e os fenómenos que acontecem a partir das interações entre as duas espécies.

Sendo assim, o objeto de estudo principal deste livro é a chamada “interface como utilizador” e podem ser sumarizados como: o desenvolvimento e melhoria da utilização, utilidade, segurança, eficiência e eficácia do sistema, incluindo os sistemas computacionais;

A melhoria da usabilidade dos produtos, a qual tem como objetivo tornar os sistemas mais fáceis de utilizar e aprender. A experiência da utilização é crucial para o sucesso de um sistema. O design precisam construir melhores ferramentas para melhorar o desempenho dos seus utilizadores, implicando na prática capacitar os utilizadores para desempenhar os maiores números de tarefas, de forma mais veloz, capacitar os utilizadores para realização de novas tarefas, anteriormente difíceis ou impossíveis de realizar, suportar o processo de resolução de problemas dos nossos utilizadores, promover o desempenho e resultado mais fiáveis. Esta disciplina possui sólidas bases e fortes influências de muitas disciplinas já bem reconhecidas e estabelecidas como disciplinas na área de psicologia, filosofia, inteligência artificial, entre outras.

Resumo do dia 31.10.22 Pag. 4-7

Todos nós, familiares que somos com as máquinas e com os computadores, vivendo na chamada era digital, estamos bem conscientes dos riscos e das dificuldades que a nova tecnologia infelizmente traz sempre consigo. E o reverso da medalha. Estes riscos partem de diversos fatores, como assumir que os engenheiros são capazes de construir sistemas “à prova de bala”, a atribuição leviana de “erro humano”, e até a falta de legislação e normas neste novo contexto. Apesar de parecer um caso extremo, é também um caso extremamente didático e exemplificativo, infelizmente. Contudo, para criarmos uma melhor consciência da importância da interação e das interfaces com o utilizador, consideremos uma história bem real – a história do voo 965 da American Airlines, de Miami para Cali, Colômbia. Era uma noite calma quando o voo 965 partiu do aeroporto de Miami com destino a Cali, na Colômbia. O aparelho, o Boeing 757, foi um dos primeiros aviões designados por glass cockpit, uma vez que o painel de instrumentos do cockpit era baseado em monitores LCD (Liquid Crystal Display e CRT (Cathodic Ray Tubes), como ainda são os nossos computadores atuais. Era, portanto, o primeiro avião comercial com piloto automático, ou seja, com software a correr que substituía os medidores analógicos, supostamente menos precisos e menos fiáveis O computador que serve este tipo de aeronave, chamado FMS (Flight Management System), mostra nos monitores os dados de navegação, dados sobre o sistema e, entre outras coisas, a rota de voo. O FMS dirige automaticamente o avião na rota que o piloto insere utilizando uma consola. Isto transformava o Boeing 757 num avião de longo curso revolucionário, já que necessitava apenas de dois pilotos para operá-lo e qualquer um dos pilotos podia operá-lo a partir do seu próprio banco. Nessa noite, por volta das 19h36m, o controlador de tráfego aéreo indicou à tripulação que seguisse a rota mais curta de aproximação ROZO até à aterragem em Cali. Como o voo tinha partido com 2 horas de atraso, a tripulação decidiu seguir essa rota, uma vez que era a mais curta, podendo assim recuperar parte do atraso. No decurso desta mudança de rota, um dos pilotos teclou “R” na consola do FMS, para introduzir “ROZO”, o ponto de navegação que teriam de sobrevoar. Foi, então, que o voo 965 iniciou um desvio para a esquerda do ponto de navegação pretendido, desviando-se para a cordilheira montanhosa dos Andes. O comandante reparou no desvio e pediu ao copiloto que não para a esquerda, mas o avião já estava suficientemente próximo da montanha para o som de alarme de proximidade de terreno começar a soar. Este som distraiu ainda mais a tripulação, que tentou ganhar altitude sem levantar os flaps que, entretanto, tinham sido descidos para a aterragem pela rota curta. Apesar de a tripulação ter colocado os motores no máximo, o avião embateu contra a montanha e incendiou-se. A causa do acidente foi atribuída inicialmente a erro humano na navegação. Mas o que realmente aconteceu, e o que faz esta história na introdução de um livro sobre interfaces? A interface do FMS utilizava uma característica funcional muito familiar as pessoas que todos os dias navegam e pesquisam na Internet – o preenchimento automático, que conhecemos quando inserimos a primeira ou primeiras letras de uma palavra de pesquisa numa caixa de texto (como, por exemplo, a caixa de pesquisa do Google) e o sistema automaticamente preenche com uma sugestão, que é normalmente a palavra mais próxima. Quando o copiloto teclou “R”, o sistema tinha duas sugestões automáticas, ROZO e ROMEO. O FMS estava programado para, em caso de dúvida, sugerir o ponto de navegação mais próximo, o que fazia todo o sentido para os designers do FMS. Acontece que, naquela situação particular, o ponto mais próximo era ROMEO e não ROZO. Durante 87 segundos o avião rumou para ROMEO em vez de ROZO, confundindo a tripulação que, tao habituada ao autocompletion, nem verificou que o ponto selecionado, apesar de próximo e parecido, não era o pretendido. Outro caso que pelos piores motivos passou a constar das introduções à importância desta disciplina foi a THERAC-25, uma máquina de administração de radiação a doentes oncológicos que, como qualquer outra máquina, tinha uma interface com o utilizador.

O dia começou como de costume no East Texas Cancer Center. Um doente estava a receber o seu tratamento normal de radioterapia através da THERAC-25. A interface apresentava dois modos diferentes de operação, o modo-e para eletrões e o modo-x para raios X. A operadora, uma técnica de radiologia bem treinada, iniciou a introdução dos dados muito rapidamente, uma vez que já possuia uma grande experiência de utilização desta interface.

Após verificar por duas vezes os valores que tinha introduzido, a experiente operadora reparou que a máquina estava no modo raios X em vez do modo eletrões. Apercebendo-se do problema, carregou repetidamente no comando “Cursor up” para tentar corrigir o erro. Então, depois de carregar na tecla RETURN várias vezes, o tratamento foi administrado ao doente. Contudo, a operadora não se apercebeu de que as suas ações tinham despoletado um comportamento erróneo no software.

No decorrer do tratamento, um erro classificado como “Malfunction 54” ocorreu, e na interface surgiu um aviso de que havia sido administrada uma subdose. Seguindo os procedimentos padrão, a operadora carregou na tecla P para prosseguir o tratamento. Contudo, ao fazer isto, uma segunda dose de tratamento foi administrada ao doente, que percebeu imediatamente que algo estava errado e começou a gritar. Infelizmente a operadora utilizava a interface num quarto isolado e, separada do paciente, não ouviu nada. Existia equipamento áudio e vídeo para permitir a interação doente-operadora, mas nesse dia fatal o equipamento estava avariado. Cinco meses mais tarde, o paciente falecia devido às doses excessivas de radiação recebidas naquele dia.

Uma vez mais, a questão impõe-se: o que tem este caso a ver com a Interação Pessoa-Máquina?

Tal como no exemplo anterior, a resposta é: tudo. Apesar de ter sido uma operadora (humana) a administrar o tratamento, o facto é que havia imensos fatores humanos que foram desconsiderados no design da interface da máquina THERAC-25. Para começar, sabemos que nós, os humanos, somos muito bons a seguir padrões e a carregar rapidamente em botões (os humanos são criaturas tão fascinantes e tão importantes que têm um capítulo inteiro que lhes é totalmente dedicado e onde o leitor poderá encontrar mais informação acerca destes comportamentos). Ora, se os designers da THERAC-25 tivessem realizado alguns estudos de usabilidade da interface, teriam tido algum retorno sobre a forma como utilizadores experientes introduzem dados na máquina. Acontece que o tal erro, “Malfunction 54”, ocorria quando as teclas eram pressionadas repetidamente e demasiado depressa num espaço temporal de 8 segundos. Ninguém percebeu, aquando do design do software, que os utilizadores se tornariam tão experientes que iriam conseguir introduzir parâmetros em menos de 8 segundos. Iremos aprender, algumas maneiras de evitar estes erros, em particular, como as descrições dos erros devem ser informativas e falar a linguagem do utilizador (“Malfunction 54” era claramente linguagem do programador); como uma boa interface distingue bem entre dois ou mais contextos diferentes de utilização (o modo-x e modo-e não eram suficientemente distintos um do outro).

Consideremos ainda um outro exemplo de design que é ilustrado por Dix et al. (2004). Este exemplo mostra como o caso da THERAC-25 poderia ter sido evitado se os designers tivessem envolvido os utilizadores no design da interface. Consideremos, então, uma interface para uma seringa digital de administração de tratamentos aos pacientes. Um protótipo foi demonstrado ao pessoal hospitalar, que reparou imediatamente numa falha de design potencialmente fatal. As doses, usando o protótipo inicial, seriam introduzidas através de um teclado numérico, muito semelhantes aos que dispomos nos nossos teclados quotidianos. Um utilizador que pressionasse acidentalmente uma tecla uma vez estaria automaticamente a aumentar a dose num fator de 10! O redesenho desta interface, resultante do envolvimento de alguns utilizadores representativos dos utilizadores finais (pessoal do hospital), resultou numa interface muito diferente, que consiste em botões de incremento/decremento individuais para cada dígito.

Resumo do dia 07.11.22 Pag. 7-9

Felizmente, a maior parte das situações descritas anteriormente só acontece muito raramente e em situações muito especiais. Mas mesmo que não estejam em causa vidas humanas, desenhar interfaces corretamente deve ser prioridade no quotidiano de qualquer profissional desta área. A engenharia da usabilidade, pretende estabelecer o design de sistemas fáceis de usar como uma disciplina de engenharia. Atualmente, temos evidencia de que a engenharia da usabilidade oferece benefícios importantes em termos de custo, qualidade do produto e satisfação do cliente. A usabilidade pode melhorar a produtividade através de designs mais eficientes, que suportam melhor as tarefas dos seus utilizadores Um dos problemas dos sistemas interativos atuais, que muitos autores referem como o problema da creeping featuritis (que se poderia traduzir por “funcionalidadite aguda”), consiste no facto de os fabricantes de software anunciarem os seus produtos através da lista de funcionalidades ou características. Normalmente são listas que crescem de dimensão, de versão para versão, para que o consumidor seja tentado a escolher um produto pelo número de funcionalidades, por oposição a escolher um produto adequado aos seus objetivos foi tirada na secção de informática de uma conhecida livraria. Como se pode facilmente observar pelos títulos, a esmagadora maioria das obras não passa de meros manuais técnicos, quase todos bastante volumosos. Se o software fosse realmente “intuitivo”, como apregoam os fabricantes, não haveria com certeza necessidade de publicar bíblias de instruções e dicas para o utilizar o objetivo, ao estudar princípios de design de interfaces, passa também por evitar o “sobre-design” que conduz à “funcionalidadite aguda”, centrando-se apenas nas funcionalidades que realmente vão ao encontro das verdadeiras necessidades dos nossos utilizadores

A usabilidade faz poupar dinheiro ao produtor de software porque defeitos de design conseguem ser detetados precocemente, poupando-se assim tempo e esforço de implementação. Mas os benefícios financeiros não ficam por aqui. A usabilidade pode trazer beneficios a longo prazo também, através de custos de formação mais baixos – que advirão de o sistema ser fácil de usar – e também de custos de manutenção e suporte ao cliente mais baixos, o que se traduzirá também numa maior satisfação do cliente. Um produto agradável de utilizar significa mais clientes contentes e uma boa reputação para o produto e para a organização que o desenvolveu. Hoje em dia, nenhum fabricante duvida da necessidade de o seu produto ser fácil de utilizar, embora até há bem poucos anos não houvesse esta consciência da usabilidade como fator de vantagem competitiva. Gray (1990) descreve o caso de uma companhia de telefones que passou a poupar 2 milhões de dólares/ano em custos operacionais, graças a uma melhoria na usabilidade. Nielsen (1993), um dos gurus da engenharia da usabilidade, estima que se consegue poupar até 39 mil dólares num pequeno projeto de software e até 8,2 milhões de dólares num grande

Myers (1999) refere que mais de 50% do esforço de design e programação é dedicado aos aspetos da interface com o utilizador. Um fator que entretanto baixou, muito devido à evolução das ferramentas de desenvolvimento de software, que passaram a incorporar mecanismos e facilidades para a construção num nível mais alto de abstração. Para compreender as interfaces atuais, é útil estudar a sua evolução ao longo das últimas décadas. De um modo geral, podemos considerar que houve cinco gerações de Interfaces Pessoa Máquina, que dividimos por décadas. As primeiras interfaces, tal como os primeiros computadores, surgiram na década de 1950. São sobejamente conhecidas as memorias desse nascimento da computação como uma indústria onde os únicos utilizadores que existiam eram os programadores técnicos daquele hardware primordial. Assim, a única interface que havia era baseada em código e cartões perfurados que eram inseridos na máquina, a qual processava a computação a realizar, imprimindo então os resultados. Era uma interface ao nível do hardware. Nas décadas de 1960 e 1970, podemos considerar que a interface evoluiu para uma interface ao nível da programação. COBOL E FORTRAN eram as duas linguagens de programação mais populares, e aprender a programar era um requisito para aprender a utilizar o computador

Apenas na década de 1980 é que se massificaram as interfaces ao nível do diálogo da interação (que já existiam desde os anos 1960), primeiro baseadas em linhas de comandos UNIX e MS-DOS, e posteriormente baseadas em grafismos, as chamadas GUI (Graphical User Interface). Na década de 1990, surge outra classe de interfaces, as interfaces ao nível do trabalho, com sistemas baseados em rede, de suporte ao trabalho colaborativo, o chamado CSCW (Computer-Supported Cooperative Work).

Resumo do dia 14.11.22 Pag. 10-12

Atualmente, assiste-se a um progredir emocionante das interfaces, que inspiradas em filmes de ficção científica, como Minority Report, fazem uso de tecnologia avançada, como as grandes superfícies interativas, as redes sem fios, os telemóveis e os sistemas embebidos, para tentar tornar a interação do utilizador com a máquina o mais natural possível. Houve um movimento intelectual nos anos de 1950 chamado revolução cognitiva, que através de uma combinação de áreas bem estabelecidas como a psicologia, antropologia e linguística com áreas que então se encontravam a nascer, como a inteligência artificial, a computação e a neurociência. Noam Chomsky – um dos principais líderes deste movimento – diria mesmo que “definir a psicologia como a ciência do comportamento era como definir a física como a ciência de leitura de medições” (Chomsky. 1959). Este movimento era, portanto, uma resposta ao comportamentalismo que até então reinava e foi determinante para o surgimento da Interação Pessoa Máquina como disciplina. George Miller, outro famoso psicólogo cognitivo, estudou num célebre artigo, a memória de curto prazo humana e demonstrou que a capacidade desta memoria está limitada a sete itens (Miller, 1956). Aliás, Miller iniciava o artigo com a frase: “O meu problema é que ando a ser perseguido por um número inteiro”. Na altura ainda se estava longe de compreender em que medida esse facto iria influenciar o design de interfaces, mas esta implicação será vista em vários capítulos deste livro. No entanto, veio a provar-se que isto está relacionado não apenas com a quantidade de informação, mas com o tempo e as silabas da língua do utilizador. O mesmo estudo feito, por exemplo, em chinês dá um resultado diferente! Então, a 4 de outubro de 1957, um acontecimento iria definitivamente mudar o rumo da estratégia norte-americana para a informática, o Sputnik 1. o primeiro satélite artificial, é lançado. Acontece que, após a Segunda Guerra Mundial, os EUA eram o centro da inovação tecnológica do mundo. Nos anos 1950, como vimos, os computadores eram raros e enormes e os seus utilizadores eram técnicos altamente especializados. Estes computadores iniciais tinham interfaces que consistiam apenas em linhas de comandos numéricos.

Quando a Rússia apresentou o Sputnik em 1957, os EUA sentiram uma forte ameaça ao seu papel de superpotência tecnológica líder. Assim, o governo norte-americano decidiu investir enormes quantias de dinheiro em programas de inovação científica na área da informática. Criou-se o objetivo de capacitar “generais, almirantes e crianças de 7 anos” para a utilização das máquinas. A NASA fundou várias instituições de investigação dentro da ARPA (Advanced Research Projects Agency e captou o interesse dos melhores cientistas de todo o país. Entre esses cientistas estava Douglas Engelbart, que já estudava a IPM desde o início dos anos 1950 na Universidade de Stanford. Fortemente influenciado pelas teorias de Vannevar Bush, Engelbart encarava o computador como ferramenta de “aumento das capacidades humanas. Engelbart utilizava esse conceito de extensão, de aumento, por oposição ao conceito vigente de “automatização”, para significar que o objetivo era capacitar e dar poder ao utilizador, em vez de substituir o trabalho humano pelos computadores. Engelbart passou a liderar o ARC (Augmentation Research Center no início dos anos 1960, no qual foram inventados conceitos que ainda hoje são totalmente atuais J. R. C. Licklider também foi um dos pioneiros nesta área. Liderando a ARPA entre 1962 e 1964, promoveu a educação na informática, na computação interativa e nas redes de computadores. No seu artigo “The Man-Computer Symbiosis”, de 1960, explica as suas ideias visionárias acerca dos métodos futuros para processamento de informação Em 1962 surge o primeiro sistema gráfico, o Sketchpad, de Ivan Sutherland. O Sketchpad foi considerado o “pai” dos modernos programas de CAD (Computer-Aided Design e das modernas interfaces gráficas. Em suma, revolucionou a forma como as pessoas interagiam com os computadores. Sutherland demonstrou como a computação gráfica poderia ser utilizada tanto para fins artisticos como para fins técnicos, além de constituir um novo paradigma de interação em 1967, Engelbart apresenta o ON-Line System (NLS). Este sistema revolucionário apresentava como característica principal o rato que foi inventado em 1967, 40 anos antes da data em que este livro se encontra a ser escrito

O NLS apresentava também um ecrã de edição a duas dimensões, como os que utilizamos atualmente, endereçamento de objetos no próprio ficheiro (como, por exemplo, as ligações para sites que podemos atualmente inserir num documento Word), hipermédia, janelas, e-mail, controlo de versão de documentos, teleconferência com ecrãs partilhados e ajuda sensível ao contexto. Bastante impressionante, a descrição do NLS de 1967 faz lembrar a maior parte das descrições do software atual.

São Francisco 1968, onde em tudo estava a postos para a Joint Computer Conference. Ali Douglas Engelbart recebe uma ovação memorável pela sua demonstração da computação interativa. Uma consola estava ligada à linha telefónica dos seus colegas do laboratório ARC em Menlo Park. Na plateia virtual 1100 profissionais da informática assistiram à demonstração em 1970, a conhecida marca Xerox funda o PARC (Palo Alto Research Center). Cria três laboratórios, o General Science Lab (GSL), O Computer Science Lab (CSL) e o System Science Lab (SSL). Bob Taylor recruta pessoal de topo para o CSL Entre esses investiga dores encontrava-se Alan Kay. E no PARC que Kay e colegas inventam a maior parte das tecnologias sem as quais não haveria interfaces amigáveis hoje em dia, como o próprio conceito de PC (Personal Computer, a Ethernet, a impressão a laser, o desktop publishing (não esqueçamos que era a Xerox e as suas fotocopiadoras que financiavam o PARC), a programação orientada a objetos que vingou até hoje e a metáfora dos ícones e do desktop pode dizer-se que o primeiro computador pessoal foi o Xerox Alto. Ao contrário dos ecrãs habituais, o Alto tinha um ecrã vertical isto não é surpreendente porque o Alto tinha como principal objetivo a edição gráfica de revistas e livros, daí o ecrã em formato de página de livro que melhor se aproximava da real página que o utilizador criava e editava, conceito que ficou conhecido como WYSIWYG (What You See Is What You Get). O Alto era o primeiro computador com ecrã bitmapped, ou seja, baseado em pixéis em vez de carateres. Isto foi determinante para o desenvolvimento de conceitos como o que a figura apresenta, mais especificamente as janelas sobrepostas e movíveis, exatamente iguais as que utilizamos nos sistemas operativos atuais.

Resumo do dia 21.11.22 Pag. 13-17

Na história e evolução das interfaces com o utilizador, não poderíamos omitir um computador que foi também um marco – Xerox 810 Star, construído em 1981. Smith et al. (1990) descrevem a criação daquela que foi a primeira interface a implementar o paradigma WIMP e a metáfora do desktop. O paradigma WIMP é um estilo de interação com a interface gráfica que assenta em quatro elementos: windows, icons, menus e pointing device (usualmente o rato). Este é o paradigma que utilizamos diariamente nos nossos computadores. De entre as inúmeras qualidades do Star, destacam-se as seguintes:

Foi desenhado com base em extensos e intensos estudos de usabilidade;

O utilizador trabalhava com documentos e não com aplicações, ou seja, as aplicações não apareciam ao utilizador (document-centered):

Contemplava teclas para comandos genéricos, como sejam alguns comandos frequentes como “Copiar”, “Colar” ou “Desfazer”;

Não existiam teclas modais (CTRL, ALT, etc.);

Uma janela era uma forma de icone em grande.

David Liddle, líder do projeto Star, afirmou que, sistemas posteriores, como o Macintosh e o Windows, as pessoas faziam coisas estranhas com os ícones, como utilizá-los para representar uma aplicação. O utilizador nunca deveria operar diretamente nos programas. Não era isso que acontecia porque os designers posteriores limitavam-se a encaixar os conceitos do Star sobre as ideias existentes. No caso do Macintosh, os designers simplesmente não repararam. No caso do Windows, os designers encaixaram os conceitos sobre o MS-DOS.” De facto, na nossa vida real, trabalhamos com documentos e não com aplicações. Os laboratórios foram visitados por Steve Jobs, que tinha acabado de fundar uma empresa chamada Apple na garagem dos seus pais, e Steve quis transportar para o design dos seus computadores as ideias do Star. Surge, então, em 1984 o primeiro Apple Macintosh, que entrou na história da IPM como o primeiro computador pessoal com interface gráfica verdadeiramente popular. Esta Popularidade pode ser talvez entendida no anúncio de 1984. O anúncio versava “Apple introduz o Macintosh, o computador para os confusos e intimidados”. Foi provavelmente a primeira vez que a facilidade de utilização foi usada com propósito comercial. “Se consegue apontar, consegue usar o Macintosh”, pode ler-se ainda no mesmo anúncio. Em vez de ser necessário aprender um conjunto complexo de comandos, o utilizador apenas necessitava de apontar para a seleção num menu e carregar no botão do rato. Isto significava que todas as aplicações no Macintosh tinham uma interface com o utilizador semelhante. Após familiarizar-se com uma, o utilizador conseguia aprender novas aplicações de forma relativamente simples. O sucesso da interface do Macintosh conduziu a uma nova era de aplicações e sistemas operativos gráficos e mais fáceis de usar. Em 1985, a Microsoft, uma firma de software que vendia um sistema operativo baseado em linha de comandos, chamado MS-DOS, conseguia finalmente introduzir uma interface gráfica para o seu novo sistema operativo chamado Windows, usando precisamente as mesmas metáforas do Macintosh. O Windows 3.0 foi bastante bem-sucedido. Tornou-se o standard dos sistemas operativos no mercado dos computadores pessoais e foi mais tarde sucedido pelo Windows 95, ainda mais bem-sucedido do que o 3.0. A estratégia de monopolização do mercado através da venda de pacotes de software completos e introduzindo um sistema de atualização para o software ajudaram a transformar a Microsoft no líder de mercado dos sistemas operativos. Atualmente discute-se muito acerca de design e inovação. A verdade é que a maior parte do que consideramos hoje em dia como design inovador assenta em tecnologia que já existe ha pelo menos 20 anos. Tomemos como exemplo o rato, omnipresente nas nossas casas e escritórios. Inventado por Douglas Engelbart em 1964, só foi comercializado em 1984 por Steve Jobs. Passaram 20 anos desde a descoberta até à sua comercialização. Mas não é apenas o rato que ilustra esta diferença temporal. Consideremos os conhecidos LCD-ecrãs de cristais líquidos. Esta é uma tecnologia ainda mais omnipresente do que os computadores em si, pois existe nos nossos relógios digitais, telemóveis, computadores, e cada vez mais nas televisões. Poderíamos então pensar que os cristais líquidos teriam sido inventados há 20 anos, mas a verdade é que foram descobertos em 1888 por Friedrich Reinitzer, um botânico austríaco. O primeiro protótipo apenas surgiu em 1968, num centro de investigação norte-americano. A Optel foi a primeira fabricante de relógios em LCD em 1970. Desde então temos assistido a um aumento de aplicações e produtos baseados nesta tecnologia. Mas passaram 82 anos desde a descoberta até à sua comercialização. Aconteceu o mesmo em relação à própria televisão. A era dourada da TV só aconteceu 20 anos (nos anos 1950 dos talk shows e Elvis Presley) depois da sua invenção, registada em 1935 Segundo um relatório de 2003 da Academia Nacional de Ciências dos EUA, que estudou a evolução das tecnologias de informação e telecomunicações, desde o momento da sua invenção em laboratórios, até se transformarem em indústrias de biliões de dólares, a conclusão não podia ser mais clara, em quase todos os casos, o desenvolvimento demorou 20 anos. Que implicações para o design de interfaces nos aporta esta conclusão? Em primeiro lugar, registamos que as tecnologias que irão afetar significativamente as nossas vidas nos próximos 10 anos afinal já cá andam há quase uma década. Isto significa, por isso, que a arte e o engenho residem em conseguir descobri-las. Um exemplo de inovações emergentes consiste nos plasmas, na tinta eletrónica e nos chamados smartboards, ou quadros inteligentes. Da mesma maneira que os quadros pretos revolucionaram as salas de aulas dos nossos tetravôs, também com a diminuição dos preços destas superfícies colaborativas inteligentes se poderá antecipar uma pequena revolução na forma como atualmente aprendemos, reunimos e planeamos. Como forma de resumo e finalização desta introdução, consideremos então as características que deverá possuir um bom designer de interação. Convém recordar que esta é uma disciplina que tem muitas disciplinas-mãe, ou seja, esta é uma área onde a multidisciplinaridade não é um problema, mas sim uma vantagem. A equipa de design ideal é composta por talentos com diversas formações de base, embora seja igualmente importante a partilha do objetivo comum, que é o gosto pelo design, o qual implica necessariamente muita imaginação e criatividade assentes num mundo real onde é imperativo ir ao encontro das reais necessidades do utilizador. O designer ideal deve ser, por isso, capaz de identificar e resolver corretamente problemas de design, capaz de descrever e apresentar um determinado design, encontrando a forma convincente de explanar os motivos pelos quais o design é bom, capaz de compreender as pessoas para as quais se está a desenhar um produto (uma forma simples de atingir isto é repetir em voz alta “eu não sou o utilizador, eu não sou o utilizador”). Um profissional excelente, tanto no design de alto nível, no design conceptual, como no design detalhado. Tudo isto implica, capacidade de visualização, capacidade de comunicação, improviso: empatia, gosto pelo design. Essencialmente, o bom designer é um criativo organizado. As boas soluções de design não devem ser guiadas pelas restrições ou conveniências tecnológicas, nem por caprichos do cliente ou utilizador. Devem, sim, constituir soluções simples e elegantes que conduzam a uma agradável experiência de utilização, contribuindo para evitar que nos transformemos nas ferramentas das nossas próprias ferramentas.

Resumo do dia 28.11.22 Pag. 17-21

Este capítulo começou por fixar o objeto principal do estudo, a interface com o utilizador, sendo que esta engloba todos os aspetos do sistema com os quais o utilizador contacta incluindo os aspetos físicos, ergonómicos e não apenas os aspetos do software, embora estes sejam naturalmente os mais focados neste livro introdutório. Além disso, exemplificou-se como desenhos de interface podem efetivamente contribuir para grandes desastres ou para resultados trágicos. A motivação económica para o desenho das interfaces não é, por isso, singular, existindo muitos outros bons motivos para que os engenheiros e designers de software devam aprender e seguir a teoria e prática do desenho de interfaces. Para conseguir produzir interfaces com o utilizador mais fáceis e agradáveis de utilizar, o primeiro passo é conseguir compreender a história e a rápida evolução que as interfaces com o utilizador sofreram nas décadas mais recentes. Neste sentido, dividiu-se a análise desta evolução em termos dos saltos significativos desde as primeiras interfaces: as linhas de comandos, as primeiras interfaces gráficas, as interfaces baseadas no paradigma do ambiente de trabalho, as interfaces colaborativas e, atualmente, os novos paradigmas de interação móveis, baseados em gestos, multitoque, etc. Refletindo sobre as qualidades que um bom designer de interfaces deverá evidenciar, ser capaz de identificar e resolver corretamente os problemas de design, de compreender o perfil das pessoas que irão utilizar o produto, de conseguir evoluir desde o desenho conceptual e abstrato até ao desenho final, detalhado, e ainda ser capaz de comunicar de forma eficaz uma ou várias ideias de desenho. No fim de contas, todas as interfaces existem para assistir um ser humano no desempenhar das suas tarefas. Isto significa que o primeiro passo para compreender os princípios e práticas do design de interfaces é precisamente compreender o próprio ser humano. Exatamente conhecer-nos a nós mesmos. O modelo do processador humano de Card(Card et al., 1983) constitui uma visão simplificada do processamento humano envolvido na interação com um sistema computacional. Contudo, é um bom modelo que permite compreender os processos envolvidos na troca e processamento de informação e que também é utilizado para prever como um humano responde a estímulos. O modelo é composto por memonas e processadores. Através de estudos empíricos, os valores típicos que caracterizam as memórias e os processadores foram estimados no caso das memórias, esses valores incluem a capacidade de armazenamento, o tipo de codificação e outros, no caso dos processadores o valor estimado é o tempo de ciclo. O modelo que permite a identificação das fases de interação entre o utilizador e a máquina e o modelo do ciclo de interação de Norman. Serve essencialmente para lidar com os problemas de interação de uma maneira estruturada e ainda para extrair um conjunto de heurísticas que se podem aplicar no desenho de sistemas interativos. Tal como os computadores, os humanos possuem dispositivos de entrada e saída de informação. As entradas de informação podem ser realizadas por via auditiva, visual e tátil. Os canais de movimento constituem um dispositivo de saída de informação, como a fala. Toda a informação que é processada é aplicada, sendo também armazenada na memoria. Toda a interação de um humano com o mundo onde vive realiza-se através de trocas de informação que são realizadas graças aos seus mecanismos de receção e emissão de informação, aos quais chamamos dispositivos de entrada e saída, numa analogia com os periféricos dos computadores. É importante entender que tanto os mecanismos cognitivos como os mecanismos percetuais estão relacionados e funcionam em conjunto, constituindo parte de um maior sistema. Podemos considerar duas etapas no funcionamento da visão, a receção física dos estímulos visuais e o processamento e interpretação desses estímulos. A visão começa com a luz. O olho humano é um fantástico dispositivo que recebe luz e transforma essa luz em energia elétrica. O sistema visual tem ainda de transformar a imagem 2D que recebe do mundo numa imagem 3D que é a reconstrução dessa projeção.

Livro 2 – A República de Platão Uma Introdução À Filosofia

Resumo dia 05-12.22 pag. 13-20

A ideia de introdução é uma metáfora a partir de uma experiência espacial. Ela pressupõe a ideia de um lugar, do qual se pode falar de um dentro e um fora, e de um movimento de um para o outro, entrar e sair. Esse lugar, no caso, é a filosofia, que, numa metáfora análoga, nós chamamos de “país da filosofia”, com suas planícies, montanhas e depressões. Quem está no interior do país da filosofia desfruta de uma paisagem bem peculiar. O texto, que começa com a simples indagação sobre o melhor modo de levar a vida, dirigida a um velho, que se aproximava do momento de ter de deixá-la, logo mostra que essa questão não pode ser respondida individualmente sem que se coloque a questão do sentido universal da justiça, medida do bem-viver, e da areté em geral, “excelência moral” ou “virtude”. Querendo ou não todo indivíduo já conta com alguma medida que oriente a série de decisões em direção a um fim último que torne a vida desejável por si mesma. A filosofia se distingue das demais formas de conhecimento tal como se pode distinguir um pugilista que desfere golpes contra a parede e aquele que luta contra um adversário: só no segundo caso o ataque é contrariado por um contra-ataque. Se filosofia significa “amor ao saber”, então introdução à filosofia significará encontrar em si mesmo a admiração e o desejo de cuidar do saber.

Resumo dia 12-12.22 Pag. 21-30

Platão, que foi poeta na juventude (e em certo sentido pela vida inteira), criara um estilo literário próprio em seus diálogos filosóficos, com seus personagens, viagens, lugares, situações, histórias, mitos e dramas. Sua linguagem é construída para expressar e dar forma a esse drama. A semelhança entre literatura e filosofia não está tanto na presença de um estilo, contexto ou ficção, mas no fato do texto literário e do texto filosófico serem lidos mais a favor da linguagem e sentido neles construídos que a favor da verdade e realidade neles defendidas. A experiência de proferir um discurso, que os autores das obras filosóficas vivem, corresponde à capacidade de eleger no léxico, pois o leitor terá acesso a estes termos que expressam o sentido daquilo que se quer tornar legível, manifesto, claro. Esta legibilidade é a lei que torna o ler possível, de modo que o ler consiste em compreender no texto porque sua legibilidade é supostamente possível apenas naquela linguagem. A República inicia-se colocando um problema ainda não elaborado. O que falta a este início é a colocação efetiva do objeto da investigação. Parece-nos que este ainda está sendo preparado. E é verdade que Platão se demora algumas páginas nesta preparação, como um músico que escreve um prelúdio ou um poeta que tece uma introdução.

Resumo dia 03-01.23 Pag. 31-59

Os diálogos de Platão poderiam nos parecer, a primeira vista, pouco objetivos, por abrirem muitas questões e possibilidades de respondê-las. Esta é a impressão mais comum, correta inicialmente, pois percebe o caráter pouco analítico dos textos de Platão. A imaginação origina-se nas sensações e é o amor às sensações que dá origem aos protestos daqueles que não querem mudar suas formas de compreender o mundo. Portanto, o início dialético, problemático e demorado dos diálogos de Platão deve-se a necessidade de romper a crença imaginária no mundo sensível e seu prazer mutável. É neste sentido que a dialética deve ser capaz de coagir, tendo caráter persuasivo na direção de um despertar. o. A impermanência do estado do ser empírico é causa do espanto ou admiração àquele que percebe credulamente tal mundo: “A admiração é a verdadeira característica do filósofo. Não tem outra origem a filosofia. Entrementes, o antes e o depois à admiração se caracterizam pela seguinte diferença: enquanto as imagens, e com elas o mundo sensível, dão as qualidades à alma, esta última busca a essência. Como veremos, corpo e alma se relacionam, mas também se diferem de forma muito importante. É preciso atentar ao fato de que Platão usa a noção de “modelo” para falar deste tipo de imagem, mas noutros contextos para tratar da própria essência. Mas sempre uma imagem-modelo (imitação) é algo bom quando determinada pela Forma, igual a si mesma e imutável. Logo, o termo “modelo” em Platão ora designará uma boa imagem ou mito, ora a própria essência.

Resumo dia 09-01.23 Pag. 60-72

 A aparência ou a verdade, relativas à distinção entre proferir miticamente e discursivamente, dão sentido diverso à imitação imagética, como simulacro ou cópia. Por isso, as imagens podem ser ponto de partida da persuasão dialética. Por isso Platão pode falar em subida da alma na direção do ser e do bem, metaforizado pela imagem da luz do sol: para alguém não acostumado com a luz é necessário aproximar-se dela pouco a pouco a fim de evitar sofrimento aos olhos, olhando inicialmente sombras, depois reflexos luminosos e, enfim, para o próprio sol. Para ser coerente com esta descoberta, Platão não encontrou outro meio para expressar o conhecimento por Ideias senão através de uma boa imagem: a da própria visão. Para haver visão deve haver não apenas a vista (olhos), o ato de ver (função sensória) e o visto (a coisa), mas também a iluminação. A visão está nos olhos e as cores vistas estão nas coisas, porém é necessário acrescentar a luz como terceiro elemento da vista, o que os outros sentidos não exigem. Além disso, a visão é o único sentido capaz de ver o próprio elemento pelo qual exerce sua função: a luz é o que permite a visão e a visão é capaz de ver a própria luz que lhe é causa.