Artigos

LGPD, privacidade e a experiência do usuário


 

Escrevi esse artigo para fomentar uma discussão a respeito da camada "frontend" das aplicações digitais. Não se exclui ou reduz a importância da proteção do banco de dados, repositório de arquivos ou das camadas de transmissão e criptografia, mas o "frontend" é onde os dados são entregues em sua forma mais inocente, abertos, sem criptografia, com a confiança de que o indivíduo conectado no sistema é o proprietário do dado.

Quanto se investe em "frontend" se comparamos com o custo de infraestrutura e "backend"?

Contexto histórico

Até a aprovação da GDPR na União europeia em 14 de abril de 2016, o tema de proteção de dados pessoais não era prioridade nas atividades diárias das empresas. Havia a preocupação com a segurança dos sistemas, evidente, mas não existiam os riscos e exposições que hoje se multiplicam, assim como as regulações que trazem penalidades cada vez mais severas, indo desde a interrupção de processamento de dados pessoais até o pagamento de pesadas multas.

Um dos desafios atualmente é a falta de instrução e cultura de privacidade. As empresas que contam com sistemas e interfaces, digitais ou analógicas, para coletar dados pessoais precisam modificar as regras de negócios, fluxos de trabalho e repensar suas interfaces para poder atender os direitos dos titulares de dados, não apenas no Brasil, mas em praticamente todo o mundo economicamente e globalmente ativo.

O direito à privacidade não é algo novo, tendo as suas primeiras manifestações na Magna Carta Inglesa de 1215 e na difusão do princípio man's house is his castle na Common Law, na 4.ª Emenda da Constituição dos Estados Unidos da América, aprovada em 1787, e na Constituição Francesa de 1791, estando intimamente relacionado ao surgimento da burguesia e ao crescimento dos centros urbanos. Ainda que a privacidade seja um direito universal, tratado inclusive no artigo 12 da Declaração Universal dos Direitos Humanos[1], o fato é que a privacidade do indivíduo é um direito relacionado a sua esfera pessoal. A ideia é proteger a vida pessoal, destacando-a do contato com a esfera pública.

De acordo Stefano Rodotá (2008), o "nascimento da privacidade está associado à desagregação da sociedade feudal, na qual indivíduos tinham fortes vínculos devido a uma complexa série de relações na própria vida cotidiana". Ainda assim o conceito de privacidade não era geral e nem sempre tinham o mesmo entendimento entre os autores. Foi apenas em 1890 nos Estados Unidos, com a publicação "The Right to Privacy" de autoria dos advogados Samuel Dennis Warren e Louis Dembitz Brandeis, que o conceito de privacidade foi trazido como "right to be alone" ou em tradução literal "o direito de estar sozinho".

Desde o surgimento da Internet e, agora, acentuado pela crescente integração de plataformas digitais, evidenciou-se, no mundo, um significativo crescimento do risco e ocorrências de vazamento de dados pessoais (BOTHA, 2017). Mesmo no Brasil a todo momento são noticiados casos de vazamento de dados pessoais, tratamentos sem consentimento, coleta de dados em excesso, entre outras ameaças que podem atingir diretamente o direito à privacidade.

Muitos vazamentos são gerados por imperícia de pessoas, falhas de sistemas, processos não documentados, má fé, ataques externos, ações criminosas, engenharia social, ingenuidade de funcionários, entre vários outros.

O principal responsável pelo vazamento de dados confidenciais de uma companhia é o próprio funcionário. De acordo com a Pesquisa Global de Segurança da Informação 2016[2], publicada pela PwC (PricewaterhouseCoopers), 41% das 600 empresas ouvidas pela consultoria informaram que os funcionários atuais são os maiores causadores de incidentes de segurança da informação no Brasil. Tais incidentes vão desde o roubo de propriedade intelectual até o comprometimento de dados de clientes, o que levou 39% das empresas a relatar perdas financeiras após os ataques.

Ainda assim, ainda de acordo com a pesquisa da PwC, nem todo vazamento interno é gerado por atitudes criminosas, mas sim por despreparo, falta de cultura, falta de treinamento, e problemas de usabilidade e comunicação quanto a processos e sistemas.

Para melhorar a experiência, customizar a interação por canais digitais, melhorar a comunicação e processos, otimizar o tempo de uso e aumentar taxas de conversão, aplicativos para celular, sistemas e canais digitais convidam cada usuário a fornecer seus dados pessoais o tempo todo e nem sempre as pessoas estão preparadas a lidar com esses dados, gerando vazamentos das mais diversas formas.

Experiência do usuário

A confiança dos usuários está diretamente relacionada com o sucesso de um negócio. Se usuário perde a confiança na empresa, na marca ou na eficácia dos seus serviços, então a empresa enfrentará muitos desafios para conseguir reconquistar a confiança perdida. Na era da privacidade, agora, perder a confiança é cada vez mais fácil.  De acordo com o artigo "Experiência do usuário vs. privacidade: é possível ganhar nos dois lados?[3]" da PwC: "Esse paradoxo moderno é muito relevante no âmbito empresarial." - Ainda de acordo com o artigo: "Uma pesquisa da PwC, que ouviu 5.300 pessoas de 22 países, mostrou que 84% delas perdem a confiança em empresas por violações na privacidade de dados. Além da perda de confiança, as organizações possuem responsabilidade jurídica e criminal sobre os dados; na prática, o risco acaba fazendo com que elas implantem controles rígidos e apliquem restrições severas à liberdade do uso".

Logo, cuidar da experiência do usuário no contexto da privacidade de dados não está relacionado apenas aos cuidados que a empresa deva ter em relação ao seu site ou sistema, mas sim em todas as camadas que permeiam a relação entre o indivíduo e a empresa. Nesta perspectiva, pode-se ver que os usuários estão mais preocupados com o modo como as empresas estão usando suas informações pessoais do que com o impacto que a Internet tem na privacidade e segurança pessoais em geral.

Segundo dados da "The Data Confidence Index, 2019[4]", na figura 1, o Brasil está no topo da lista de países onde as pessoas apresentam maior desconfiança em relação a como as empresas estão usando seus dados pessoais.

Ou seja, mesmo em um país que sequer possuía uma lei geral de proteção de dados, os usuários já apresentaram uma alta desconfiança, o que leva as empresas a se preocuparem cada vez mais com a experiência do usuário e demonstrar confiança e transparência.

Ainda que os usuários brasileiros sejam os mais desconfiados e preocupados com o uso dos seus dados, uma vez a empresa adquirindo a confiança, os brasileiros são os mais propensos a fornecer dados sem maiores preocupações. Segundo a figura 2 da mesma pesquisa da Globalwebindex, 2019, o Brasil é o último do ranking em relação ao desejo de ser anônimo online e não ter dados pessoais coletados.

Segundo pesquisa da Security Magazine[5], em tradução livre do autor:

  • 52% dos usuários pagariam mais por um mesmo produto ou serviço de uma empresa com melhor segurança de dados;
  • 54% dos usuários se sentem pior com empresas que tem dados vazados;
  • 78% dos usuários são cuidados em relação a capacidade da empresa em manter os dados seguros;
  • 52% dos usuários afirmam que segurança é importante ou é o principal critério ao escolher um produto ou serviço;
  • 90% dos usuários esperam ser informados em até 24 horas algum vazamento acontecer com seus dados;
  • 85% dos usuários contam para outros, inclusive publicamente, sobre suas experiências, boas ou más sendo 33% usando redes sociais;
  • 65% dos usuários perdem a confiança em uma empresa se seus dados pessoais vazarem sendo que 80% cancelariam os serviços se fossem prejudicados.

No design, os termos User Experience (UX) e "User-Centered Design", ou seja, Experiência de Usuário e Design Centrado no Usuário, ganham espaço nas pesquisas de Donald Norman (1986, 2004, 2006) e logo conquistaram uma série de outras publicações sobre o assunto.

A experiência do usuário vai muito mais além do que uma interface gráfica, mas leva em consideração a satisfação e a experiência em uma relação emocional do usuário com o produto ou serviço. De acordo com Norman (2017), é importante diferenciar UI (user interface) de UX (user experience) sendo que a primeira diz respeito à interface gráfica com o qual o usuário interage onde a usabilidade é importante atributo; Já a segunda é mais ampla e diversas disciplinas são levadas em consideração no esforço de criar uma experiência de qualidade para o usuário.

International Organisation for Standardization define usabilidade como efetividade, eficiência e satisfação com a qual um conjunto específico de usuários pode alcançar um conjunto específico de tarefas em um projeto particular. Essa definição faz uma ligação entre facilidade de uso e satisfação, considerando a satisfação como uma questão ligada a atributos técnicos e não sensoriais.

Ainda nessa linha de raciocínio, Nielsen (2003) define a usabilidade como um atributo de qualidade, que diz respeito ao quão fácil de usar é a interface para um usuário. É definida pela facilidade de aprendizagem, eficiência, capacidade de memorização, prevenção a erros e satisfação. Segundo Jordan (1998), a questão da satisfação em relação à usabilidade diz mais respeito a evitar sentimentos negativos, como frustração no uso, do que produzir emoções positivas como prazer ou orgulho.

Portanto, quanto mais personalizada for a experiência do usuário, maior seria o volume de dados gerados pelo usuário, o que provocam questões sobre uso dos dados pessoais para fins econômicos das empresas, e qual a finalidade de tudo que é armazenado e compartilhado, pensamento esse que é seguido por Doneda em:

Sem perder de vista que o controle sobre a informação foi sempre um elemento essencial na definição de poderes dentro de uma sociedade, a tecnologia operou especificamente a intensificação dos fluxos de informação e, consequentemente, de suas fontes e seus destinatários. Tal mudança, a princípio quantitativa, acaba por influir qualitativamente, mudando os eixos de equilíbrio na equação entre poder - informação - pessoa - controle [?] Há de se verificar como o desenvolvimento tecnológico age sobre a sociedade e, consequentemente, sobre o ordenamento jurídico. (Doneda, 2006, p. 9)

Essas questões éticas de privacidade e SI (segurança da informação) entram em rota de colisão com aspectos econômicos do mundo digital, muitas vezes transpondo-se do ambiente virtual para o mundo físico e afetando as experiências dos indivíduos.

Análise heurística

Medir a usabilidade de uma interface envolve não apenas medir questões relativas às funcionalidades de um software, mas também a facilidade de seu uso como ferramenta de trabalho, tendo como um dos principais desafios a redução do tempo necessário para aprendermos a utilizar o sistema (NIELSEN, 1993).

No Quadro 2, apresentado a seguir, os critérios para Avaliação Heurística propostos por Nielsen (1994) são apresentados. 

As heurísticas de Nielsen são de cunho extremamente genérico, portanto especificá-las para um determinado domínio como a proteção de dados pessoais seria viável e, como referência para a aplicação da heurística de Nielsen para a proteção de dados pessoais tem-se publicado o artigo "Análise heurística para LGPD" [6] escrito por Priscilla Brito que assina o conteúdo o trecho em destaque a seguir com uma adaptação dos 10 elementos da heurística para a proteção de dados pessoais.

1. VISIBILIDADE E STATUS DO SISTEMA

O sistema deve sempre informar ao usuário sobre a utilização dos dados, o compartilhamento dos dados (quando houver), os direitos de usuário de: acessar, atualizar, corrigir, eliminar, no momento da coleta de dados, fornecendo um feedback adequado para o usuário sobre o tratamento de seus dados e a transparência de suas ações.

2. EQUIVALÊNCIA ENTRE O SISTEMA E O MUNDO REAL

O sistema deve utilizar linguagem clara e termos familiares para o usuário, ao invés de linguagem técnica do produto ou jurídica. Deve-se respeitar o modelo mental do usuário para entendimento do que se propõem, quanto ao consentimento, tratamento dos dados e direitos dos usuários.

3. LIBERDADE E CONTROLE DO USUÁRIO

Nunca devemos impor alguma ação ao usuário. Não se pode induzir o usuário a qualquer ação de opt-in. Além disso, deve-se permitir ao usuário a escolha em fornecer o consentimento da utilização dos dados ou desfazer qualquer ação de tratamento de dados de maneira fácil, acessível e clara.

Os níveis de consentimento garantem também ao usuário a liberdade de optar por fornecer outros dados que potencialize um produto ou serviço, mas que não são imprescindíveis.

4. CONSISTÊNCIA E PADRÕES

Manter a consistência visual e de linguagem para o tratamento dos dados dos usuários, desde a solicitação até os direitos dos usuários, a fim de facilitar a identificação das iniciativas de transparência da utilização dos dados.

A política de privacidade e contratos devem conter essas práticas para a transparência e facilidade de entendimento do usuário.

5. PREVENÇÃO DE ERRO

Sinalizar as ações que podem causar efeitos drásticos, como eliminação dos dados, retirada do consentimento. Essas ações devem ser acompanhadas de um pedido de confirmação ou possibilidade de desfazer a ação. O Design deve ser cuidadoso para evitar erros de usuários.

6. RECONHECER AO INVÉS DE RELEMBRAR

Deixe claro as funcionalidades de tratamento de dados para o usuário. Os direitos dos usuários sobre seus dados, como atualização, correção e eliminação dos dados devem ser acessíveis e claros para os usuários. O acesso aos dados deve ser livre e de fácil localização.

7. FLEXIBILIDADE E EFICIÊNCIA DE USO

O sistema deve ser aplicado à usuários avançados ou usuários leigos. Importante fornecer atalhos para que o usuário acesse seus dados a qualquer momento. Além disso, é importante que o sistema forneça mecanismos para que o usuário exerça seus direitos sobre os dados, aprimorando a eficiência do sistema.

8. ESTÉTICA E DESIGN MINIMALISTA

Para as ações de consentimento e direitos dos usuários é importante informar ao usuário o que é necessário. Informações irrelevantes sobrecarregam o usuário e competem com informações fundamentais de direitos sobre os dados.

Os contratos e políticas de privacidade devem ser dotados dessas boas práticas a fim de trazer ao usuário o que realmente é relevante, levando em consideração o Legal Design.

9. AUXILIAR USUÁRIOS A RECONHECER, DIAGNOSTICAR E RECUPERAR AÇÕES ERRADAS

As mensagens de erro devem ser claras para o usuário, seja na falta de preenchimento do consentimento ou na solicitação de seus direitos.

10. AJUDA E DOCUMENTAÇÃO

A ajuda é imprescindível para o usuário entenda seus direitos, as regras para o tratamento dos seus dados e entenda os valores e benefícios dessa nova abordagem

Em seu artigo "O que GDPR significa para UX?", Claire Barrett, designer de UX e UI, compartilhou um conjunto objetivo de diretrizes de UX que a agência de design no qual ela trabalha tem seguido em relação a proteção de dados pessoais em tradução literal do autor a seguir:

  1. Os usuários devem ativar de forma expressa e manual a coleta e o uso de dados.
  2. Os usuários devem consentir em todo tipo de atividade de processamento de dados. (Nota do autor: Caso a base legal do consentimento seja escolhida, claro)
  3. Os usuários devem ter o direito de retirar facilmente seu consentimento a qualquer momento.
  4. Os usuários devem poder verificar todas as empresas e todos os fornecedores e parceiros da empresa que manipularão os dados.
  5. Consentimento não é o mesmo que concordar com os termos e condições; portanto, eles não devem ser agrupados; eles são separados e devem ter formas separadas.
  6. Embora seja bom pedir consentimento nos momentos certos, é ainda melhor explicar claramente por que o consentimento beneficiará sua experiência.[8]

Seguindo a mesma linha de raciocínio de Barret, de acordo com Nogueira (2013), existem seis critérios para avaliar a usabilidade: Facilidade de uso, Facilidade de aprendizado, Satisfação do usuário, Produtividade, Flexibilidade e Memorabilidade.

Estes seis critérios podem ser aplicados para avaliar a usabilidade em relação a proteção de dados pessoais. Importante ainda comentar que a análise não se aplica apenas a portais e sistemas digitais, mas de modo amplo, a todo relacionamento do indivíduo que possui os dados com a organização que administrará temporariamente os dados pessoais, reduzindo a distância entre eles e fazendo com que a empresa enxergue o usuário como sendo um "sócio" para o negócio prosperar e não como mero produto, por isso, trabalhar com feedbacks também é fundamental, ou seja, o usuário precisa experienciar os efeitos de cada ação. E quanto mais restritas forem as possibilidades de erro ao usuário, mais eficientes serão suas escolhas.

Conforme Norman, "essa interação é governada por nossa biologia, psicologia, sociedade e cultura" (NORMAN, 2006, p. 16).

Coleta de dados pessoais

Uma das mudanças promovidas pela necessidade de proteger os dados pessoais é o tratamento de coleta (LGPD, Art 3°, cp III, § 1). No contexto de interfaces digitais, entende-se por coleta como a ação que o site ou sistema executa para captura dos dados pessoais de alguém, seja através de um formulário, tela de cadastro em um aplicativo ou mesmo processamento de identificadores eletrônicos como cookies e IP.

A primeira mudança mais evidente diz respeito à finalidade do processamento. (LGPD, Art 6°, cap I). Todo dado pessoal para ser coletado pelo site ter uma finalidade clara de modo que o usuário possa identificar, com clareza e sem palavras difíceis ou escondidas, qual será a finalidade que a empresa dará àquele dado uma vez informado pelo usuário. Ou seja, a coleta deve ter um propósito conhecido e informado e não subentendido ou meramente genérico para armazenamento e uso futuro.

Importante deixar claro a definição de dados pessoais uma vez que nem todo dado tratado por um sistema é um dado pessoal. Os dados que não são considerados dados pessoais não estão no escopo de tratamento das leis de proteção de dados pessoais elencadas neste ensaio.

Em resumo, de acordo com a LGPD (Art 5° cap I) dados pessoais são quaisquer conjuntos de informações que possam levar a identificação de uma pessoa natural, de maneira direta ou indireta (identificada ou identificável), por referência a um nome, a um número de identificação ou a um ou mais elementos específicos da sua identidade física, fisiológica, psíquica, econômica, cultural ou social. São exemplos de dados pessoais: nome, endereço, e-mail, identidade, CPF, dados de localização (função de dados de localização em telefones ou GPS), endereço de IP (protocolo de internet); testemunhos de conexão (cookies), entre outros. - (Art. 5º Para os fins desta Lei, considera-se: I - dado pessoal: informação relacionada a pessoa natural identificada ou identificável).

Ou seja, não são apenas dados diretos que identifiquem uma pessoa, mas sim, um conjunto de dados que podem vir a potencialmente identificar uma pessoa. Também não entra no escopo de tratamento os dados anônimos ou dados anonimizados, que seriam os relativos a uma pessoa que não possa ser identificado, considerando a utilização de meios técnicos razoáveis e disponíveis na ocasião de seu tratamento ou esforços próprios do controlador dos dados pessoais, contudo, se um dado anonimizado puder ser revertido ele passa a ser considerado um dado pessoal.

A figura 3 abaixo representa um formulário, aparentemente muito simples e comum, que não atenderia os requisitos de finalidade conforme reprodução do artigo 6° da LGPD:

Art. 6º As atividades de tratamento de dados pessoais deverão observar a boa-fé e os seguintes princípios: I -  finalidade: realização do tratamento para  propósitos legítimos, específicos, explícitos e informados ao titular, sem possibilidade de tratamento posterior de forma incompatível com essas finalidades. (LGPD, 2018, art. 6º) (grifo do autor).

É de se notar que o formulário realiza a coleta de dados pessoais, mas não informa qual a finalidade de cada campo. A criação de uma frase indicando que ao enviar o formulário o usuário já estaria automaticamente de acordo com alguma política, que normalmente está em outro local, não é suficiente, específico e pode ser considerado um tratamento ilegal de dados pessoais. Não há uma obrigatoriedade em se informar necessariamente a finalidade de cada campo, mas sim pelo menos aqueles que possam gerar dúvida do titular quanto à sua real necessidade para o contexto do negócio.

Por exemplo, em um formulário de cadastro de usuário para acesso ao sistema, é usual o sistema pedir a coleta do email e da senha para fins de identificação, logo, não há necessidade de adicionar mais uma explicação na interface gerando uma confusão ou poluição visual na aplicação. Contudo, se a empresa precisa coletar o "CPF" que não tem nenhuma função clara para o objetivo de "login", cabe mencionar uma explicação sobre o motivo do "CPF" ser importante naquele contexto.

Já na figura 4 pode-se ter uma visão mais clara de um exemplo de mudança necessária em um formulário. Desconsidere o aspecto gráfico do wireframe(?) ou mesmo a utilidade dos campos, são apenas exemplos. 

  • Houve a explicação para o usuário sobre o motivo da coleta de determinados dados pessoais, que talvez não seriam necessários para o serviço em questão.
  • Tornou-se opcional a coleta de um dado pessoal, mas deixou-se claro que o usuário apenas não terá o serviço customizado, um benefício oferecido para quem informou o dado.
  • Explicação clara que o serviço é indicado para maiores de idade por isso a idade precisava ser coletada. Nesse caso não há necessidade de saber a data de nascimento do usuário, a menos que o serviço pretenda enviar mensagens de parabéns ou presentes para o usuário.

Outro princípio importante que foi levado em consideração nesse exemplo foi o princípio da necessidade, que de acordo com o item III do artigo 6° da LGPD diz: "III - necessidade: limitação do tratamento ao mínimo necessário para a realização de suas finalidades, com abrangência dos dados pertinentes, proporcionais e não excessivos em relação às finalidades do tratamento de dados". (grifo do autor)

Sendo assim, o titular do dado tem a expectativa de que a interface irá coletar o mínimo de dados pessoais, sendo apenas o suficiente para a prestação do serviço sem prejuízo ao indivíduo. Coletar dados em excesso ou para prever futuras campanhas de publicidade, segmentação e compartilhamento com terceiros, não é mais permitido (não que fosse "permitido" antes), sendo essa uma mudança colossal para sites e sistemas que dependem de grande volume de dados pessoais. (LGPD, Art 7°, cap X, § 5) e que sempre foram acostumados a "coletar o máximo que puder" para "quando a gente precisar".

Durante a construção de formulários identifica-se então a partir da análise dos aspectos regulatórios a necessidade de verificar pelo menos cinco etapas para a coleta de dados pessoais que se torna exposto no Quadro 3 abaixo.

Uma das recomendações que Claire traz em seu artigo[8] é focar na coleta de dados "just-in-time", ou seja, explicar por que os dados são necessários e como serão e não serão usados - mas apenas quando o aplicativo ou site realmente precisar deles como por exemplo na figura 5.

Muitos aplicativos Android e iOS exigem acesso à localização (GPS), fotos e até a câmera durante a instalação, o que não é algo que a maioria dos usuários gostaria de consentir de forma espontânea. Uma maneira mais eficiente de obter permissão é explicar a necessidade de dados no ponto de coleta usando essa estratégia de "just-in-time", para que os usuários possam dar consentimento apenas quando entenderem o objetivo deles.

Políticas de privacidade

A política de privacidade é um dos elementos para efetiva implementação de um programa de privacidade seguindo os conceitos do "privacy by design". A política tem como objetivo dar maior visibilidade e transparência ao tratamento de dados pessoais em um determinado site, serviço ou empresa.

De acordo com pesquisa do canal TechCrunch[7] em sua publicação "Examination Of Privacy Policies Shows A Few Troubling Trends" a média do tamanho das políticas de privacidade e termos de uso dos sites só é menor que a constituição dos Estados Unidos da América, o que explica o motivo que ninguém lê e a aceitação dos termos de uso acaba não passando de uma ação desnecessária do usuário e sem valor para a empresa.

Ainda, em pesquisa feita pela Universidade de Stanford[9], 97% dos usuários ao se depararem com contratos e documentos grandes e difíceis de ler, clicam sem ler em "eu aceito", tornando assim completamente desconhecidos os termos, condições e as políticas de tratamento de dados.

Não pode ser esquecido que embora em linguagem mais simples, as políticas não deixam de ser elementos jurídicos e de governanças, e que todo o cuidado é necessário para evitar que uma política de privacidade ou um termo de uso possa gerar mais danos do que benefícios para a empresa. Para criar políticas de modo a apresentar de modo mais amigável para o usuário, pode-se utilizar o conceito de "Legal Design"[10], que poderíamos resumir como design thinking aplicado ao direito. Ainda, de acordo com a professora Hagan da Universidade de Stanford, legal design "é a forma como avaliamos e desenhamos negócios jurídicos de maneira simples, funcional, atrativa e com boa usabilidade".

Como exemplo de política onde foi aplicado o "Legal Design", o portal Juro[11] apresenta seus termos de uso de um modo diferente e fácil de ler sem perder a segurança jurídica conforme pode ser observado na figura 7.

 

 

De acordo com o artigo "Reading online privacy policies could cost $365 billion a year", escrito por Alecia McDonald e Lorrie Faith Cranor, da Carnegie Mellon University, em tradução livre, uma pessoa média levaria cerca de 244 horas por ano para ler todas as políticas de privacidade dos sites que ela usa, o que significa cerca de 40 minutos por dia . Para as autoras do artigo: "Algumas empresas consideram que seus usuários devem ler as políticas de privacidade e, se não o fizerem, são evidências de falta de preocupação com a privacidade", escrevem elas. "Em vez disso, afirmamos que os sites precisam fazer um trabalho melhor de transmitir suas práticas de maneiras úteis, o que inclui a redução do tempo necessário para ler as políticas. Se as empresas não puderem fazer isso, pode ser necessário um regulamento para fornecer proteções básicas de privacidade" - O que de fato aconteceu, anos depois, com a criação da GDPR. 

Consentimento

De acordo com a LGPD (Art 5° cap XII) o consentimento é uma manifestação livre, informada e inequívoca pela qual o titular concorda com o tratamento de seus dados pessoais para uma finalidade determinada. Essa transparência e exigência por uma comunicação clara com o usuário é defendida por Doneda ao criticar os pedidos de consentimento sem clareza em: "Além disso, os efeitos do consentimento nem sempre se mostram nítidos ao usuário, de maneira que sua exigência para o tratamento de dados pessoais acaba por se tornar um procedimento inócuo". (DONEDA, 2006, p. 373)

Ao se reconhecer a necessidade de que o consentimento seja claro e inequívoco, a fim de que seja válido, cabe pensar em como pedir este consentimento para os usuários de modo a oferecer uma experiência de qualidade. Neste contexto, existem dois modelos pelos quais um usuário pode consentir: o "opt-in" e o "opt-out".

"O modelo opt-in exige uma postura ativa do usuário, declarando sua vontade de submeter seus dados pessoais a um tratamento qualquer" (MENDES, 2014, p. 205), ao contrário do opt-out que exige uma postura ativa do usuário declarando sua vontade de cancelar o consentimento antes atribuído ou apenas cancelar o tratamento de dados pessoais como no caso da CCPA que exige de forma expressa mecanismos de opt-out.

Considerando que, por vezes, um dos requisitos para a validade do consentimento é justamente que este seja expresso, é preciso que a declaração de vontade seja clara e expressa, vedando-se a declaração oculta, subentendida ou implícita. Por este motivo, o modelo opt-in parece proporcionar maior validade ao consentimento, tornando legítimo o tratamento de dados. (MENDES, 2014, p. 205)

Depois que o consentimento é concedido, os clientes devem ter controle total sobre seus dados; ou seja, a capacidade de navegar, alterar e excluir qualquer um dos dados que foram coletados através da base legal do "consentimento". Isso significa que as configurações de privacidade precisam fornecer opções granulares para revogar o consentimento sem maiores dificuldades onde não basta uma mera aceitação ou assinatura do interessado (ou ainda um click, no caso dos usuários de internet) para que esteja configurado o consentimento, é preciso que ele seja suficientemente livre e informado (BEYLEVELD e BROWNSWORD, 2007, p. 7)

A facilidade para remover dados deve ser maior ou igual a facilidade para obter os dados. Se o usuário possui uma má experiência na hora de sair da empresa ou cancelar os serviços com ela é admissível que ele não vá retornar e ainda possa agregar comentários negativos para outros clientes.

Como exemplo desse cenário, em 06/11/2019 a empresa ClickQuickNow da Polônia foi multada em 47 mil euros por não ter oferecido meios apropriados para o usuário revogar o seu consentimento no website, conforme cláusula 2 da decisão[12].

2) remover dados pessoais de pessoas que não são clientes da ClickQuickNow Sp. z o. o. e a partir do qual ClickQuickNow Sp. z o. o. recebeu uma solicitação para interromper o processamento de dados pessoais.

II. por violação do disposto no art. 5 parágrafo 1 lit. a , art. 6 cláusula 1, art. 7 item 3, art. 12 parágrafo 2, art. Cláusula 17 1 lit. b e art. 24 parágrafo 1 do Regulamento 2016/679 impõe ao ClickQuickNow Sp. z o.o. com sede em Varsóvia , uma multa no valor de 201.559,50 PLN (duzentos e um mil quinhentos e cinquenta e nove zlotys 50/100), o que equivale a 47.000 euros , de acordo com a taxa de câmbio média em euros anunciada pelo Banco Nacional da Polônia na tabela de taxas de câmbio 28 de janeiro de 2019

Privacidade Por Design

Privacidade Por Design, ou Privacy by Design (PbD) se refere a uma abordagem que visa a garantir a privacidade do usuário ao longo de todo o ciclo de vida de uma aplicação, serviço ou processo de negócio. O PbD incorpora medidas de proteção de dados pessoais desde a concepção e concede, ao titular dos dados, flexibilidade e poder para gerenciar o tratamento das informações pessoais.

Privacy by Design é proativo e não reativo. Antecipa os problemas e diminui o risco de vazamentos de dados. Os projetos são pensados para que o usuário tenha o controle para alterar as configurações padrão e optar por fornecer ou não seus dados, e ainda assim conseguir utilizar o produto ou serviço. Sempre que possível, as transações que envolvam dados pessoais devem serem feitas com dados não identificáveis, ou seja, que não permitam saber quem é o titular daquela informação.

Uma vez aplicado o conceito de privacidade por design valida-se se a entrega do produto ou serviço respeita a "Privacidade por padrão". Esse conceito significa que, assim que um produto ou serviço for lançado ao público, as configurações mais seguras de privacidade deverão ser aplicadas por padrão, sem nenhuma entrada manual do usuário final. Além disso, todos os dados pessoais fornecidos pelo usuário para permitir o uso ideal de um produto devem ser mantidos apenas pelo tempo necessário para fornecer o produto ou serviço. Se mais informações do que o necessário para fornecer o serviço forem divulgadas, esse conceito será violado. Na prática, em um site que utiliza cookies, eles só podem ser habilitados quando o usuário ativa essa coleta de dados. Caso o visitante de um site não ative os cookies de forma voluntária, não haverá a coleta de informações pessoais do usuário. 

Gestão de cookies

Antes de tratar a respeito da gestão de cookies, cabe explicar o que é um cookie no contexto de plataformas digitais. Criado em 1994 pelo engenheiro de software Lou Montulli enquanto trabalhava para a empresa NetScape em um projeto de comércio eletrônico, os cookies foram incorporados ao navegador Internet explorer em 1995 até se tornarem uma especificação de domínio público em 1998 e revolucionando o modo como as compras eletrônicas são feitas[13].

Um cookie nada mais é do que um arquivo que é salvo no computador do usuário para que o site possa reconhecê-lo novamente que. Os cookies, por si só, não podem identificar uma pessoa, haja vista que os mesmos, na maioria das vezes, gravam informações do acesso efetuado pelo indivíduo, ou seja, informações sobre a página acessada, menu clicado, ferramentas de monitoração ou algumas preferências identificadas no site. Estas informações, mesmo quando atreladas ao IP (Internet Protocol), não permitem identificar o indivíduo, mas apenas aquele equipamento que acessou determinado site. Assim, temos que o uso de cookies, inicialmente, não caracteriza uma violação à LGPD, desde que o consumidor seja informado (art. 7º da Lei nº 12.965/2014 - Marco Civil da Internet) e não seja usado para fins maliciosos. 

Portanto, não é necessária a autorização do usuário, tal como previsto pela LGPD, para cookies voltado para armazenamento técnico ou o acesso, como cookies de entrada do usuário, de autenticação durante uma sessão, cookies de segurança, especialmente para detectar abusos de autenticação e vinculados à funcionalidade explicitamente solicitada pelo usuário, por uma duração limitada, assim como cookies de players de conteúdo multimídia.

No entanto, seguindo as diretrizes da ePrivacy[14], a personalização dos sites é devida quando os cookies são com o objetivo de marketing ou estatísticas, para entrega de publicidade, conteúdo direcionado, análise de comportamento e mapeamento do perfil do usuário. Nesses casos é necessário, além do pedido de autorização, que o usuário tenha à sua disposição alguma plataforma para que ele possa gerenciar os seus cookies, autorizar, revogar autorizações e ter clareza quanto à finalidade de cada cookie.

Esse tipo de solução é chamado de "banner de cookie", como exemplo nas figuras 8 e 9 abaixo, e deve ser oferecida por todas as empresas que processam cookies com objetivo de identificação do indivíduo e finalidade diferente de questões de segurança e acesso.

No exemplo das figuras acima foi possível identificar dois elementos novos que fazem parte da experiência do usuário: Uma barra indicativa para explicar a existência da coleta de cookies, com opções para o usuário aceitar ou rejeitar, bem como uma janela para o usuário escolher quais cookies ele quer concordar ou discordar. Uma plataforma brasileira para gestão de cookies de acordo com a LGPD é a PrivacyTools, veja no site www.privacytools.com.br

Caixas de marcação

Uma prática muito comum na criação de formulário web é o autopreenchimento de caixas de marcação, o que gera dissonância em relação ao conceito de privacidade por padrão, já explicada anteriormente nesse trabalho, mas apenas quando a caixa de marcação tem como intenção "facilitar" o trabalho do indivíduo em aceitar condições.

No exemplo da figura 10 abaixo foi adicionado um conjunto de caixas de marcação para obter autorização do usuário para a utilização dos seus dados pessoais para finalidades distintas.

Neste caso são opções não obrigatórias mas elas já surgem marcadas antes mesmo do usuário tomar uma ação de aceite. Este tipo de prática, muito comum, não pode ser realizada se a empresa tem como valor o respeito pelo direito à proteção de dados e privacidade dos usuários, seguindo o conceito de privacidade por padrão.

As caixas de marcação precisam estar, todas, desmarcadas e deve existir uma ação clara e inequívoca do usuário em marca-las. Essa mudança afeta diversos sistemas, principalmente aqueles que usam caixas de marcação para agregar ao serviço sendo prestado ao usuário uma série de outras finalidades "casadas" com a finalidade principal.

Conclusão

O poder computacional possibilitou que cada vez mais as empresas possam gerar negócios, explorar novos mercados, tomar decisões e ter meios inteligentes para reduzir custos, aumentar a lucratividade e entregar produtos e serviços melhores e mais rápidos. Os pontos positivos de tamanha evolução tecnológica não poderiam deixar de ser acompanhadas por alguns pontos negativos, e a sensação de perda da privacidade é um desses pontos. Constantemente vigiadas, as pessoas se acostumam com as facilidades dos dispositivos e sistemas e esquecem que cada uso gratuito de um sistema carrega em si uma infinidade de dados pessoais que tornam as pessoas o produto dessa relação.

As interfaces com o usuário são a porta de entrada para a coleta dos dados pessoais e é onde toda a relação se inicia. Anteriormente essa coleta era feita de forma irrestrita, irresponsável e as empresas que possuíam o maior número de dados de pessoas eram as que detinham maior poder de barganha no mercado por poderem oferecer uma segmentação cada vez mais qualificada.

Agora, tudo mudou, os dados são das pessoas e os casos recorrentes de vazamentos de dados ligaram sinais de alertas nos indivíduos de que existe muito risco naquele conjunto de dados que o indivíduo registra para consumir um produto aparentemente inofensivo e gratuito.


Referências

 

 


Marison Gomes Diretor/Presidente da empresa Sócio-fundador da Privacy Tools, Maven Inventing e Trubr, engenheiro de software e arquiteto de soluções corporativas. Certificado em Blockchain for Business pela Linux Foundation e em Data Protection pela Exin (PDPF). Lidera projetos de tecnologia no Brasil e Europa tanto no mercado corporativo quanto governo. Atualmente apoia o núcleo III do Instituto iColab, é instrutor de GDPR/LGPD em cursos e certificações e tem como preferência atuação com plataformas de Blockchain permissionada como Hyperledger.

Comentários