Este é um texto que foi escrito por Lu Han, Designer de produto do Spotify. Para ler o texto na íntegra, acesse aqui.
O design ético é algo que é cada vez mais tempo pensando no Spotify.
Como podemos construir confiança? Incentivar o consumo significativo? E certifique-se de que estamos usando nossa voz com responsabilidade?
Qualquer pessoa que trabalhe em tecnologia sabe que a indústria sofreu um baque nos últimos anos por sua percepção de falta de moral e cultura descuidada de “se mexer rapidamente”. As empresas estão começando a perceber quanto dano foi causado aos mercados de trabalho, privacidade, e saúde mental — e veja como fazer as coisas de maneira diferente daqui para frente.
Como designers, temos um grande papel a desempenhar na mudança cultural. E para ver porque, basta olhar para a evolução do design como profissão. Os designers digitais começaram como engenheiros com inclinação artística e CSS. Mas, cada vez mais, designers vêm incorporar a voz do usuário e se esforçam para o que Don Norman apelidou de “design centrado no usuário”.
Desde 1988, tanto aconteceu. Steve Jobs popularizou a ideia de que “Design não é apenas o que parece e se sente. O design é como funciona". O crescimento da interação de voz e da inteligência artificial levou o design além da estética para o território da tomada de decisões complexas. Hoje, os designers gastam mais tempo do que nunca em vincular nosso trabalho a valores humanos.
Outra mudança importante também ocorreu. Para conhecer melhor o comportamento e as motivações das pessoas, aprendemos que somos basicamente uma espécie irracional, propensa a erros de cálculo cognitivos, como a aversão à perda ou a falácia do custo irrecuperável. Os designers exploraram essas vulnerabilidades psicológicas para fazer com que os usuários esquecessem o que eles queriam e clicassem em quais empresas gostariam que eles quisessem.
Junte isso aos testes A / B — o que nos permite executar milhares de experimentos controlados com usuários todos os dias a um custo baixo — e você tem uma internet assustadoramente boa em manipular pessoas e causar danos a longo prazo.
Algumas formas que o design antiético pode machucar pessoas
Estes podem ser divididos em três categorias sobrepostas:
1. Danos físicos — incluindo:
Inatividade e privação de sono, ativadas por feeds de rolagem infinita, vídeos com filas automáticas e outras características da economia da atenção.
Estresse financeiro, resultante de recursos que consomem planos de dados ou tornam incrivelmente difícil cancelar inscrições renovadas.
Exploração de trabalhadores na economia gig de tecnologia, que usa economia comportamental sob o disfarce de “design persuasivo” para levar as pessoas a trabalhar mais horas contra seus próprios interesses.
Exposição de dados pessoalmente identificáveis - por exemplo, quando os recursos compartilham a localização exata de alguém com outras pessoas.
Acidentes devido à distração, especialmente quando as pessoas estão dirigindo.
2. Danos emocionais — incluindo:
Traição de confiança ou privacidade, quando as pessoas são exploradas, expostas ou discriminadas usando informações pessoais que consideravam privadas.
Auto-imagem negativa, ansiedade e depressão — especialmente entre os jovens, cujas mentes, corpos e identidades ainda estão em desenvolvimento e tendem a desejar a aceitação social.
3. Danos para a sociedade — incluindo:
Polarização política — os algoritmos achatam a paisagem do jornalismo, impulsionam as agências de notícias a competir através do sensacionalismo e contribuem para uma sociedade dividida com visões polarizadas e uma compreensão imaterial da realidade.
Exclusão — por exemplo, quando os designers não conseguem desenvolver recursos sensíveis às experiências dos usuários LGBTQ, considere a acessibilidade para pessoas com deficiências mentais e físicas e reconheça a importância do texto legível para usuários mais velhos.
Reforçando os estereótipos e a opressão estrutural — devido à crescente dependência de algoritmos e dados tendenciosos para classificar e fazer previsões sobre as pessoas.
Por que tanta experiência ruim
Design é fundamentalmente colocar o usuário em primeiro lugar. Mas se fosse sempre fácil fazer isso, não estaríamos enfrentando os problemas que enfrentamos hoje. Infelizmente, as necessidades dos usuários muitas vezes entram em conflito com alguns incentivos muito tentadores. Essas são as métricas e os ideais com os quais frequentemente nos dirigimos para a tecnologia: engajamento e receita, ciência, automação e escala, neutralidade e velocidade imprudente.
Os incentivos
Engajamento — esses são os grandes números, como os usuários médios diários (DAU), que são usados como abreviação para o sucesso nas equipes de tecnologia.
Ciência — não é difícil ver que testes A / B antiéticos podem ser executados se ficarmos muito gananciosos com os dados comportamentais. Muitas vezes esquecemos de considerar como “apenas testar” algo pode ter efeitos materiais sobre os usuários.
Automação e escala — muitas vezes tentamos encontrar essa solução de tamanho único, seja um algoritmo ou um fluxo de design, que força as pessoas a se adaptarem a elas, e não o contrário.
Neutralidade — tantas decisões são tomadas por não decidir nada. Devemos tentar combater o instinto para evitar conversas difíceis, porque escolhas passivas são escolhas, no entanto.
Velocidade imprudente — quantas decisões questionáveis são escovadas sob o tapete a serviço de “sair pela porta” mais rápido? Agora sabemos que o design pode causar danos sem intenção, precisamos reservar tempo para resolver isso com o mesmo rigor que trazemos para o brilhante novos projetos.
Olhando para trás, para os exemplos de danos, é claro que todas as decisões tomadas estão a serviço de um desses incentivos.
Mudando a forma como trabalhamos
Abaixo estão algumas dicas e truques que algumas das equipes no Spotify acharam úteis…
Cuidado com a linguagem dos trade-offs
Uma maneira de reconhecer quando uma troca está sendo feita é prestar atenção ao idioma que está sendo usado. Aqui estão algumas frases que muitas vezes são colocadas em situações questionáveis e devem nos levar a relembrar nossos motivos:
“este é um caso extremo” / “vamos pela maioria dos nossos usuários”
Descartar certos grupos de pessoas como “casos extremos” ou fazer suposições sobre “a maioria” de nossos usuários é um julgamento sobre quem merece nossa consideração. Em vez de traçar limites assumidos e manter algumas pessoas à margem, pergunte a si mesmo como você pode criar empatia por essas pessoas.
“É só para o MVP” / “é apenas um teste em pequena escala”
Essas frases podem encerrar uma conversa sobre valores, fazendo com que uma solução pareça temporária. Mas os recursos geralmente permanecem no estágio MVP mais do que o esperado e até um teste de 1% significa um milhão de usuários do Spotify. Então, quando discutimos dentro de nossas equipes, devemos falar sobre os testes em termos do número de usuários afetados, em vez da porcentagem, e nunca sermos persuadidos a lançar algo tão nocivo que não desejemos que ele viva no aplicativo por muito tempo. prazo.
“Ninguém vai notar de qualquer maneira” / “basta adicioná-lo aos Termos e Condições”
Essas frases soam como o começo de uma reportagem negativa da imprensa. Em primeiro lugar, porque as pessoas sempre percebem. E em segundo lugar, porque é simplesmente irresponsável assumir que todos lêem os Termos e Condições.
“Todo mundo faz isso” / “se não, alguém vai”
Frases como essas foram usadas para justificar algumas coisas terríveis. Mas devemos nos ver como pessoas que podem trazer mudanças positivas.
Reconhecer conflitos de interesse
Outra maneira de reconhecer decisões antiéticas é perceber quando você usa os preconceitos cognitivos das pessoas em seu design, por exemplo, jogando com a inércia natural das pessoas para que elas assistam a horas de vídeos em fila automática. Isso pode indicar que seus incentivos não estão mais alinhados com os do usuário.
Uma boa regra é se perguntar: se o usuário sabia o que realmente estava acontecendo, como se sentiria a respeito? É o que eles querem para si mesmos?
Escolha as métricas certas
A escolha das métricas corretas é essencial para atender verdadeiramente os usuários, pois as métricas de uma equipe guiam todas as decisões mais importantes. Precisamos usar alguns sinais, em vez de um, para equilibrar o envolvimento com o sentimento e não confiar apenas em medidas quantitativas. É especialmente importante escolher as mais acertadas à medida que descarregamos mais e mais decisões em algoritmos, que otimizam indiscriminadamente para qualquer versão de sucesso que definimos.
Use storytelling e enquadramento
Contar histórias é o coração de ser um designer. Precisamos ter empatia com as pessoas em todos os lados da equação e levá-las a ter empatia entre si também. E vimos que muito do storytelling depende do enquadramento — ao definir nossos princípios de design no início de um projeto e garantir que nos atenhamos a eles, não importa o quanto seja tentador desviar. Uma maneira de fazer isso é usar a estrutura de Incentivos / Danos acima para destacar qualquer dano físico, emocional e social que possa resultar de um projeto. Ao adicionar implicações éticas a um briefing de produto ou design, podemos realmente moldar a maneira como concebemos e avaliamos as soluções em andamento.
Avalie a ética ao longo do caminho
Ética não é algo a ser tirado do caminho no início de um projeto e depois esquecido. Devemos voltar a eles em conversas pós-ideação, quando estamos avaliando soluções diferentes. E também devemos levar a ética aos nossos planos de pesquisa de usuários — conduzindo entrevistas para aprofundar ideias como confiança, distração e privacidade, entender onde os usuários traçam a linha e descobrir como podemos tornar nosso design mais respeitoso e acessível no futuro.
Testes em diferentes contextos usando simuladores de carro, óculos de rastreamento ocular e estudos de diário podem descobrir o quão bem um projeto funciona em diferentes situações.
Realizar o pós-teste
Uma vez que tenhamos alguns resultados de testes, devemos trabalhar com cientistas de dados para entender se certas populações são especialmente impactadas pelo nosso teste. Devemos evitar olhar apenas as métricas para o usuário comum, já que “no momento em que você precisa tomar uma decisão sobre qualquer indivíduo, a média é inútil. Pior do que inútil, na verdade, porque cria a ilusão de conhecimento, quando na verdade a média disfarça o que é mais importante sobre um indivíduo ”, como Todd Rose aponta em seu livro The end of the Average. E devemos fazer amizade com nossa equipe de Suporte ao Cliente — eles são aqueles com seus ouvidos mais próximos do chão e ver um lado da experiência que muitas vezes se perde nos números.
No Spotify, a equipe de Suporte ao Cliente compartilha seu conhecimento fazendo com que as equipes de produtos visitem seu QG a cada poucos meses e recebam as pessoas respondendo aos e-mails e tweets que chegam. As equipes ouvem as reclamações mais comuns de nossos recursos e trazem insights interessantes. Por exemplo, o Spotify alterou o shuffle e repetimos os estados ativos de um deslocamento de cor sutil para um ponto indicando que o botão está ativo. Uma pequena mudança como essa pode tornar a experiência mais acessível não apenas aos usuários daltônicos, mas também a todos os demais.
Ao falar com a equipe de Suporte ao Cliente, aprenderam como uma pequena mudança poderia tornar o Spotify mais acessível para todos.
E finalmente…
Precisamos descompactar nosso relacionamento com “conseqüências não intencionais”. A causa do dano tecnológico é quase sempre não intencional. E isso é tão importante ter em mente, porque nos lembra que não podemos evitar criar um trabalho prejudicial apenas por meio de boas intenções.
O que sabemos é o seguinte: uma vez que percebemos ou até prevemos que nosso trabalho pode prejudicar os outros, somos responsáveis por corrigi-lo ou abandonar essa solução específica. Não podemos mais enfiar nossas cabeças na areia e optar pela neutralidade ou pela negação plausível.
Precisamos ter uma opinião sobre ética. Porque ser informado é o que nos dá a confiança para nos posicionarmos sobre as coisas de que gostamos.
Comentarios