UM PUNHADO DE EMPRESAS HIGH TECH CONTROLA TODOS OS DIAS A MENTE DE BILHÕES DE PESSOAS
Poucos sabem disso, mas todos que navegam hoje na internet, sobretudo os viciados em sites sociais, têm seus desejos, tendências, emoções e até mesmo os seus pensamentos verificados, analisados e “controlados” por sistemas cognitivos artificiais. Grupos de especialistas se revezam dia e noite para desenvolver técnicas de manipulação “ética” dos pensamentos e das ações de mais de dois bilhões de pessoas a cada dia. Tristan Harris explica como isso acontece.
16 DE DEZEMBRO DE 2017 ÀS 13:42 // INSCREVA-SE NA TV 247
Vídeo: TED – Ideas Worth Spreading
Tradução: Maurício Kakuei Tanaka. Revisão: Maricene Crus
Chamado pela prestigiosa revista The Atlantic de “a coisa mais próxima de uma consciência que o Vale do Silício tem para oferecer”, Tristan Harris passou três anos trabalhando como Design Ethicist (especialista em designético) do Google. Sua missão era desenvolver uma visão estrutural de como a tecnologia deveria "eticamente" orientar os pensamentos e as ações de bilhões de pessoas que, diariamente, navegam nas telas de celulares, tabletes e computadores”. Ou seja, na prática, controlar a cabeça de quase todos nós.
Em 2016, Tristan deixou o Google para trabalhar em tempo integral num projeto de “reforma da economia da atenção”, desenvolvido pela Time Well Spent (Tempo bem gasto), uma organização sem fins lucrativos. A Time Well Spent visa catalisar um processo de mudança rápida e coordenada no seio das empresas de tecnologia através de recursos como os da advocacia pública, o desenvolvimento de padrões de design ético, a educação do design e recomendações para a implantação de políticas destinadas a proteger as mentes das manipulações nefastas. Tristan passou uma inteira década estudando para compreender as influências invisíveis que isolam o pensamento e a ação humana. Com base em ferramentas tão variadas e atualíssimas como a literatura sobre os vícios (addictions), a magia performática, a engenharia social, o design persuasivo e a economia comportamental, ele está atualmente desenvolvendo uma visão estrutural para a implantação da persuasão ética, especialmente no que se refere à responsabilidade moral das empresas de tecnologia. Suas ideias percorrem hoje os jornais e revistas mais importantes do mundo, e sua presença é muito requisitada nos congressos e eventos que objetivam lançar mais luz sobre as tendências evolutivas no seio da nossa cultura.
Tristan informa com regularidade Chefes de Estado, CEOs das empresas de alta tecnologia e membros do Congresso dos EUA sobre a “economia da atenção”. Ele é um Fellowat Visitante da Harvard Kennedy School, e conselheiro do Open Markets Institute. Antes disso, Tristan Harris foi CEO da Apture, empresa que o Google adquiriu em 2011. A Apture permitiu que milhões de usuários obtivessem explicações instantâneas e on-the-fly em uma vasta rede de editores. Ele possui várias patentes de seus trabalhos negociadas com a Apple, a Wikia, a Apture e o Google. É graduado pela Universidade de Stanford, com diploma em ciências da computação.
Vídeo: Palestra "Ladrões da atenção", de Tristan Harris, no TED
Tradução integral da palestra de Tristan Harris no TED:
Imaginem que estão entrando numa sala, uma sala de controle com um grupo de pessoas, centenas delas debruçadas sobre uma mesa de controle, e que essa sala irá modelar os pensamentos e sentimentos de um bilhão de pessoas. Pode parecer ficção científica, mas isso realmente existe nos dias de hoje.
Sei disso porque eu fazia parte de uma dessas salas de controle. Eu era especialista em ética do design do Google, onde estudava como se controlam os pensamentos das pessoas de forma ética. O que não falamos é como um grupo de pessoas, que trabalham em um grupo de empresas de tecnologia, controlam, por meio de suas decisões, o que um bilhão de pessoas pensam hoje. Quando pegamos o telefone, e elas projetam o funcionamento disso ou o conteúdo das notificações, estão sendo programados pequenos blocos de tempo em nossa mente. Se vemos uma notificação, ela programa pensamentos que talvez não quiséssemos ter. Se abrimos essa notificação, ela programa que passemos um pouco mais de tempo envolvidos em uma situação na qual talvez não quiséssemos ser envolvidos.
Quando falamos de tecnologia, tendemos a falar sobre ela como uma oportunidade visionária, que poderia seguir qualquer caminho. Vou falar sério e contar por que ela segue um caminho muito específico. A tecnologia não está evoluindo ao acaso. Há um objetivo secreto guiando o caminho de toda a tecnologia que criamos. Esse objetivo é a disputa pela nossa atenção. Todo novo site, TED, eleições, política, jogos, até mesmo os aplicativos de meditação, tem que competir por uma coisa: nossa atenção. Isso ocorre com frequência quase constante. A melhor maneira de conseguir a atenção das pessoas é saber como funciona a mente delas. Há todo um conjunto de técnicas de persuasão, que aprendi na faculdade, no "Persuasive Technology Lab", para conseguir agarrar a atenção das pessoas.
Um exemplo simples é o YouTube. Ele quer aumentar ao máximo o tempo que passamos nele. O que fazem então? Exibem o próximo vídeo automaticamente. Digamos que funciona muito bem. Estão conseguindo um pouco mais do tempo das pessoas. A Netflix observa isso e diz: "Isso reduz minha participação no mercado. Irei exibir automaticamente o próximo episódio". O Facebook diz então: "Isso reduz toda a minha participação no mercado, então tenho que exibir todos os vídeos antes mesmo que você clique pra assistir". Portanto, a internet não está evoluindo ao acaso. A razão pela qual ela parece estar nos envolvendo dessa maneira é a disputa pela atenção. Sabemos aonde isso vai chegar. A tecnologia não é neutra, e leva-se esta disputa ao nível mais baixo do cérebro de quem pode ir mais baixo para ganhá-la.
Darei o exemplo do "Snapchat". Caso não saibam, o Snapchat é o principal meio de comunicação dos adolescentes americanos. Se, como eu, vocês utilizam mensagens de texto para se comunicar, isso é o Snapchat para os adolescentes. E cerca de 100 milhões deles o utilizam. Foi inventado um recurso chamado "Snapstreaks", que mostra a quantidade de dias seguidos em que duas pessoas se comunicaram. Em outras palavras, deram a duas pessoas algo que elas não queriam perder. Se você é adolescente, e tem 150 dias seguidos, não quer perder isso. Pensem nos pequenos blocos de tempo programados na mente das crianças.
Não é teoria: quando as crianças saem de férias, descobriu-se que elas dão suas senhas a até cinco amigos para manter o Snapstreaks delas ativo, mesmo quando não conseguem. Elas têm 30 desses, e precisam tirar fotos nem que seja de paredes e tetos só para passar o dia. Não é como se tivessem conversas reais. Temos a tendência de pensar assim: "Ah!, elas só estão usando o Snapchat do modo como falávamos ao telefone. Deve estar tudo bem". Mas o que não dizem é que, na década de 70, quando falávamos ao telefone, não havia uma centena de engenheiros do outro lado que sabiam exatamente como funcionava nossa mente e nos organizavam no conceito da psicologia chamado de "duplo vínculo".
Se estiverem se sentindo um pouco indignados com isso, notem que esse sentimento simplesmente atinge vocês. A indignação também é uma ótima forma de chamar a atenção. Não escolhemos ficar indignados, é algo que acontece conosco. O feed de notícias do Facebook, independentemente de nossa vontade, realmente se beneficia quando há indignação, porque ela não apenas programa em nós uma reação emocional no tempo e espaço. Também queremos compartilhar essa indignação com os outros. Queremos clicar em "compartilhar" e dizer: "Você acredita no que eles disseram?" A indignação funciona muito bem para chamar a atenção. Se o Facebook tivesse que escolher entre mostrar publicações tranquilas ou polêmicas, ele mostraria as polêmicas, não por ter sido uma escolha consciente de alguém, mas porque funcionaria melhor para chamar a atenção. A sala de controle do feed de notícias não é responsável por nós. Só é responsável por aumentar ao máximo a atenção. Também é responsável devido ao modelo de negócios da publicidade, para qualquer um que possa pagar mais, entrar na sala de controle e dizer: "Quero programar esses pensamentos na mente daquele grupo ali". Pode-se mirar com precisão uma mentira diretamente às pessoas mais suscetíveis. Como isso é lucrativo, só tende a piorar.
Estou aqui hoje porque os danos são muito evidentes. Não conheço um problema mais urgente, porque ele está na base de todos os demais problemas.
Não está apenas tirando nossa ação de dedicar nossa atenção e viver a vida que queremos; está mudando a maneira como conversamos, está mudando nossa democracia, e nossa capacidade de ter as conversas e os relacionamentos que queremos uns com os outros. Isso afeta todos nós, porque um bilhão de pessoas têm um desses aparelhos em seu bolso.
Como corrigir isso? Precisamos fazer três mudanças radicais na tecnologia e na nossa sociedade. A primeira é que devemos reconhecer que podemos ser persuadidos. Uma vez que começamos a entender que podem programar nossa mente para ter pequenos pensamentos ou blocos de tempo que não escolhemos, não iríamos querer usar essa compreensão e nos proteger do modo como isso ocorre? Acho que precisamos nos ver principalmente de uma nova forma. É quase como um novo período na história, como o Iluminismo, mas quase uma espécie de Iluminismo autoconsciente, no qual podemos ser persuadidos, e poderia haver algo que queremos proteger. A segunda é que precisamos de novos modelos e sistemas de responsabilidade para que, conforme o mundo fique melhor e mais persuasivo com o tempo, pois se tornará cada vez mais persuasivo, as pessoas nessas salas de controle sejam responsáveis e transparentes em relação ao que queremos.
A única forma ética de persuasão é quando os objetivos do persuasor estão alinhados com os objetivos do persuadido, e isso implica levantar grandes questões, como o modelo comercial de publicidade. Finalmente, precisamos de um renascimento de projeto, porque uma vez que se tenha esta visão da natureza humana, de que se pode controlar as linhas do tempo de um bilhão de pessoas, imaginem que há pessoas que têm algum desejo do que querem fazer, pensar e sentir e como querem ser informadas, e somos todos arrastados para outros caminhos e há um bilhão de pessoas sendo arrastadas para todos esses diferentes caminhos.
Imaginem um total renascimento de projeto que procure organizar a maneira exata e mais fortalecedora de investir o tempo para que essas linhas do tempo aconteçam. Isso implicaria duas coisas: uma seria nos proteger das linhas do tempo que não queremos experimentar, dos pensamentos que não queremos ter, evitando um alarme, que, quando soa, nos dispersa. A segunda seria nos permitir viver a linha do tempo que queremos.
Darei um exemplo concreto. Digamos que seu amigo cancele o jantar com você hoje, e você esteja se sentindo um pouco solitário. Então o que você faz? Abre o Facebook. Nesse momento, os projetistas da sala de controle querem programar exatamente uma coisa: aumentar ao máximo o tempo que você passa na tela. Em vez disso, imaginem se eles criassem uma linha de tempo diferente, que fosse a maneira mais fácil, usando todos os dados disponíveis, para realmente nos ajudar a sair com pessoas que importam para nós? Imaginem como isso aliviaria toda a solidão na sociedade, se essa fosse a linha do tempo que o Facebook quisesse dar às pessoas. Ou imaginem uma conversa diferente. Digamos que quiséssemos publicar algo muito polêmico no Facebook, realmente importante: falar de temas polêmicos. Agora mesmo, com aquele grande espaço quase nos perguntando: sobre o que você quer escrever? Está sendo programada uma pequena série de coisas que continuaremos fazendo na tela. Imaginem que, em vez disso, haja outro botão ali dizendo: "Qual seria a melhor forma de investir seu tempo?" Clicamos em "dar um jantar" e, logo abaixo disso, está escrito: "Quem vem para o jantar?" Ainda assim teríamos uma conversa sobre algo aberto para discussão, mas seria no lugar mais fortalecedor de nossa linha do tempo: em casa, à noite, para conversar com um grupo de amigos. Imaginem que estamos fazendo uma espécie de "localizar e substituir", em todas as linhas do tempo que atualmente nos controlam de forma persuasiva a passar cada vez mais tempo na tela, e substituindo todas essas linhas, com o que queremos em nossa vida.
Não precisa ser assim. Em vez de limitar nossa atenção, imaginem se usarmos toda esta informação e todo este poder e esta nova visão da natureza humana para nos dar uma capacidade sobre-humana de concentração, de colocar nossa atenção no que nos importa, e de ter as conversas que precisamos ter para a democracia. Os desafios mais complexos do mundo exigem não apenas o uso de nossa atenção de forma individual. Exigem o uso e a coordenação de nossa atenção de forma coletiva. A mudança climática irá exigir que muitas pessoas sejam capazes de coordenar juntas a atenção da maneira mais fortalecedora. Imaginem a criação de uma capacidade sobre-humana para fazer isso.
Às vezes, os problemas mais urgentes e importantes do mundo não são estas coisas hipotéticas que poderíamos criar no futuro. Os problemas mais urgentes são, às vezes, os que estão bem debaixo de nosso nariz, as coisas que já estão controlando os pensamentos de um bilhão de pessoas. Talvez, em vez de ficarmos animados com a nova realidade aumentada, a realidade virtual e estas coisas legais que poderiam acontecer, que serão suscetíveis à mesma disputa pela atenção, poderíamos concentrar essa disputa naquilo que já está no bolso de um bilhão de pessoas. Talvez, em vez do entusiasmo com os aplicativos educativos mais novos, emocionantes e sofisticados, poderíamos dar um jeito no modo como manipulam as mentes infantis no envio de mensagens inúteis de um lado para o outro.
Talvez, em vez da preocupação com as inteligências artificiais fora de controle de um futuro hipotético que estão aumentando ao máximo para um objetivo, poderíamos resolver a inteligência artificial fora de controle que já existe neste momento, que são esses feeds de notícias aumentados para um aspecto. É quase como, em vez de fugir, colonizar novos planetas, poderíamos cuidar de nosso próprio planeta.
Resolver este problema implica uma infraestrutura crítica para solucionar qualquer outro problema. Não há nada em nossa vida ou em nossos problemas coletivos que não exija nossa capacidade de concentração naquilo que nos importa. No final de nossa vida, tudo o que teremos será nossa atenção e nosso tempo. Qual será a melhor forma de investir nosso tempo?
Chris Anderson: Tristan, obrigado. Fique aqui por um instante. Em primeiro lugar, obrigado. Sei que pedimos esta palestra com pouca antecedência, e você teve uma semana bastante estressante preparando isso, então obrigado. Algumas pessoas que o ouviram podem dizer que o que você critica é o vício e todas as pessoas que fazem isso. Para elas é bem interessante. Todas estas decisões de projeto têm criado um conteúdo de usuário extremamente interessante. O mundo está mais interessante que nunca. O que há de errado nisso?
Tristan Harris: É bem interessante. Uma forma de ver isso é o YouTube, por exemplo, que sempre quer mostrar o próximo vídeo mais interessante, melhorar a sugestão do próximo vídeo. Mas, mesmo se pudessem propor o vídeo perfeito que todos quisessem ver, seria apenas cada vez melhor em manter você conectado. O que está faltando nessa equação é descobrir quais seriam nossos limites. Gostaria que o YouTube soubesse mais sobre o sono. O presidente da Netflix disse recentemente: "Nossos maiores concorrentes são o Facebook, o YouTube e o sono". Portanto, precisamos reconhecer que a estrutura humana é limitada e que temos certos limites ou dimensões de nossa vida a serem honrados e respeitados, e a tecnologia poderia ajudar a fazer isso.
CA: Você diria que parte do problema aqui é que temos um modelo simples de natureza humana? Muito disso se justifica em termos de preferência humana, onde temos algoritmos que fazem um trabalho incrível de otimização para preferência humana. Mas qual preferência? Há as preferências das coisas que realmente nos importam, quando pensamos nelas, contra as preferências do que só clicamos por instinto. Se pudéssemos implantar essa visão da natureza humana com mais nuance em cada projeto, seria um passo adiante?
TH: Com certeza. Hoje em dia, é como se a tecnologia perguntasse a nosso cérebro volátil: qual seria o melhor modo de levar você a fazer por impulso a próxima coisa mais minúscula com seu tempo, em vez de lhe perguntar a melhor forma de investir o seu tempo. Qual seria a linha de tempo perfeita que poderia incluir algo para depois, aqui no TED em seu último dia?
CA: Então, se o Facebook, o Google e todo mundo dissessem a nós: "Você gostaria de aperfeiçoar seu cérebro reflexivo ou o volátil? A escolha é sua".
TH: Certo, seria uma maneira.
CA: Você disse persuasão, uma palavra interessante porque, para mim, existem dois tipos diferentes de persuasão: aquela que estamos examinando agora de razão, pensamento e argumentação, mas acho que você está falando sobre um tipo diferente, mais intuitivo, de ser persuadido sem nem saber o que está pensando.
TH: Exatamente. Eu me preocupo tanto com esse problema porque estudei no Persuasive Technology Lab, em Stanford que nos ensina exatamente essas técnicas. Há conferências e workshops que ensinam todas essas formas secretas de atrair a atenção das pessoas e comandar a vida delas. Essa conversa é muito importante porque a maioria não sabe que isso existe.
CA: Tristan, conhecemos muitas pessoas de todas essas empresas. Muitas delas estão aqui no auditório. Não sei sobre você, mas minha experiência com elas é que não falta boa intenção. As pessoas querem um mundo melhor, de verdade. Creio que não esteja dizendo que são pessoas más. É um sistema onde essas consequências não desejadas saíram de controle.
TH: Sim, é a disputa clássica pela atenção até o final quando você tem que chamar a atenção, e é muito tensa. A única forma de obter mais é ir mais a fundo no cérebro para ir mais a fundo na indignação, na emoção e no cérebro volátil.
CA: Muito obrigado por nos ajudar a ficar um pouco mais espertos sobre isso.
Saiba mais em
https://www.brasil247.com/pt/247/revista_oasis/332607/Ladr