Internet: como é a sua bolha digital?

March 31, 2018


Respondendo ao título: a minha é repleta de memes, propagandas de livros e câmeras fotográficas. No YouTube há o álbum Nuestro Amor, do RBD, completo e os vídeos mais recentes do Cadê a Chave? no topo da página inicial. No Instagram, as fotos da amiga virtual que está nos EUA e a cervejinha do pessoal da faculdade em algum bar do Benfica. Bem-vindo à minha bolha digital! 

Eu não precisei abrir essas páginas e esses feeds para contar essas informações a vocês; eu já as decorei, pois, assim como meus gostos e minhas preferências online, elas dificilmente mudam. E uma coisa está ligada à outra. Mas vamos ver o que Eli Pariser tem a nos dizer sobre isso.

Se você não está pagando por alguma coisa, você não é o cliente; você é o produto à venda. - Andrew Lewis
É com esta citação que ele inicia em seu best-seller, O Filtro Invisível (2011), uma perturbadora e necessária reflexão sobre a personalização de buscas na internet. Bacharel em Direito e Ciências Políticas, Pariser não seguiu carreira na área, interessando-se por design de páginas web e se tornando membro de várias organizações. É considerado um ativista político e da internet.


CAPÍTULO 1
a corrida pela relevância

No início do capítulo, Pariser usa um exemplo bem didático para iniciar as reflexões sobre personalização de busca na internet, citando as discussões, por volta da década de 90, sobre os agentes inteligentes. Estas interfaces seriam capazes, no futuro, de adequar conteúdos (músicas, livros, notícias, canais de TV) ao usuário. No exemplo de Pariser, Negroponte e Jaron Lanier apresentam visões diferentes acerca dos agentes.
“Imagine um futuro”, escreveu Negroponte, “no qual tenhamos um agente de interface capaz de ler todos os jornais e revistas, acompanhar todas as transmissões de TV e rádio do planeta, e então construir um resumo personalizado. Esse jornal seria então impresso numa edição que poderíamos chamar de… Diário do Eu.”
“O que deu em vocês?” [...] Jaron Lanier estava convencido de que, por não serem pessoas de verdade, os agentes forçariam os seres humanos a interagir com eles de formas inadequadas e pixeladas. “Um modelo de nossos interesses criado por um agente será um modelo simplificado, e nos fará enxergar uma versão simplificada do mundo através dos olhos do agente”, argumentou. Havia outro problema: o agente perfeito supostamente eliminaria grande parte da propaganda ou toda ela. Mas, sendo o comércio on-line movido pela propaganda, parecia improvável que as empresas fossem criar agentes que prejudicassem tão seriamente a base de seus negócios. Era mais provável, observou Lanier, que os agentes tivessem dupla lealdade – seriam agentes subornáveis: “Não seria fácil dizer para quem eles trabalhariam.”
Quem quisesse lucrar teria de conseguir prender a atenção das pessoas. E num mundo em que a atenção é um recurso escasso, a melhor maneira de fazê-lo seria oferecer conteúdo que realmente atendesse aos interesses, desejos e necessidades particulares de cada pessoa. Nos corredores e centros de informática do Vale do Silício, havia uma nova palavra de ordem: relevância. 
Hoje, mais de uma década depois, não vemos agentes inteligentes em parte alguma [...] mas isso não quer dizer que eles não existam. Apenas estão escondidos. Sob a superfície de todos os sites que visitamos, existem agentes inteligentes pessoais. Eles se tornam mais inteligentes e potentes a cada dia que passa, acumulando informações sobre quem somos e sobre os nossos interesses. Seguindo a previsão de Lanier, os agentes não trabalham só para nós: também trabalham para gigantes do software como o Google, apresentando-nos propaganda além de conteúdo.


O problema de John Irving
e o sucesso da Amazon

Como a Amazon se destacou, em meados da década de 90, como uma das poucas empresas que apostavam no dinheiro gerado através da internet comercial (que ainda engatinhava, diga-se de passagem)?
Jeff Bezos, presidente da Amazon.com, foi uma das primeiras pessoas a perceber que seria possível utilizar o poder da relevância para ganhar alguns bilhões de dólares. A partir de 1994, sua ideia foi levar a venda de livros on-line “de volta aos tempos do pequeno livreiro que nos conhecia tão bem e dizia coisas como ‘eu sei que você gosta de John Irving, e, veja só, tenho aqui este novo autor, que é bem parecido com ele’”, contou Bezos a um biógrafo. Mas como fazê-lo em grande escala?
Em 1994, quando ainda era um jovem cientista da computação trabalhando para firmas de Wall Street, Bezos foi contratado por um capitalista de risco para criar ideias de negócios no florescente espaço virtual (...) Os livros começaram no final da lista, mas, quando Bezos chegou às conclusões finais, ficou surpreso ao ver que estavam no topo (...) eram um produto ideal por várias razões. Primeiro, porque a indústria de livros era descentralizada; a maior editora, a Random House, controlava apenas 10% do mercado. Se um editor não lhe quisesse vender livros, muitos outros venderiam (...) Sem limite físico para o número de livros que ele poderia estocar, seria possível oferecer centenas de milhares de títulos a mais do que os gigantes da indústria, como a Borders ou a Barnes & Noble; ao mesmo tempo, ele poderia criar uma experiência mais íntima e pessoal do que a das grandes cadeias. 
Bezos começou a pensar em máquinas capazes de aprender. Era um desafio e tanto, mas um grupo de engenheiros e cientistas vinha trabalhando na questão desde a década de 1950, em instituições de pesquisa como o MIT e a Universidade da Califórnia, em Berkeley. A área se chamava “cibernética” – uma palavra retirada dos escritos de Platão.
Quando a Amazon foi lançada, em 1995, tudo mudou. Desde o início, a Amazon foi uma livraria que já vinha personalizada. Examinando os livros que as pessoas compravam e usando métodos de filtragem colaborativa desenvolvidos no Parc, a Amazon fazia recomendações instantâneas (Ah, você está comprando Introdução à esgrima para pessoas desajeitadas? Que tal comprar Acordar cego: ações judiciais por lesões oculares?). Além disso, investigando os produtos que cada usuário comprava ao longo do tempo, a Amazon começou a identificar aqueles com preferências similares (pessoas com gostos semelhantes ao seu compraram um dos novos lançamentos desta semana, En Garde!). Quanto mais pessoas compravam livros na Amazon, melhor funcionava a personalização.
A Amazon provou que a relevância pode levar ao domínio de um setor. Mas foram dois estudantes de pós-graduação de Stanford que aplicaram os princípios da inteligência artificial a todo o mundo da  informação on-line. 
Indicadores de cliques
a gigante Google

Neste tópico particularmente interessante, Pariser nos apresenta a tragetória e a ambiação da gigante Google; sua obsessão por saber tudo dos usuários a fim de desenvolver-se como o mecanismo de busca ideal.

Na época em que a nova empresa de Jeff Bezos começava a decolar, Larry Page e Sergey Brin, os fundadores do Google, estavam ocupados escrevendo suas teses de doutorado em Stanford (...) Page e Brin eram matemáticos talentosos; Page, em particular, era obcecado por inteligência artificial (IA). Mas eles também estavam interessados num problema diferente. Em vez de usar algoritmos para descobrir como vender produtos de forma mais eficiente, o que aconteceria se fossem usados para pesquisar sites na internet?
Page bolou um método inovador e, com sua predileção geek por trocadilhos, chamou-o PageRank. Naquela época, a maioria dos mecanismos de busca da internet selecionava as páginas usando palavras-chave; esses métodos eram muito ineficazes na tentativa de adivinhar que página era a mais relevante para uma determinada palavra. Num artigo escrito em 1997, Brin e Page comentaram ironicamente que três dos quatro principais mecanismos de busca não conseguiam encontrar a si mesmos.
Em seus primórdios, o Google ficava hospedado em google.stanford. edu, e Brin e Page estavam convencidos de que a empresa não deveria ter fins lucrativos nem conter propaganda (...) No entanto, quando lançaram seu site beta no ambiente selvagem, o tráfego de usuários cresceu exponencialmente. O Google funcionava – quando libertado, mostrou-se o melhor site de buscas da internet. Pouco depois, os dois jovens de vinte e poucos anos não resistiram à tentação de transformá-lo num negócio.
A verdadeira descoberta de Brin e Page foi a seguinte: a chave para a relevância, a solução para o problema de selecionar dados em meio à massa de informações on-line era… mais dados. Brin e Page não estavam interessados apenas em saber quais páginas tinham links para quais outras. A posição de um link na página, seu tamanho, a idade da página – todos esses fatores eram importantes.
O Google era voraz com relação aos dados. Brin e Page estavam decididos a guardar tudo: cada página que o mecanismo de busca já apresentara, cada clique já feito pelo usuário. Em pouco tempo, seus servidores continham uma cópia de praticamente toda a rede, quase em tempo real. Examinando esses dados, eles tinham certeza de que encontrariam mais pistas, mais indicadores que poderiam ser usados para modificar os resultados.
“O mecanismo de busca ideal”, Page gostava de dizer, “entenderia exatamente o que queremos dizer e nos ofereceria exatamente o que buscamos.” O Google não estava interessado em oferecer milhares de páginas de links – queria oferecer apenas um, o link que o usuário buscava. Mas a resposta perfeita para uma pessoa não é perfeita para outra.
Para oferecer relevância perfeita, o site precisa saber no que cada um de nós está interessado. Precisa saber que eu não ligo a mínima para futebol americano; precisa saber quem eu sou.
O desafio era obter dados suficientes para desvendar o que era individualmente relevante para cada usuário. É bastante difícil entender o que uma pessoa quer dizer com uma dada palavra – e, para que o processo seja eficaz, é preciso conhecer o comportamento da pessoa ao longo de um período prolongado. Mas como? 
Em 2004, o Google bolou uma estratégia inovadora. Começou a oferecer outros serviços, que exigiam que as pessoas se conectassem às suas contas de usuário. O Gmail, seu serviço de e-mail incrivelmente popular, foi um dos primeiros a ser lançado. A imprensa falou muito dos anúncios apresentados na lateral do Gmail, mas é pouco provável que esses anúncios fossem o único motivo para o lançamento do serviço. Ao fazer com que as pessoas criassem contas no site, o Google pôs as mãos numa enorme quantidade de dados – as centenas de milhões de e-mails que os usuários do Gmail enviavam e recebiam todos os dias. Além disso, a empresa podia cruzar os dados sobre os e-mails e o comportamento do usuário no site com os links em que clicava no mecanismo de busca.
Em novembro de 2008, o Google já detinha várias patentes para algoritmos de personalização – códigos capazes de desvendar os grupos aos quais uma pessoa pertence e então adaptar os resultados da pesquisa para que se adequem à preferência do grupo. As categorias que o Google tinha em mente eram bastante específicas: na patente, o Google usou o exemplo de “todas as pessoas interessadas em colecionar dentes de tubarões ancestrais” e “todas as pessoas não interessadas em colecionar dentes de tubarões ancestrais”. As pessoas da primeira categoria que pesquisassem, por exemplo, “incisivos de tubarão-branco” obteriam resultados diferentes das pessoas na segunda categoria.
Hoje em dia, o Google monitora todo e qualquer sinal que consiga obter sobre nós. Não devemos subestimar a força desses dados: se o Google souber que eu me conectei de Nova York, depois de São Francisco e depois de Nova York outra vez, saberá que sou um viajante frequente e irá ajustar seus resultados a partir daí. Examinando o navegador que utilizo, poderá ter uma ideia da minha idade e talvez até da minha posição política. 
O tempo passado entre o momento em que digitamos a pesquisa e o momento em que clicamos no resultado revela traços da nossa personalidade. Além disso, naturalmente, os termos que pesquisamos trazem grandes revelações sobre nossos interesses. Mesmo que não estejamos conectados à nossa conta de usuário, o Google personaliza os resultados de nossas pesquisas. O site sabe de que bairro – e até mesmo de que quarteirão – estamos conectados, e isso revela muito sobre quem somos e no que estamos interessados. Uma pesquisa com o termo “Sox” vinda de Wall Street provavelmente indica a sigla da instituição financeira Sarbanes Oxley; se vier de Chicago, provavelmente se refere ao time de beisebol White Sox.

Facebook por toda parte 
what's on your mind?

Pariser também apresenta caracterísitcas muito interessantes do Facebook, e como elas fazem dele o maior concorrente da Google. Enquanto este baseia sua existência nas relações de informações do usuário, o outro se interessa pela relação entre as pessoas. 
Os algoritmos do Google não tinham igual; a dificuldade estava em convencer os usuários a revelar seus gostos e interesses. Em fevereiro de 2004, trabalhando em seu quarto no alojamento de estudantes em Harvard, Mark Zuckerberg encontrou uma estratégia mais fácil. Em vez de examinar os indicadores de cliques para adivinhar o gosto das pessoas, o plano por trás de sua criação, o Facebook, era simplesmente perguntar a elas.
O Facebook aproveitava as relações sociais existentes na vida real. Comparado a seus predecessores, o Facebook era mais minimalista: a ênfase estava na informação, e não em gráficos extravagantes ou numa atmosfera cultural. “Somos um serviço público”, diria Zuckerberg mais tarde. O Facebook era mais parecido com uma companhia telefônica do que com uma discoteca; era uma plataforma neutra para a comunicação e a colaboração. 
No Friendster e no MySpace, para descobrir o que nossos amigos estavam fazendo, tínhamos que visitar suas páginas. O algoritmo do Feed de Notícias recolheu todas essas atualizações contidas na gigantesca base de dados do Facebook e as colocou num só lugar, bem na nossa cara, no momento em que nos conectamos. De um dia para o outro, o Facebook deixou de ser uma rede de páginas conectadas e se tornou um jornal personalizado com notícias sobre (e criado por) nossos amigos. É difícil imaginarmos uma fonte mais pura de relevância. 
Em 2006, os usuários do Facebook postavam literalmente bilhões de atualizações – frases filosóficas, comentários sobre quem estavam namorando, o que tinham comido no café da manhã. Zuckerberg e sua equipe encorajavam os usuários: quanto mais dados fornecessem à empresa, melhor seria sua experiência on-line e mais eles voltariam ao site. Desde cedo, o Facebook incluiu a possibilidade de enviar fotos, e com isso passou a conter a maior coleção de fotografias do mundo. O site também estimulou os usuários a postar links de outros sites, e milhões de links foram copiados e colados. Em 2007, Zuckerberg alardeou: “Na verdade, estamos produzindo mais notícias num único dia para nossos 19 milhões de usuários do que qualquer outro meio de comunicação já produziu durante toda sua existência.”
No início, o Feed de Notícias mostrava quase tudo que nossos amigos faziam no site. No entanto, quando o volume de postagens e amigos aumentou, ler ou gerir o Feed tornou-se impossível. Mesmo que tivéssemos apenas cem amigos, era um volume grande demais. A solução do Facebook foi o EdgeRank, o algoritmo por trás da página inicial do site, que traz as Principais Notícias. 
O EdgeRank classifica todas as interações ocorridas no site. A matemática é complicada, mas a ideia básica é bastante simples, baseando-se em três fatores. O primeiro é a afinidade: quanto mais próxima a nossa amizade com alguém – o que é determinado pelo tempo que passamos interagindo com a pessoa e investigando seu perfil –, maior será a probabilidade de que o Facebook nos mostre suas atualizações. O segundo é o peso relativo de cada tipo de conteúdo: atualizações sobre relacionamentos, por exemplo, têm peso grande; todos gostam de saber quem está namorando quem (muitos observadores suspeitam que esse peso também seja personalizado: pessoas diferentes dão mais ou menos importância a cada tipo de conteúdo). O terceiro é o tempo: itens mais recentes têm mais peso do que postagens mais antigas.
O EdgeRank demonstra o paradoxo existente no âmago da corrida pela relevância. Para oferecer mais relevância, os algoritmos de personalização precisam de mais dados. No entanto, quanto mais dados houver, mais sofisticados deverão ser os filtros para organizá-los. É um ciclo sem fim.
O Google tem como objetivo principal responder a perguntas; a missão do Facebook é ajudar as pessoas a se conectar com seus amigos. A questão é que a base dos dois negócios é essencialmente a mesma: publicidade direcionada, altamente relevante. 
O Google e o Facebook tiveram pontos de partida e estratégias diferentes – um deles apoiou-se nas relações entre informações, o outro nas relações entre pessoas –, porém, em última análise, os dois competem pelos mesmos dólares advindos da publicidade.
O aprisionamento é o ponto no qual os usuários estão tão envolvidos com a tecnologia que, mesmo que um concorrente ofereça um serviço melhor, não vale a pena mudar. Se você for membro do Facebook, pense no que representaria mudar para outro site de relacionamento social, mesmo que ele tivesse características muito superiores. Provavelmente daria bastante trabalho – seria extremamente maçante recriar todo o seu perfil, enviar todas as fotos outra vez e digitar arduamente os nomes de seus amigos. Você já está bastante preso. Da mesma forma, o Gmail, o Google Chat, o Google Voice, o Google Docs e muitos outros produtos fazem parte de uma campanha orquestrada de aprisionamento tecnológico do Google. A briga entre Google e Facebook depende de qual dos dois conseguirá reter o maior número de usuários.
A dinâmica do aprisionamento é descrita pela lei de Metcalfe, um princípio cunhado por Bob Metcalfe, inventor do protocolo Ethernet que conecta computadores. A lei diz que a utilidade de uma rede aumenta cada vez mais rápido sempre que acrescentamos uma nova pessoa à rede. Um aparelho de fax não tem muita utilidade se não conhecermos nenhuma outra pessoa que o possua, mas, se todos os nossos colegas de trabalho tiverem um fax, quem não fizer parte do grupo estará em grande desvantagem. O aprisionamento é o lado obscuro da lei de Metcalfe: o Facebook é útil, em grande medida, porque todos participam dele. Seus gerenciadores teriam de ser muito incompetentes para não se aproveitar desse fato básico.
Quanto mais aprisionados estiverem os usuários, mais fácil será convencê-los a se conectar às suas contas – e quando estamos constantemente conectados, essas empresas continuam a rastrear dados a nosso respeito mesmo quando não visitamos seus sites (...) Toda a rede pode se transformar numa plataforma para o Google ou o Facebook.

O mercado de dados
somos a mercadoria?

Basicamente, estamos f****** :)
Nosso comportamento se transformou numa mercadoria, um pedaço pequenino de um mercado que serve como plataforma para a personalização de toda a internet. Estamos acostumados a pensar na rede como uma série de relações distintas: nós gerimos a nossa relação com o Yahoo separadamente da nossa relação com nosso blog preferido. Entretanto, nos bastidores, a rede está se tornando cada vez mais integrada. As empresas estão percebendo que compartilhar dados é lucrativo. Graças à Acxiom (empresa que "fabrica" dados) e ao mercado de dados, os sites conseguem apresentar diante de nós os produtos mais relevantes enquanto sussurram uns com os outros às nossas costas.
Quando buscamos um voo, o Kayak instala um cookie em nosso computador – um pequeno arquivo que funciona basicamente como colocar um adesivo em nossa testa com a frase “Fale-me de viagens baratas de Nova York a São Francisco”. O Kayak pode então vender essa informação a uma empresa como a Acxiom ou a BlueKai, sua rival, que o leiloa à empresa que fizer a melhor oferta – nesse caso, uma grande companhia aérea como a United Airlines. Quando souber o tipo de viagem em que estamos interessados, a United poderá nos mostrar anúncios de voos relevantes – não só no site do Kayak, mas literalmente em quase qualquer site que visitemos em toda a internet. Todo esse processo – da coleta dos nossos dados à venda para a United Airlines – leva menos de um segundo.
A busca da relevância gerou os gigantes da internet de hoje e está motivando as empresas a acumular cada vez mais dados sobre nós e a usá-los para adaptar secretamente nossas experiências on-line. Está transformando o tecido da rede. Porém, como veremos, as consequências da personalização sobre o modo como consumimos notícias, como tomamos decisões políticas e até como pensamos serão ainda mais drásticas. 

You Might Also Like

0 comments