Computação

Evandro Milet: As mídias sociais enganariam Alan Turing, o pai da computação

A OpenAI, uma organização fundada por Elon Musk, lançou o mais potente sistema de Inteligência Artificial(IA) para produção e compreensão de linguagem escrita, o GPT-3. Muita gente imaginou que acabaria o emprego de escritores e jornalistas. Cientistas porém estão constatando as limitações da engenhoca. Apesar da sofisticação, o novo sistema não sabe o que fala, embora seja um redator razoável: pode produzir qualquer tipo de texto, mas também pode cometer bobagens ao ignorar semântica, contexto, psicologia, convenções sociais, raciocínio lógico e até leis da física. Falta aquilo que nos torna humanos: bom senso.

Afinal, ao ser alimentado com tudo o que há na internet, o GPT-3 retrata o estágio onde a humanidade se encontra, incluindo vieses racistas e sexistas e uma capacidade de criação e disseminação de fake news. 

Nos anos 50, Alan Turing,um dos pais da ciência da computação e da inteligência artificial criou o teste que leva seu nome. Seu objetivo é descobrir se uma inteligência artificial é inteligente a ponto de enganar um humano, fazendo-o acreditar que se trata de uma pessoa respondendo às suas perguntas. Se 30% dos humanos consultados acreditarem que se trata de outro humano, a máquina passa no teste de Turing.

Ora, mais de 30% dos humanos reconheceriam hoje o GPT-3 como uma pessoa se comunicando nas redes sociais. Afinal é fácil encontrar ali raciocínios tortuosos, negações de verdades científicas, interpretações contorcionistas de textos, elaborações fantásticas para teorias da conspiração, justificativas fora de contexto, vieses racistas e sexistas, fake news esdrúxulas, enfim falta total de bom senso - realmente, um triste retrato da humanidade.

Todos os dias recebemos textos estranhos, supostamente assinados pelo Veríssimo, Jabor ou Clarice Lispector, onde qualquer um acostumado com esses autores percebe imediatamente a fraude. Ou vídeos onde médicos e supostos especialistas, sem nenhuma relevância profissional, glorificam remédios sem efeito ou condenam criminosamente vacinas, máscaras ou distanciamento social. Ou recebemos avisos alarmados sobre uma suposta conspiração internacional globalista soros-sino-gramsciana que amedronta até mentes doentias no governo.

Cabeças estacionadas na década de 1950 enxergam iminentes invasões da Amazônia atrás de nossos recursos naturais sem perceber que os recursos mais valiosos hoje estão no conhecimento. E esse conhecimento está se perdendo no flagelo da educação brasileira, no desprezo da bioeconomia e indo embora na diáspora dos nossos estudantes e cientistas brilhantes contratados no exterior. Por analogia do nome, a Amazon que negocia com bits e bytes e gerencia conhecimento tem valor de mercado 25 vezes maior que a nossa Vale, especialista em minérios.

O GPT-3 deve se sentir em casa com tanta falta de bom senso. Se Turing fosse vivo e se baseasse nas postagens das mídias sociais teria que inventar outro teste, o GPT-3 passaria por humano. 


El País: O obscuro uso do Facebook e do Twitter como armas de manipulação política

As manobras nas redes se tornam uma ameaça que os governos querem controlar

Por Javier Salas

Tudo mudou para sempre em 2 de novembro de 2010, sem que ninguém percebesse. O Facebook introduziu uma simples mensagem que surgia no feed de notícias de seus usuários. Uma janelinha que anunciava que seus amigos já tinham ido votar. Estavam em curso as eleições legislativas dos Estados Unidos e 60 milhões de eleitores vieram aquele teaser do Facebook. Cruzando dados de seus usuários com o registro eleitoral, a rede social calculou que acabaram indo votar 340.000 pessoas que teriam ficado em casa se não tivessem visto em suas páginas que seus amigos tinham passado pelas urnas.

Dois anos depois, quando Barack Obama tentava a reeleição, os cientistas do Facebook publicaram os resultados desse experimento político na revista Nature. Era a maneira de exibir os músculos diante dos potenciais anunciantes, o único modelo de negócio da empresa de Mark Zuckerberg, e que lhe rende mais de 9 bilhões de dólares por trimestre. É fácil imaginar o quanto devem ter crescido os bíceps do Facebook desde que mandou para as ruas centenas de milhares de eleitores há sete anos, quando nem sequer havia histórias patrocinadas.

Há algumas semanas, o co-fundador do Twitter, Ev Williams, se desculpou pelo papel determinante que essa plataforma desempenhou na eleição de Donald Trump, ao ajudar a criar um “ecossistema de veículos de comunicação que se sustenta e prospera com base na atenção”. “Isso é o que nos torna mais burros e Donald Trump é um sintoma disso”, afirmou. “Citar os tuítes de Trump ou a última e mais estúpida coisa dita por qualquer candidato político ou por qualquer pessoa é uma maneira eficiente de explorar os instintos mais baixos das pessoas. E isso está contaminando o mundo inteiro”, declarou Williams.

Quando perguntaram a Zuckerberg se o Facebook tinha sido determinante na eleição de Trump, ele recusou a ideia dizendo ser uma “loucura” e algo “extremamente improvável”. No entanto, a própria rede social que ele dirige se vangloria de ser uma ferramenta política decisiva em seus “casos de sucesso” publicitários, atribuindo a si mesma um papel essencial nas vitórias de deputados norte-americanas ou na maioria absoluta dos conservadores britânicos em 2015.

O certo é que é a própria equipe de Trump quem reconhece que cavalgou para a Casa Branca nas costas das redes sociais, aproveitando sua enorme capacidade de alcançar usuários tremendamente específicos com mensagens quase personalizadas. Como revelou uma representante da equipe digital de Trump à BBC, o Facebook, o Twitter, o YouTube e o Google tinham funcionários com escritórios próprios no quartel-general do republicano. “Eles nos ajudaram a utilizar essas plataformas da maneira mais eficaz possível. Quando você está injetando milhões e milhões de dólares nessas plataformas sociais [entre 70 e 85 milhões de dólares no caso do Facebook], recebe tratamento preferencial, com representantes que se certificam em satisfazer todas as nossas necessidades”.

E nisso apareceram os russos

A revelação de que o Facebook permitiu que, a partir de contas falsas ligadas a Moscou, fossem comprados anúncios pró-Trump no valor de 100.000 dólares colocou sobre a mesa o lado obscuro da plataforma de Zuckerberg. Encurralado pela opinião pública e pelo Congresso dos Estados Unidos, a empresa reconheceu que esses anúncios tinham alcançado 10 milhões de usuários. No entanto, um especialista da Universidade de Columbia, Jonathan Albright, calculou que o número real deve ser pelo menos o dobro, fora que grande parte de sua divulgação teria sido orgânica, ou seja, viralizando de maneira natural e não só por patrocínio. A resposta do Facebook? Apagar todo o rastro. E cortar o fluxo de informações para futuras investigações. “Nunca mais ele ou qualquer outro pesquisador poderá realizar o tipo de análise que fez dias antes”, publicou o The Washington Post há uma semana. “São dados de interesse público”, queixou-se Albright ao descobrir que o Facebook tinha fechado a última fresta pela qual os pesquisadores podiam espiar a realidade do que ocorre dentro da poderosa empresa.

Esteban Moro, que também se dedica a buscar frestas entre as opacas paredes da rede social, critica a decisão da companhia de se fechar em vez de apostar na transparência para demonstrar vontade de mudar. “Por isso tentamos forçar que o Facebook nos permita ver que parte do sistema influi nos resultados problemáticos”, afirma esse pesquisador, que atualmente trabalha no Media Lab do MIT. “Não sabemos até que ponto a plataforma está projetada para reforçar esse tipo de comportamento”, afirma, em referência à divulgação de falsas informações politicamente interessadas.

O Facebook anunciou que contará com quase 9.000 funcionários para editar conteúdos, o que muitos consideram um remendo em um problema que é estrutural. “Seus algoritmos estão otimizados para favorecer a difusão de publicidade. Corrigir isso para evitar a propagação de desinformação vai contra o negócio”, explica Moro. A publicidade, principal fonte de rendas do Facebook e do Google, demanda que passemos mais tempos conectados, interagindo e clicando. E para obter isso, essas plataformas desenvolvem algoritmos muito potentes que criaram um campo de batalha perfeito para as mentiras polícias, no qual proliferaram veículos que faturam alto viralizando falsidades e meia-verdades polarizadas.

“É imprescindível haver um processo de supervisão desses algoritmos para mitigar seu impacto. E necessitamos de mais pesquisa para conhecer sua influência”, reivindica Gemma Galdon, especialista no impacto social da tecnologia e diretora da consultoria Eticas. Galdon destaca a coincidência temporal de muitos fenômenos, como o efeito bolha das redes (ao fazer um usuário se isolar de opiniões diferentes da sua), o mal-estar social generalizado, a escala brutal na qual atuam essas plataformas, a opacidade dos algoritmos e o desaparecimento da confiança na imprensa. Juntos, esses fatos geraram “um desastre significativo”. Moro concorda que “muitas das coisas que estão ocorrendo na sociedade têm a ver com o que ocorre nas redes”. E aponta um dado: “São o único lugar em que se informam 40% dos norte-americanos, que passam nelas três horas por dia”.

A diretora de operações do Facebook, Sheryl Sandberg, braço direito de Zuckerberg, defendeu a venda de anúncios como os russos, argumentando que se trata de uma questão de "liberdade de expressão". Segundo a agência de notícias Bloomberg, o Facebook e o Google colaboraram ativamente em uma campanha xenófoba contra refugiados para que fosse vista por eleitores-chave nos estados em disputa. O Google também aceitou dinheiro russo para anúncios no YouTube e no Gmail. Não em vão, o Facebook tem pressionado há anos para que não seja afetado pela legislação que exige que a mídia tradicional seja transparente na contratação de propaganda eleitoral. Agora, o Senado pretende legislar sobre a propaganda digital contra a pressão dessas grandes plataformas tecnológicas, que defendem a autorregulação. Tanto o Twitter quanto o Facebook expressaram recentemente a intenção de serem mais transparentes nesta questão.

A responsabilidade do Twitter

Em meados deste ano, o Instituto de Internet da Universidade de Oxford publicou um relatório devastador, analisando a influência que as plataformas digitais estavam tendo sobre os processos democráticos em todo o mundo. A equipe de pesquisadores estudou o que aconteceu com milhões de publicações nos últimos dois anos em nove países (Brasil, Canadá, China, Alemanha, Polônia, Taiwan, Rússia, Ucrânia e Estados Unidos) e concluiu, entre outras coisas, que “os bots [contas automatizadas] podem influenciar processos políticos de importância mundial”.

Nos EUA, os republicanos e a direita supremacista usaram exércitos de bots para “manipular consensos, dando a ilusão de uma popularidade on-line significativa para construir um verdadeiro apoio político” e para ampliar o alcance de sua propaganda. E concentraram seus esforços nos principais estados em disputa, que foram inundados com notícias de fontes não confiáveis. Em países como a Polônia e a Rússia, grande parte das conversas no Twitter é monopolizada por contas automatizadas. Em estados mais autoritários, as redes são usadas para controlar o debate político, silenciando a oposição e, nos mais democráticos, aparecem as cibertropas para intencionalmente contaminar as discussões. As plataformas não informam nem interferem porque colocariam “sua conta em risco”.

“Os bots utilizados para a manipulação política também são ferramentas eficazes para fortalecer a propaganda on-line e as campanhas de ódio. Uma pessoa, ou um pequeno grupo de pessoas, pode usar um exército de robôs políticos no Twitter para dar a ilusão de um consenso de grande escala”, afirma a equipe da Oxford. E concluem: “A propaganda informática é agora uma das ferramentas mais poderosas contra a democracia” e é por isso que as plataformas digitais “precisam ser significativamente redesenhadas para que a democracia sobreviva às redes sociais”.

Zuckerberg diz que é “loucura” pensar que o Facebook pode definir eleições, mas se gaba de fazer isso em seu próprio site

O Twitter também deletou conteúdo de valor potencialmente insubstituível que ajudaria a identificar a influência russa na eleição de Trump. Mais recentemente, pesquisadores da Universidade do Sul da Califórnia alertaram sobre o desenvolvimento de um mercado paralelo de bots políticos: as mesmas contas que antes apoiaram Trump, tentaram mais tarde envenenar a campanha na França a favor de Le Pen e, depois, produziram material em alemão colaborando com o partido neonazista Afd. Zuckerberg prometeu fazer o possível para “garantir a integridade” das eleições alemãs. Durante a campanha, sete das 10 notícias mais virais sobre a primeira-ministra alemã Angela Merkel no Facebook eram falsas. O portal ProPublica acaba de revelar que a rede social tolerou anúncios ilegais que espalhavam informações tóxicas contra o Partido Verde alemão.

Galdon trabalha com a Comissão Europeia, a qual considera “muito preocupada” nos últimos meses em dar uma resposta a esses fenômenos, pensando em um marco europeu de controle que, atualmente, está muito longe de ser concretizado. “Há quem aposte pela autorregulação, quem acredite que deve haver um órgão de supervisão de algoritmos como o dos medicamentos e até mesmo quem peça que os conteúdos sejam diretamente censurados”, diz a pesquisadora. Mas Galdon destaca um problema maior: “Dizemos às plataformas que precisam atuar melhor, mas não sabemos o que significa melhor. As autoridades europeias estão preocupadas, mas não sabem bem o que está acontecendo, o que mudar ou o que pedir exatamente”.

SAIR DA BOLHA
Tem sido muito discutido o verdadeiro impacto do risco das bolhas de opinião geradas pelas redes, depois do alerta do ativista Eli Pariser. “Esse filtro, que acaba reforçando nossos próprios argumentos, está sendo decisivo”, alerta Galdon. Recentemente, Sheryl Sandberg, do Facebook, disse que a bolha era menor em sua plataforma do que na mídia tradicional (embora tenha negado categoricamente que sua empresa possa ser considerada um meio de comunicação). Cerca de 23% dos amigos de um usuário do Facebook têm opiniões políticas diferentes desse amigo, de acordo com Sandberg.

“Sabemos que as dinâmicas do Facebook favorecem o reforço de opiniões, que tudo é exacerbado porque buscamos a aprovação do grupo, porque podemos silenciar pessoas das quais não gostamos, porque a ferramenta nos dá mais do que nós gostamos. E isso gera maior polaridade”, diz Esteban Moro. Um exemplo: um estudo recente do Pew Research Center mostrou que os políticos mais extremistas têm muito mais seguidores no Facebook do que os moderados. “Vivemos em regiões de redes sociais completamente fechadas, das quais é muito difícil sair”, afirma. E propõe testar o experimento de seus colegas do Media Lab, do MIT, que desenvolveram a ferramenta FlipFeed, que permite entrar na bolha de outro usuário do Twitter, vendo sua timeline: “É como se você fosse levado de helicóptero e lançado no Texas sendo eleitor de Trump. Assim você percebe o quanto vivemos em um ecossistema de pessoas que pensam exatamente como nós”.