inteligência artificial

Imagem: Site JoeFino

A Era da Desinformação Infinita, nas asas da Inteligência Artificial?

Por Gary Marcus* em The Atlantic | Tradução: Maurício Ayer

Novos sistemas de inteligência artificial (IA), como o ChatGPT, o mecanismo de pesquisa revisado do Microsoft Bing e o GPT-4, que segundo anunciado está prestes a chegar, capturaram totalmente a imaginação pública. O ChatGPT é o aplicativo on-line que cresceu mais rápido em todos os tempos, e não é de se admirar. Digite algum texto e, em vez de links da internet, você receberá respostas bem elaboradas, como em uma conversa, sobre qualquer tópico selecionado – a proposta é inegavelmente sedutora.

Mas não são apenas o público e os gigantes da tecnologia que ficaram encantados com essa tecnologia baseada em Big Data, conhecida como “modelo de linguagem grande”. Os delinquentes também tomaram conhecimento da tecnologia. No extremo, está Andrew Torba, CEO da rede social de extrema-direita Gab, que disse recentemente que sua empresa está desenvolvendo ativamente ferramentas de IA para “defender uma visão de mundo cristã” e combater “as ferramentas de censura do Regime”. Mas mesmo os usuários que não são motivados por uma ideologia sofrerão o impacto. A Clarkesworld, uma editora de contos de ficção científica, parou temporariamente de aceitar envios no mês passado, porque estava sendo alvo de spam de histórias geradas por IA – resultado de influenciadores que passaram a sugerir maneiras de usar a tecnologia para “ficar rico rapidamente”, conforme contou o editor da revista para The Guardian.

Este é um momento tremendamente perigoso: as empresas de tecnologia estão correndo para lançar novos produtos de IA, mesmo depois dos problemas com esses produtos terem sido tão bem documentados por anos a fio. Sou um cientista cognitivo e tenho como foco aplicar o que aprendo sobre a mente humana ao estudo da inteligência artificial. Também fundei algumas empresas de IA e estou pensando em fundar outra. Em 2001, escrevi um livro chamado The Algebraic Mind [A mente algébrica] no qual analiso em detalhe como as redes neurais – um tipo de tecnologia vagamente semelhante ao cérebro sobre a qual se assentam alguns produtos de IA – tendiam a generalizar demais, aplicando características de indivíduos a grupos maiores. Se eu contasse a uma IA naquela época que minha tia Esther havia ganhado na loteria, ela poderia concluir que todas as tias, ou todas as Esthers, também haviam ganhado na loteria.

A tecnologia avançou bastante desde então, mas o problema de base persiste. Na verdade, a integração da tecnologia e a escala dos dados que ela utiliza a tornaram pior em muitos sentidos. Esqueça a tia Esther: em novembro, Galactica, um modelo de linguagem grande lançado pela Meta – e rapidamente colocado offline – teria falado que Elon Musk morreu em um acidente de carro da Tesla em 2018. Mais uma vez, a IA parece ter generalizado demais um conceito que era verdadeiro em um nível individual (alguém morreu em um acidente de carro da Tesla em 2018) e o aplicou erroneamente a outro indivíduo que compartilha alguns atributos pessoais, como sexo, estado de residência na época e vínculo com a montadora.

Esse tipo de erro, que ficou conhecido como “alucinação”, ocorre desenfreadamente. Seja qual for o motivo pelo qual a IA cometeu esse erro específico, é uma demonstração clara da capacidade desses sistemas de escrever uma prosa fluente que está claramente em desacordo com a realidade. Você não precisa imaginar o que acontece quando tais associações falhas e problemáticas são desenhadas em cenários do mundo real: Meredith Broussard da NYU e Safiya Noble da UCLA estão entre os pesquisadores que têm repetidamente mostrado como diferentes tipos de IA replicam e reforçam preconceitos raciais em uma variedade de situações do mundo real, incluindo nos serviços de saúde. Modelos de linguagem grandes como o Chat GPT apresentaram vieses semelhantes em alguns casos.

No entanto, as empresas pressionam para desenvolver e lançar novos sistemas de IA sem muita transparência e, em muitos casos, sem verificação suficiente. Os pesquisadores que vasculham esses modelos mais novos descobriram todo tipo de coisas perturbadoras. Antes da Galactica ser tirada do ar, o jornalista Tristan Greene descobriu que dava para usá-la para criar minuciosos artigos em estilo científico sobre tópicos como os benefícios do antissemitismo e de comer vidro moído, inclusive com referências a estudos fabricados. Outros observaram que o programa gerou respostas racistas e imprecisas. (Yann LeCun, cientista-chefe de IA da Meta, argumentou que a Galactica não tornaria a disseminação online de desinformação mais fácil do que já é; em novembro, o porta-voz da Meta disse ao site CNET que a “Galactica não é uma fonte de verdade, é um experimento de pesquisa usando sistemas [de aprendizado de máquina] para aprender e resumir informações.”)

Mais recentemente, o professor da Wharton Ethan Mollick conseguiu que o novo Bing escrevesse cinco parágrafos detalhados e totalmente falsos sobre a “civilização avançada” dos dinossauros, cheios de fragmentos que soavam autoritários, incluindo: “Por exemplo, alguns pesquisadores afirmaram que as pirâmides do Egito, as linhas de Nazca do Peru, e as estátuas da Ilha de Páscoa do Chile foram realmente construídas por dinossauros, ou por seus descendentes ou aliados.” Apenas neste fim de semana, Dileep George, pesquisador de IA da DeepMind, disse que conseguiu fazer o Bing criar um parágrafo de texto falso afirmando que o OpenAI e um inexistente GPT-5 tiveram um papel no colapso do Silicon Valley Bank. Solicitada a comentar esses episódios, a Microsoft não respondeu imediatamente; no mês passado, um porta-voz da empresa disse que, “considerando que esta é uma prévia, [o novo Bing] às vezes pode apresentar respostas inesperadas ou imprecisas… estamos ajustando suas respostas para criar respostas coerentes, relevantes e positivas.”

Alguns observadores, como LeCun, dizem que esses exemplos isolados não são surpreendentes nem preocupantes: entre com um material ruim em uma máquina e ela produzirá um resultado ruim. Mas o exemplo do acidente de carro de Elon Musk deixa claro que esses sistemas podem criar alucinações que não aparecem em nenhum lugar nos dados de treinamento. Além disso, a potencial escala deste problema é motivo de preocupação. Podemos só começar a imaginar o que as fazendas de trolls patrocinadas pelo Estado, com grandes orçamentos e modelos de linguagem grandes personalizados podem produzir. Delinquentes poderiam facilmente usar essas ferramentas, ou outras parecidas, para gerar desinformação prejudicial, em escala gigantesca e sem precedentes. Em 2020, Renée DiResta, gerente de pesquisa do Stanford Internet Observatory, alertava que a “fornecimento de desinformação em breve será infinito”. Esse momento chegou.

Cada dia nos aproxima um pouco mais de um tipo de desastre na esfera da informação, no qual os delinquentes armam modelos de linguagem grandes, distribuindo seus ganhos ilícitos por meio de exércitos de bots cada vez mais sofisticados. O GPT-3 produz respostas mais plausíveis que o GPT-2, e o GPT-4 será mais poderoso que o GPT-3. E nenhum dos sistemas automatizados projetados para discriminar os textos gerados por humanos dos textos gerados por máquinas provou ser particularmente eficaz.

Já enfrentamos um problema assim com as câmaras de eco que polarizam nossas mentes. A produção automatizada em grande escala de desinformação ajudará na transformação dessas câmaras de eco em armas de guerra e provavelmente nos levará ainda mais longe nos extremos. O objetivo do modelo russo “Lança-chamas de falsidades” é criar uma atmosfera de desconfiança, favorecendo a entrada em cena de agentes autoritários; é nessa linha que o estrategista político Steve Bannon almejava, durante o governo Trump, “inundar a zona com merda”. É urgente descobrir como a democracia pode ser preservada em um mundo em que a desinformação pode ser criada tão rapidamente e em tal escala.

Uma sugestão, que vale a pena explorar, mesmo que provavelmente seja insuficiente, é colocar uma “marca d’água” ou rastrear o conteúdo produzido por modelos de linguagem grandes. O OpenAI pode, por exemplo, marcar qualquer coisa gerada pelo GPT-4, a próxima geração da tecnologia que alimenta o ChatGPT; o problema é que os delinquentes podem simplesmente usar outros modelos de linguagem grandes e criar o que quiserem, sem marcas d’água.

Uma segunda abordagem é penalizar a desinformação quando ela é produzida em larga escala. Atualmente, a maioria das pessoas é livre para mentir a maior parte do tempo sem consequências, a menos que estejam, por exemplo, falando sob juramento. Os fundadores dos EUA simplesmente não imaginaram um mundo em que alguém pudesse criar uma fazenda de trolls e divulgar um bilhão de inverdades em um único dia, disseminadas por um exército de bots pela Internet. Podemos precisar de novas leis para lidar com esse tipo de cenário.

Uma terceira abordagem seria construir uma nova forma de IA que pudesse detectar desinformação, em vez de simplesmente gerá-la. Modelos de linguagem grandes não são por si sós adequados para isso; eles não controlam bem as fontes de informação que usam e carecem de meios de validar diretamente o que dizem. Mesmo em um sistema como o do Bing, onde as informações são obtidas na internet, podem surgir inverdades quando os dados são alimentados pela máquina. Validar a saída de modelos de linguagem grandes exigirá o desenvolvimento de novas abordagens para a IA que centralizem o raciocínio e o conhecimento, ideias que já foram mais valorizadas, mas atualmente estão fora de moda.

A partir de agora, será uma corrida armamentista contínua de movimentos e contra-ataques. Assim como os spammers mudam suas táticas quando os anti-spammers mudam as suas, podemos esperar uma batalha constante entre os delinquentes que se esforçam para usar modelos de linguagem grandes para produzir grandes quantidades de desinformação e os governos e corporações privadas tentando contra-atacar. Se não começarmos a lutar agora, a democracia pode ser dominada pela desinformação e consequente polarização – e isso pode acontecer muito em breve. As eleições de 2024 podem ser diferentes de tudo o que já vimos.

*Gary Marcus é um cientista, escritor e empresário. Seu livro mais recente é Rebooting AI. Este texto foi publicado em português no portal Outras Palavras.


Inteligência artificial Getty Images

Revista online | Inteligência artificial: o difícil desafio de enfrentar as ambiguidades

Dora Kaufman*, professora da PUC-SP, especial para a revista Política Democrática online (52ª edição) 

O hype do ChatGPT despertou a sociedade para o poder da inteligência artificial (IA), tecnologia que está no cerne dos modelos de negócio das plataformas e aplicativos tecnológicos que acessamos cotidianamente, na otimização de processos, nas decisões automatizadas como seleção e contratação de RH e concessão de crédito, além de diversas outras implementações. A adoção generalizada desses sistemas gera externalidades positivas com benefícios extraordinários em distintos setores, e externalidades negativas com potenciais danos ao usuário afetado, às instituições e à sociedade. Para enfrentar essas ambiguidades, é crítico regulamentar o desenvolvimento e uso da IA, pelo poder público, e estabelecer diretrizes de governança de IA, pelo setor privado e público.

Primeiramente, por que precisamos regulamentar a inteligência artificial, ou seja, conferir tratamento distinto das demais tecnologias digitais? A resposta está na natureza de propósito geral da IA, que como tal está reconfigurando a lógica de funcionamento da economia e da sociedade do século XXI. Estamos migrando de um mundo de máquinas programadas para um mundo de máquinas probabilísticas, expandindo a automação programada com a automação “inteligente” com impactos sobre o trabalho, sobre a percepção de controle e gestão de riscos; gradativamente, a IA torna-se protagonista em processos decisórios pela capacidade de gerar previsões com taxas relativamente altas de acurácia. O desafio, portanto, é garantir que a sociedade como um todo usufrua de seus benefícios e, simultaneamente, mitigar os malefícios particularmente às aplicações em domínios sensíveis (saúde, educação, segurança, justiça).

Clique aqui e veja outros artigos da 52ª edição da revista online

Clique aqui e veja edições anteriores da revista em flip

O contra-argumento de que a regulação pode inibir o desenvolvimento da inteligência artificial é falacioso. Setores muito regulamentados, por exemplo, o farmacêutico e o bancário, preservam a inovação incremental e a inovação disruptiva. Ambiente de negócio com regras claras, ao gerar mais confiança, incentiva o próprio uso da tecnologia; ademais, a não observância de uma "IA ética" compromete um ativo estratégico: a reputação da organização. Estar em "compliance" com a lei implicará em custos extras, sem dúvida, mas esses custos representam percentuais relativamente pequenos dos ganhos de eficiência em adotar a IA para otimizar processos, produtos e serviços.

Regulamentar a inteligência artificial não é trivial, começando pela definição do que seja um sistema de IA, o que explica o fato de que não temos um marco regulatório em lugar algum do mundo, apenas propostas em debate como a da Comissão Europeia e o substitutivo da Comissão de Juristas do Senado. Nos EUA, intensifica-se a pressão por parte de parlamentares sobre as autoridade federais para empreenderem ações concretas para garantir sistemas de IA mais seguros e éticos, em paralelo à iniciativas positivas de Washington como a divulgação, em janeiro último, do relatório final da Força-Tarefa Nacional de Recursos de Pesquisa em IA (The National AI Research Resource -NAIRR), comitê consultivo federal estabelecido pela Lei de Iniciativa Nacional de IA de 2020, composto por membros do governo, da academia e de organizações privadas.

No Brasil, a expectativa é que o Relatório da Comissão de Juristas trâmite no Senado ao longo de 2023 e seja submetido à ampla consulta pública, permitindo aperfeiçoar seus 48 artigos e estabelecer um marco regulatório de referência mundial. O que temos no momento como alternativa é o projeto de lei aprovado no plenário da Câmara dos Deputados em 29 de setembro de 2021 (PL 21/2020) basicamente principiológico: generalista, inócuo como instrumento de proteção à sociedade, particularmente da pessoa afetada pelas decisões automatizadas com IA, além de não prever direitos aos afetados nem punições.

Saiba mais sobre a autora

*Dora Kaufman é professora do programa de Tecnologias da Inteligência e Design Digital (TIDD)  da Pontifícia Universidade de São Paulo (PUC-SP), pelo qual também é pós-doutora.

** Artigo produzido para publicação na Revista Política Democrática Online de fevereiro de 2023 (52ª edição), editada pela Fundação Astrojildo Pereira (FAP), sediada em Brasília e vinculada ao Cidadania.

*** As ideias e opiniões expressas nos artigos publicados na Revista Política Democrática Online são de exclusiva responsabilidade dos autores. Por isso, não reflete, necessariamente, as opiniões da revista.

Leia também

Revista online | Muito além da Selic

Revista online | Carnaval da democracia

Revista online | Lula e Banco Central: charge destaca impasse

Revista online | Regulação das mídias digitais: o que fazer?

Revista Online | Cinema = Arte + Tecnologia – Uma fórmula esquecida?

Acesse todas as edições (Flip) da Revista Política Democrática online

Acesse todas as edições (PDF) da Revista Política Democrática online


Arte: João Rodrigues/FAP

Inteligência artificial pode antecipar cenários para as Eleições 2022

João Rodrigues, da equipe da FAP

Há menos de cinco meses das eleições, a inteligência artificial reforça que o processo eleitoral deste ano será novamente marcado pela polarização. O monitoramento de dados na internet também indica os principais temas do debate eleitoral e como os candidatos devem reagir aos assuntos de maior repercussão na sociedade.

Para entender como mecanismos de acompanhamento das redes sociais podem antecipar cenários para as Eleições 2022, o podcast Rádio FAP desta semana recebe o jornalista Sergio Denicoli.



Sergio Denicoli será um dos palestrantes do curso de formação política para candidatos, candidatas e suas equipes, que começa na próxima semana. Pós-doutor em comunicação digital, pesquisador da Universidade do Minho, em Portugal, CEO da AP Exata Inteligência Digital, é foi professor da Universidade Federal Fluminense e também em Portugal, na Universidade Lusófona e na Universidade do Minho. 

O crescimento da extrema direita no ambiente virtual, o papel das redes sociais nas eleições deste ano e os riscos das fake news para a democracia brasileira estão entre os temas do programa. O episódio conta com áudios do Jornal da Band, Rádio Brasil Atual, Programa ND Notícias, Código Fonte TV, TV Cultura, Assembleia de Minas Gerais e Jornal da Globo.

O Rádio FAP é publicado semanalmente, às sextas-feiras, em diversas plataformas de streaming como Spotify, Youtube,  Google PodcastsAnchorRadioPublic e Pocket Casts. O programa tem a produção e apresentação do jornalista João Rodrigues.

RÁDIO FAP




Dora Kaufman aponta ‘supervalorização e demonização da inteligência artificial’

Pesquisadora vai participar de webinar da FAP, no dia 25 de outubro, a partir das 17h30

Cleomar Almeida, da equipe da FAP

A pesquisadora e professora do Programa de Tecnologias Inteligentes e Design Digital da Pontifícia Universidade de São Paulo (PUC-SP) Dora Kaufman aponta “supervalorização e demonização da inteligência artificial” na sociedade por causa do que ela chama de “desconhecimento sobre essa tecnologia”. A pesquisadora vai participar, na segunda-feira (25/10), do webinar com o tema “O espaço público é Figital: consequências para a política e para os partidos?”

Assista!



Realizado pela Fundação Astrojildo Pereira (FAP), sediada em Brasília, o webinar também terá participação do pós-doutor em computação pela University of Kent at Canterbury (Inglaterra) Silvio Meira, que também é professor extraordinário da Cesar School e cientista-chefe da TDS Company. O engenheiro Fersen Lambranho, que é sócio-presidente do conselho da GP Investments, também confirmou presença no webinar.

O evento será transmitido, a partir das 17h30, em tempo real, no portal, na página da FAP no Facebook e no canal da entidade no Youtube. Interessados podem enviar perguntas para o departamento de tecnologia de informação da fundação, por meio do WhatsApp (61 98419-6983).

Colunista da Época Negócios com foco nos impactos éticos e sociais da inteligência artificial, Dora observa que a inteligência artificial ainda não foi usada em eleições no Brasil. “Mecanismo de reproduzir fake News não é inteligência artificial. Não vi nada de estudo nem qualquer outra indicação de que foi usada em campanha eleitoral no país”, pondera

Na campanha de Donald Trump, que venceu Hillary Clinton nas eleições dos Estados Unidos em 2016, toda a estratégia de campanha usou inteligência artificial. No entanto, de acordo com pesquisas, não se pode afirmar que essa tecnologia interferiu no resultado das eleições de forma relevante.

“Pesquisas sobre a eleição de 2016 mostram que há uma supervalorização da inteligência artificial e de todas as tecnologias digitais no resultado da eleição de Trump”, afirma Dora. “Está acontecendo demonização da inteligência artificial por falta de conhecimento. A gente tem que entender como ela funciona, os limites dela. A técnica é muito restrita ainda para a gente poder identificar as questões reais”, ressalta.


Leia também


Na avaliação da pesquisadora, ao supervalorizar a inteligência artificial, as pessoas “entram no universo da ficção científica". "Parece que a sociedade não tinha problemas antes. Tem certa tendência a atribuir a essas tecnologias problemas históricos da sociedade, como polarização, fake News. Tem nada mais fake News que propaganda eleitoral oficial. Nela, o candidato diz o que quer para conseguir voto. A campanha eleitoral é absolutamente fake News”, critica.

A colunista diz não acreditar que algumas pessoas supervalorizam os efeitos da inteligência artificial de forma proposital. “Não acho que ninguém faz isso propositalmente. Não tenho nenhuma evidência de que isso seja feito de propósito”, acentua, para continuar: “É difícil mesmo”.

Do ponto de vista da adoção da inteligência artificial por parte das empresas, Dora acredita que o Brasil está atrasado. “Mas a vida dos brasileiros é mediada por algoritmos de inteligência artificial. Todas as plataformas e aplicativos que a gente usa no cotidiano é tudo modelo de negócio baseado na inteligência artificial”, explica.

“Os algoritmos de inteligência artificial estão mediando sociabilidade e a comunicação atual. Eles têm reflexo, de alguma forma, na política, que é um evento social e de comunicação. Toda campanha política é uma ação de comunicação”, analisa.

Webinar | O espaço público é Figital: consequências para a política e para os partidos?
Data: 25/10/2021
Horário: 17h30
Transmissão: Portal e redes sociais (Facebook e Youtube) da Fundação Astrojildo Pereira
Realização: Fundação Astrojildo Pereira


Quem é o profissional do futuro com novas formas de trabalho? Dora Kaufman explica

Em artigo publicado na revista da FAP de dezembro, pesquisadora da USP cita habilidades imprescindíveis

Cleomar Almeida, assessor de comunicação da FAP

A pesquisadora de impactos sociais da Inteligência Artificial Dora Kaufman diz que a crise socioeconômica provocada pela Covid-19 tornou visível a premência da sociedade em enfrentar desafios cruciais. “As mudanças na prática de negócios, provavelmente, consolidarão formas totalmente novas de trabalhar”, afirma ela, que é doutora em mídias digitais pela USP (Universidade de São Paulo), em artigo que publicou na revista Política Democrática Online de dezembro.

Clique aqui e acesse a revista Política Democrática Online de dezembro!

Todos os conteúdos da publicação, produzida e editada pela FAP (Fundação Astrojildo Pereira), são disponibilizados, gratuitamente, no site da entidade. Segundo Dora, as primeiras evidências sugerem que os empregadores devem acelerar a automatização, ampliando a possibilidade de uma ‘recuperação sem empregos’. “Além do deslocamento do mercado de trabalho, em paralelo, emerge inédita forma de relacionamento homem-máquina que demanda novas habilidades dos profissionais”, diz.

Em seu artigo na revista Política Democrática Online, a pesquisadora também afirma que documentos de políticas públicas de distintos países contemplam o desenvolvimento de habilidades como estratégico. “O profissional do futuro irá lidar com questões complexas e multidisciplinares, que requerem, além de conhecimentos técnicos, habilidades de lógica, análise crítica, empatia, comunicação e design”, explica.

De acordo com Dora, é um equívoco, amplamente difundido, considerar a automação ameaça apenas aos trabalhadores com baixa qualificação, que tendem a desempenhar tarefas rotineiras e repetitivas. “O avanço acelerado das tecnologias – particularmente os algoritmos preditivos de inteligência artificial – substituirá igualmente as funções cognitivas. A qualificação e requalificação dos profissionais é crítica para evitar o cenário de desemprego em massa e aumento da desigualdade”, alerta.

Ela cita, em seu artigo, relatório do Fórum Econômico Mundial, publicado em 21 de outubro de 2020, que analisa o cenário atual do trabalho impactado por “dupla interrupção”: a pandemia causada pela Covid-19 e o avanço da automação. Seu pressuposto, explica, é que o desenvolvimento e o aprimoramento das habilidades e capacidades humanas por meio da educação e aprendizagem são os principais motores do sucesso econômico, do bem-estar individual e da coesão social. “A escassez de habilidades e de competências compromete a capacidade das empresas de aproveitar o potencial de crescimento proporcionado pelas novas tecnologias”, pondera.

Leia também:

‘STF é um dos pilares da estrutura democrática, mas tem problemas’, diz João Trindade Filho

Diplomata, Jorio Dauster é dedicado à literatura desde a década de 1960

Pesquisas correm contra o tempo em relação ao eleitorado, diz Ciro Leichsenring

RPD: Reportagem mostra o que desestimula vítimas de estupro no Brasil

‘Liderar as Forças Armadas é imperativo para o país’, diz Raul Jungmann

‘Projeto da frente democrática deve ser mantido’, diz José Álvaro Moisés

Como o Brasil pode ter inserção positiva na economia mundial? Bazileu Margarido explica

‘Despreparado para o exercício do governo’, diz Alberto Aggio sobre Bolsonaro

Desastre de Bolsonaro e incapacidade de governar são destaques da nova Política Democrática Online

Confira aqui todas as edições da revista Política Democrática Online


RPD || Dora Kaufman: Transformação digital liderada pela Inteligência Artificial - impactos sobre o mercado de trabalho

As próximas décadas podem ser marcadas pelas tecnologias inteligentes, que estarão presentes em sistemas globais de produção com modelos de negócios integrados e conectados

A combinação de avanços nas tecnologias de Inteligência Artificial (IA) e robótica, por um lado, acelera a produtividade com economia de custos e aumento da eficiência e, por outro, tem fortes impactos sociais, particularmente no mercado de trabalho. Nas próximas décadas, as tecnologias inteligentes estarão presentes em sistemas globais de produção com modelos de negócios integrados e conectados, caracterizados por precisão nos parâmetros de eficiência, personalização de processos e produtos.

Observa-se crescente automação inteligente das tarefas rotineiras, repetitivas e previsíveis, que são as funções predominantes no mercado de trabalho. O trabalhador humano está competindo com a tecnologia inteligente, que é mais barata de empregar com a vantagem adicional de evoluir continuamente; apenas parte dos trabalhadores será realocada para tarefas não suscetíveis à mecanização, tarefas que exigem habilidades humanas que requerem formação adequada (e não simples treinamento).

Vale observar que, historicamente, desde a Revolução Industrial, no século XVIII, o progresso tecnológico priorizou a mecanização das tarefas manuais (trabalho físico); o progresso tecnológico do século XXI, no entanto, engloba igualmente tarefas cognitivas tradicionalmente sob domínio humano, dentre outros atributos, pela maior capacidade e velocidade de processar enormes bases de dados. Ademais, a disrupção tecnológica da IA distingue-se das anteriores pela aceleração e por novos modelos de negócio não intensivos em mão de obra (logo, não gera oferta massiva de empregos).

Os estudos sobre o futuro do trabalho divergem nos números, reflexo das respectivas percepções sobre a ingerênciados arcabouços sociais, legais e regulatórios; e das distintas metodologias. Existe consenso, contudo, de que o resultado entre vagas eliminadas e vagas criadas tende a ser negativo, privilegiando os trabalhadores qualificados. Na competição entre o trabalhador humano e o “trabalhador máquina”, os humanos estão em desvantagem: (a) a manutenção é mais barata, as máquinas trabalham quase que em moto contínuo (sem descanso, sem férias, sem doenças), com um custo médio menor por hora trabalhada (US$ 49 dos humanos na Alemanha e US$ 36 nos EUA, contra US$ 4 do “robô”); (b) as máquinas inteligentes se aperfeiçoam automática e continuamente (processo de machine learning/deep learning); e (c) o custo de reproduzi-las é significativamente menor do que o custo de treinar profissionais humanos para as mesmas funções.

Em paralelo, a substituição do trabalhador humano pelos sistemas inteligentes gera efeito negativo sobre a renda ao aumentar a competição pelos empregos remanescentes. Há fortes indícios de que, em qualquer cenário, a automação inteligente favorece o crescimento econômico, mas gera mais desigualdade (predominantemente, serão extintas as funções de menor qualificação, em geral exercidas pela população de baixa e média renda). Ou seja, a automação inteligente é positiva para o crescimento e negativa para a igualdade.

No Brasil, o processo de transformação digital está relativamente atrasado, mas com impactos perceptíveis sobre o emprego: (a) na indústria, as tecnologias de automação digital, têm ainda baixa penetração, prevalecendo a digitalização de processos internos e a automação básica; (b) no varejo, particularmente o setor bancário, o foco da adoção da IA são os processos internos (redução de custo/aumento de eficiência) e a experiência do cliente (assistentes virtuais/chatbots); (c) no agronegócio, talvez o setor no país mais avançado nesse processo, observa-se a aplicação de tecnologias de IA nas várias etapas de produção, com consequente redução da oferta de trabalho; (d) no setor público, estamos na 51ª posição em GovTech (Governo Tecnológico), mas à medida que avança a digitalização, diminui o número de vagas de trabalho: o alistamento militar on-line, por exemplo, representa atualmente 47% do total – 1,7 milhão de candidatos/ano –, já tendo reduzido de 2.307 para 829 os servidores diretamente envolvidos.

O debate entre se a automação vai substituir os trabalhadores humanos ou vai ampliar sua capacidade aparentemente está superado. A realidade em todos os países e setores de atividade econômica mostra que ambos os processos estão acontecendo simultaneamente. Existe nova forma de relacionamento homem-máquina, que, em algumas situações, empodera os humanos e, em outras, os substitui. Precisamos de políticas públicas com três urgências a serem equacionadas: (a) como lidar com a massa de trabalhadores que tendem ao desemprego pela substituição do trabalhador humano por máquinas/sistemas inteligentes; (b) como requalificar e reciclar a força de trabalho (revisão do ensino em todos os níveis e dos programas de treinamento in company); e (c) como requalificar os trabalhadores nas funções remanescentes para atender à nova interação humano-tecnologia.


Dora Kaufman: A ética e a inteligência artificial

O clássico da literatura do século XIX "Crime e Castigo", de Fiódor Dostoiévski, relata as angústias do estudante Raskólnikov após cometer um assassinato. No curso das investigações, um artigo de sua autoria publicado na juventude aguça as suspeita do juiz Porfírio Petróvitch. Nele, Raskólnikov divide os indivíduos em ordinários e extraordinários e, na interpretação do juiz, concede aos últimos o direito de infringir a lei precisamente porque são extraordinários. Debatendo-se entre a convicção de ter livrado o mundo de uma velha agiota, e o sentimento de culpa pela dificuldade de sustentar seu ato, Raskólnikov acaba sendo indulgente consigo.

Um drone militar americano, em 2011, eliminou, por comportamento suspeito, um grupo de homens em Datta Khel, Paquistão, que estavam em assembleia para resolver um conflito local; o Google, em 2017, está sendo processado na Inglaterra em uma ação coletiva por coletar dados de 5,4 milhões de usuários de iPhone, teoricamente protegidos por políticas de privacidade.

Em comum, ambos têm os algoritmos de inteligência artificial (IA) que, diferentemente do personagem de Dostoiévski, não se debatem em conflitos éticos.

O tema da ética permeia a sociedade humana desde Aristóteles e foi mudando de sentido ao longo da história resguardando, contudo, a crença de que apenas o humano é dotado da capacidade de, como sugere o bioeticista Larry Churchill, "pensar criticamente sobre os valores morais e dirigir nossas ações em termos de tais valores".

O filósofo sueco Nick Bostrom, no artigo "The Ethics of Artificial Intelligence" (2011), recusa conceder aos atuais sistemas de inteligência artificial, ainda restritos à uma tarefa concreta, o status moral: "Podemos alterar, copiar, encerrar, apagar ou utilizar programas de computador tanto quanto nos agradar [...] As restrições morais a que estamos sujeitos em nossas relações com os sistemas contemporâneos de IA são todas baseadas em nossas responsabilidades para com os outros seres".

A prerrogativa de controle pelo humano, contudo, pode se alterar em breve: pergunta dirigida a especialistas em IA sobre quando a inteligência da máquina alcançará o nível humano mostrou 10% de probabilidade em 2022, 50% de probabilidade até 2040 e 90% de probabilidade até 2075 (resultado agregado de quatro pesquisas).

Independentemente do fato se a superinteligência, com o advento da singularidade, ocorrerá ainda no século XXI, a acelerada disseminação em larga escala do uso da inteligência artificial evidencia a premência do debate.

Pesquisadores da Universidade Stanford, em meados do ano, tornaram público um algoritmo de inteligência artificial, o Gaydar, que, com base nas fotografias dos sites de namoro, identifica os homossexuais. A motivação inicial era protegê-los, contudo, a iniciativa foi vista como potencial ameaça à privacidade e segurança, desencadeando inúmeros protestos.

O estudo que originou o Gaydar foi previamente aprovado pelo Conselho de Avaliação de Stanford, com base no Conselho de Avaliação Institucional (Institutional Review Board - IRB), comitê de ética independente que norteia os conselhos dos centros de pesquisa e universidades americanas.

A questão é que as regras foram fixadas há 40 anos! "A grande e vasta maioria do que chamamos de pesquisa de 'grandes dados' não é abrangida pela regulamentação federal", diz Jacob Metcalf do Data & Society, instituto de NY dedicado aos impactos sociais e culturais do desenvolvimento tecnológico centrado em dados.

Um sistema chamado Compas (Correctional Offender Management Profiling for Alternative Sanctions), no Estado de Wisconsin, e similares em outros Estados americanos, baseado em algoritmos, determinam o grau de periculosidade de criminosos e consequentemente a pena do condenado. A intenção, segundo seus defensores, é tornar as decisões judiciais menos subjetivas. A metodologia de avaliação, criada por uma empresa privada comercial, vem sendo fortemente contestada.

No livro "A Teoria do Drone", Grégoire Chamayou alerta para os drones militares que, inicialmente concebidos como dispositivos de informação, vigilância e reconhecimento, transformaram-se em armas letais. Com base em modelos matemáticos (algoritmos) semelhantes aos utilizados para mapear e analisar as movimentações nas redes sociais na Internet (Facebook, por exemplo), os drones militares traçam conexões entre "suspeitos" e determinam sua consequente eliminação.

"É preciso uma discussão sobre os limites que devem se aplicar a essas máquinas; também é preciso decidir quem se responsabiliza no caso de um erro ou de uma falha", alerta Chamayou. Em 2015, na Conferência Internacional de Inteligência Artificial em Buenos Aires, mais de mil cientistas e especialistas assinaram uma carta aberta contra o desenvolvimento de robôs militares autônomos, dentre outros o físico Stephen Hawking, o empreendedor Elon Musk, e o cofundador da Apple Steve Wosniak. Na edição de 2017 da mesma Conferência, dessa vez em Melbourne, Austrália, nova carta foi lançada com o apoio de 116 líderes em IA e robótica solicitando a ONU que vete o uso de armas autônomas, tendo a frente Elon Musk e Mustafa Suleyman, fundador da empresa inglesa Deep Mind adquirida pelo Google.

Essas questões são importantes, mas não fazem parte do nosso dia a dia. Ledo engano, os algoritmos de inteligência artificial estão interferindo em um conjunto amplo de atividades, em geral sem transparência. Ou seja, desconhecemos os critérios de avaliação em situações cotidianas tais como contratação de empréstimo bancário e seleção para vagas de emprego.

Weapons of Math Destruction

Cathy O'Neil, matemática americana e autora do best-seller  "Weapons of Math Destruction", alerta que muitos desses modelos que administram nossas vidas codificam o preconceito humano: "Como os deuses, esses modelos matemáticos são opacos, invisíveis para todos, exceto os sacerdotes mais altos em seu domínio: matemáticos e cientistas da computação".

O'Neil adverte que as áreas de recursos humanos das empresas estão cada vez mais usando pontuações de crédito para avaliar candidatos em processos de contratação, supondo que o mau crédito se correlaciona com o mau desempenho no trabalho, implicando numa espiral descendente (aqueles que tem dificuldade em honrar seus empréstimos tem dificuldade de realocação profissional).

Em paralelo, os departamentos de RH igualmente acessam o histórico médico dos candidatos. Como o RH acessa os dados dos candidatos? Por meio de um cada vez mais unificado Banco de Dados (Big Data), cujos dados são captados e manipulados pelos algoritmos de Inteligência Artificial. "Bem-vindo ao lado escuro de Big Data" ironiza O'Neil.

No evento Sustainable Brands, em São Paulo, David O'Keefe da Telefonica, controladora da Vivo, apresentou produtos derivados dos dados captados das linhas móveis (Mobile Phone Data). Com o título "usando dados comuns globais e aprendizado de máquina para fornecer informações de relacionamento digital em multinacionais", O'Keefe descreveu o "produto" em que, por meio dos dados dos celulares dos funcionários de uma empresa multinacional (quem ligou para quem, com que frequência, quanto tempo durou a ligação etc.) é possível identificar as redes informais internas, importante elemento nas estratégias de gestão.

Essas redes, mais do que as formais, definidas nos organogramas, indicam as conexões de influência e de poder nas empresas (além do tempo que cada funcionário "gasta" ao celular com assuntos externos ao trabalho). Parece ficção científica, mas é realidade e supera de longe as previsões de George Orwell no livro "1984", publicado em 1949, vários anos antes do termo inteligência artificial ter sido cunhado.

A IA está presente no nosso dia a dia, pelo menos de uma parte da população que tem acesso a internet e a dispositivos digitais. Nos algoritmos de busca do Google, na recomendação de filmes e música do Netflix e Spotify, na recomendação de "amigos" do Facebook e LinkedIn, no aplicativo Waze, nos assistentes pessoais (Siri, Cortana, Alexa, Google Now), nos videogames, na identificação de fotos nas redes sociais, nos sistemas de vigilância e segurança, e mais em um enorme conjunto de benefícios que, efetivamente, têm o potencial de facilitar a vida do século XXI.

O marketing e a propaganda usam os algoritmos de IA para identificar os hábitos e preferências dos consumidores e produzir campanhas mais assertivas e segmentadas. O mesmo ocorre com as áreas comerciais, por exemplo, no setor imobiliário: os algoritmos permitem identificar se você foi designado para uma função em outra cidade e/ou contratado por uma empresa com escritório em outra cidade, acessar os locais e os tipo de moradia que você vem pesquisando na Internet, qual o tamanho de sua família etc. com isso aumenta a chance de ofertas de imóveis apropriados.

O varejo físico investe pesado em IA, incorporando as "vantagens" do varejo on-line por meio de dispositivos que permitem identificar por onde o cliente circulou nas lojas, por onde "navegou" seu olhar nas prateleiras, por quantas vezes e por quanto tempo. São os algoritmos de IA que transformam em informação útil essa imensidão de dados gerados pelas movimentações on-line.

Constatar que os algoritmos de IA permeiam cada vez mais os processos decisórios, em geral, provoca fortes reações de indignação. Não há como negar que são reações legítimas, devemos, sim, nos preocupar com a não transparência, com a invasão de privacidade, com a arbitrariedade. Por outro lado, é difícil sustentar o contra-argumento de que os humanos tem sensibilidade e discernimento e, consequentemente, estão mais propensos a agir com ética: não é raro os gestores de RH excluírem candidatos por preconceito. É razoável supor que, mesmo os piores modelos matemáticos, são menos propensos a cometer injustiças do que os humanos no desempenho das mesmas funções.

Harvard Business Review

Erik Brynjolfsson e Andrew McAfee admitem que existem riscos, mas, em recente artigo na "Harvard Business Review", alertam que "embora todos os riscos da IA sejam muito reais, o padrão de referência adequado não é a perfeição, mas sim a melhor alternativa possível. Afinal, nós humanos temos viesse, cometemos erros e temos problemas para explicar, de fato, como chegamos a determinada decisão".

Por outra linha de raciocínio, pode-se argumentar que esses modelos são simples referências no processo de tomada de decisão. Ou ainda, que no estágio atual, em que as máquinas ainda dependem da supervisão humana, cabe a ele alimentar às máquinas com os parâmetros, ou seja, a responsabilidade sobre o processo.

Como defende Cathy O'Neil, "nossos próprios valores e desejos influenciam nossas escolhas, os dados que escolhemos para coletar as perguntas que solicitamos. Os modelos são opiniões incorporadas em matemática". O'Neil propõe começar a regular os modelos matemáticos pelos seus "modeladores", criando um "código de ética" similar à área de saúde.

Se o campo da inteligência artificial remonta a 1956, quando John McCarthy cunhou o termo, por que a questão ética está na pauta em 2017?

A razão é o recente avanço da IA. Em 1959, Arthur Lee Samuel inaugurou um subcampo da IA com o objetivo de prover os computadores da capacidade de aprender sem serem programados, denominado por ele de Machine Learning (ML). A técnica não ensina as máquinas a, por exemplo, jogar um jogo, mas ensina como aprender a jogar um jogo utilizando técnicas baseadas em princípios lógicos e matemáticos.

O processo é distinto da tradicional "programação", a máquina aprende com exemplos. Na década de 1980,  inspirados no cérebro humano, cientistas da computação expandiram o subcampo da ML, propondo um processo de aprendizado com base em redes neurais, com resultados mais concretos nesta década, por conta de três fatores: um maior poder computacional, a crescente disponibilidade de grande quantidade de dados, e o progresso dos algoritmos.

Denominado em inglês de Deep Learning (aprendizado profundo), o foco são problemas solucionáveis de natureza prática, relacionado a uma tarefa concreta. O treinamento de uma rede neuronal artificial consiste em mostrar exemplos e ajustar gradualmente os parâmetros da rede até obter os resultados requeridos (tentativa e erro).

A rede geralmente tem entre 10-30 camadas empilhadas de neurônios artificiais. Num reconhecimento de imagem, por exemplo, a primeira camada procura bordas ou cantos; as camadas intermediárias interpretam as características básicas para procurar formas ou componentes gerais; e as últimas camadas envolvem interpretações completas.

Na identificação de fotos nas redes sociais, a máquina percebe padrões e "aprende" a identificar rostos, tal como alguém que olha o álbum de fotos de uma família desconhecida e, depois de uma série de fotos, reconhece o fotografado. O reconhecimento de voz, que junto com a visão computacional está entre as aplicações mais bem-sucedidas, já permite a comunicação entre humanos e máquinas, mesmo que ainda precária (Siri, Alexa, Google Now). Na cognição, onde estão os sistemas de resolução de problemas, ocorreram igualmente importantes avanços.

A relativa autonomia conquistada pelas máquinas, quando não mais seguem processos de decisão pré-programados pelos humanos e começam a aprender por si mesmas, coloca para a sociedade novas questões éticas e a urgência de estabelecer arcabouços legais e regulatórios.

As conhecidas "Três Leis da Robótica" de Asimov, propostas há mais de 50 anos, citadas frequentemente como referência ética para a IA, não se sustentam no estágio atual: as tecnologias inteligentes não estão relacionadas apenas a robótica -- pelo contrário, estão em todos os campos de conhecimento e suas aplicações práticas --, nem essas máquinas inteligentes estão subordinadas diretamente às "ordens que lhe são dadas por seres humanos".

Gerd Leonhard defende, no livro "Technology vs Humanity", a formação de um conselho global de ética digital para tratar da inteligência artificial, duvidando da capacidade das máquinas de compreender e assimilar algum tipo de ética, pelo menos no estágio de desenvolvimento atual da IA.

Para ele, nenhuma IA será verdadeiramente inteligente sem algum tipo de módulo de governança ética, pré-requisito para limitar a probabilidade de falhas. É pertinente, contudo, a indagação do filósofo americano Ned Block "se as máquinas aprendem com o comportamento humano, e esse nem sempre está alinhado com valores éticos, como prever o que elas farão?".

No início de 2016, exemplo frequentemente citado, a Microsoft lançou um robô de chat (chatbot) "teen girl", o Tay, para se relacionar com garotas adolescentes; em menos de 24 horas a empresa exclui-o do Twitter: o Tay transformou-se rapidamente num robô defensor de sexo incestuoso e admirador de Adolf Hitler. O processo de aprendizagem da IA fez com que o robô Tay modelasse suas respostas com base nos diálogos de adolescentes.

Várias questões afloram, desde a mais básica -- como incorporar a ética humana às tecnologias de IA, se são valores humanos às vezes ambíguos ou não verbalizados mesmo entre os próprios humanos? --, até se faz sentido investir no desenvolvimento de uma inteligência que no futuro não terá controle humano, com riscos e ameaças imponderáveis.

Não seria mais prudente para a sobrevivência da humanidade evitar essa tendência abdicando de seus potenciais benefícios?

Future of Life

A verdade é que existem muito mais perguntas do que respostas. Tentando enfrentar essas e outras questões, proliferam iniciativas de pesquisadores, corporações, governos. Acadêmicos americanos fundaram, em 2014, o instituto Future of Life, com a adesão de personalidades como o cientista da computação Stuart J. Russell, os físicos Stephen Hawking e Frank Wilczek e os atores Alan Alda e Morgan Freeman. Em outubro, a DeepMind da Google anunciou a criação do grupo DeepMinds Ethics & Society (DMES) dedicado a estudar os impactos da IA na sociedade.

Liderado por Verity Harding e Sean Legassick, o grupo será formado por 25 pesquisadores com dedicação exclusiva. Emergem igualmente iniciativas com foco específico: o Media Lab do Massachusetts Institute of Technology (MIT) está desenvolvendo um sistema para permitir que o usuário controle seu próprio feed de notícias do Facebook, e não os algoritmos; professores da Harvard Law School estão trabalhando em maneiras de eliminar o "viés injusto" dos algoritmos.

Ambas iniciativas estão sob o guarda-chuva de um fundo de pesquisa de US$ 27 milhões (Ethics and Governance of Artificial Intelligence Fund), criado pelo cofundador do LinkedIn, Reid Hoffman, e outros investidores, e administrado pelo MIT Media Lab e pelo Centro Berkman Klein de Harvard.

Os governos da Europa e dos EUA estão engajados na regulamentação da IA. No início do ano, um relatório do Parlamento Europeu sobre robótica e inteligência artificial versou sobre responsabilidade civil, ética, impacto sobre mercado de trabalho, segurança e privacidade.

Os eurodeputados defendem dotar os robôs autônomos de "personalidade eletrônica", ou seja, aptos a arcar com a responsabilidade de seus atos. Outras ideias em debate são a criação de um código de conduta ética para engenheiros de robótica, e a agência europeia para a robótica e IA. Dois obstáculos comprometem os resultados: o relativo baixo conhecimento sobre os meandros da Inteligência Artificial dos legisladores, e a velocidade com que a IA vem avançando. Se ainda não há consenso regulatório sobre globalização -- mercado financeiro, internet, e vários outros assuntos mais conhecidos e antigos, o que esperar sobre IA!

O desafio não é simples nem trivial, e a tendência é tornar-se mais complexo com o advento, em algum momento do século XXI, da superinteligência, definida por Nick Bostrom como "um intelecto que excede em muito o desempenho cognitivo dos seres humanos em praticamente todos os domínios de interesse". Ou seja, máquinas autônomas.

 


El País: O obscuro uso do Facebook e do Twitter como armas de manipulação política

As manobras nas redes se tornam uma ameaça que os governos querem controlar

Por Javier Salas

Tudo mudou para sempre em 2 de novembro de 2010, sem que ninguém percebesse. O Facebook introduziu uma simples mensagem que surgia no feed de notícias de seus usuários. Uma janelinha que anunciava que seus amigos já tinham ido votar. Estavam em curso as eleições legislativas dos Estados Unidos e 60 milhões de eleitores vieram aquele teaser do Facebook. Cruzando dados de seus usuários com o registro eleitoral, a rede social calculou que acabaram indo votar 340.000 pessoas que teriam ficado em casa se não tivessem visto em suas páginas que seus amigos tinham passado pelas urnas.

Dois anos depois, quando Barack Obama tentava a reeleição, os cientistas do Facebook publicaram os resultados desse experimento político na revista Nature. Era a maneira de exibir os músculos diante dos potenciais anunciantes, o único modelo de negócio da empresa de Mark Zuckerberg, e que lhe rende mais de 9 bilhões de dólares por trimestre. É fácil imaginar o quanto devem ter crescido os bíceps do Facebook desde que mandou para as ruas centenas de milhares de eleitores há sete anos, quando nem sequer havia histórias patrocinadas.

Há algumas semanas, o co-fundador do Twitter, Ev Williams, se desculpou pelo papel determinante que essa plataforma desempenhou na eleição de Donald Trump, ao ajudar a criar um “ecossistema de veículos de comunicação que se sustenta e prospera com base na atenção”. “Isso é o que nos torna mais burros e Donald Trump é um sintoma disso”, afirmou. “Citar os tuítes de Trump ou a última e mais estúpida coisa dita por qualquer candidato político ou por qualquer pessoa é uma maneira eficiente de explorar os instintos mais baixos das pessoas. E isso está contaminando o mundo inteiro”, declarou Williams.

Quando perguntaram a Zuckerberg se o Facebook tinha sido determinante na eleição de Trump, ele recusou a ideia dizendo ser uma “loucura” e algo “extremamente improvável”. No entanto, a própria rede social que ele dirige se vangloria de ser uma ferramenta política decisiva em seus “casos de sucesso” publicitários, atribuindo a si mesma um papel essencial nas vitórias de deputados norte-americanas ou na maioria absoluta dos conservadores britânicos em 2015.

O certo é que é a própria equipe de Trump quem reconhece que cavalgou para a Casa Branca nas costas das redes sociais, aproveitando sua enorme capacidade de alcançar usuários tremendamente específicos com mensagens quase personalizadas. Como revelou uma representante da equipe digital de Trump à BBC, o Facebook, o Twitter, o YouTube e o Google tinham funcionários com escritórios próprios no quartel-general do republicano. “Eles nos ajudaram a utilizar essas plataformas da maneira mais eficaz possível. Quando você está injetando milhões e milhões de dólares nessas plataformas sociais [entre 70 e 85 milhões de dólares no caso do Facebook], recebe tratamento preferencial, com representantes que se certificam em satisfazer todas as nossas necessidades”.

E nisso apareceram os russos

A revelação de que o Facebook permitiu que, a partir de contas falsas ligadas a Moscou, fossem comprados anúncios pró-Trump no valor de 100.000 dólares colocou sobre a mesa o lado obscuro da plataforma de Zuckerberg. Encurralado pela opinião pública e pelo Congresso dos Estados Unidos, a empresa reconheceu que esses anúncios tinham alcançado 10 milhões de usuários. No entanto, um especialista da Universidade de Columbia, Jonathan Albright, calculou que o número real deve ser pelo menos o dobro, fora que grande parte de sua divulgação teria sido orgânica, ou seja, viralizando de maneira natural e não só por patrocínio. A resposta do Facebook? Apagar todo o rastro. E cortar o fluxo de informações para futuras investigações. “Nunca mais ele ou qualquer outro pesquisador poderá realizar o tipo de análise que fez dias antes”, publicou o The Washington Post há uma semana. “São dados de interesse público”, queixou-se Albright ao descobrir que o Facebook tinha fechado a última fresta pela qual os pesquisadores podiam espiar a realidade do que ocorre dentro da poderosa empresa.

Esteban Moro, que também se dedica a buscar frestas entre as opacas paredes da rede social, critica a decisão da companhia de se fechar em vez de apostar na transparência para demonstrar vontade de mudar. “Por isso tentamos forçar que o Facebook nos permita ver que parte do sistema influi nos resultados problemáticos”, afirma esse pesquisador, que atualmente trabalha no Media Lab do MIT. “Não sabemos até que ponto a plataforma está projetada para reforçar esse tipo de comportamento”, afirma, em referência à divulgação de falsas informações politicamente interessadas.

O Facebook anunciou que contará com quase 9.000 funcionários para editar conteúdos, o que muitos consideram um remendo em um problema que é estrutural. “Seus algoritmos estão otimizados para favorecer a difusão de publicidade. Corrigir isso para evitar a propagação de desinformação vai contra o negócio”, explica Moro. A publicidade, principal fonte de rendas do Facebook e do Google, demanda que passemos mais tempos conectados, interagindo e clicando. E para obter isso, essas plataformas desenvolvem algoritmos muito potentes que criaram um campo de batalha perfeito para as mentiras polícias, no qual proliferaram veículos que faturam alto viralizando falsidades e meia-verdades polarizadas.

“É imprescindível haver um processo de supervisão desses algoritmos para mitigar seu impacto. E necessitamos de mais pesquisa para conhecer sua influência”, reivindica Gemma Galdon, especialista no impacto social da tecnologia e diretora da consultoria Eticas. Galdon destaca a coincidência temporal de muitos fenômenos, como o efeito bolha das redes (ao fazer um usuário se isolar de opiniões diferentes da sua), o mal-estar social generalizado, a escala brutal na qual atuam essas plataformas, a opacidade dos algoritmos e o desaparecimento da confiança na imprensa. Juntos, esses fatos geraram “um desastre significativo”. Moro concorda que “muitas das coisas que estão ocorrendo na sociedade têm a ver com o que ocorre nas redes”. E aponta um dado: “São o único lugar em que se informam 40% dos norte-americanos, que passam nelas três horas por dia”.

A diretora de operações do Facebook, Sheryl Sandberg, braço direito de Zuckerberg, defendeu a venda de anúncios como os russos, argumentando que se trata de uma questão de "liberdade de expressão". Segundo a agência de notícias Bloomberg, o Facebook e o Google colaboraram ativamente em uma campanha xenófoba contra refugiados para que fosse vista por eleitores-chave nos estados em disputa. O Google também aceitou dinheiro russo para anúncios no YouTube e no Gmail. Não em vão, o Facebook tem pressionado há anos para que não seja afetado pela legislação que exige que a mídia tradicional seja transparente na contratação de propaganda eleitoral. Agora, o Senado pretende legislar sobre a propaganda digital contra a pressão dessas grandes plataformas tecnológicas, que defendem a autorregulação. Tanto o Twitter quanto o Facebook expressaram recentemente a intenção de serem mais transparentes nesta questão.

A responsabilidade do Twitter

Em meados deste ano, o Instituto de Internet da Universidade de Oxford publicou um relatório devastador, analisando a influência que as plataformas digitais estavam tendo sobre os processos democráticos em todo o mundo. A equipe de pesquisadores estudou o que aconteceu com milhões de publicações nos últimos dois anos em nove países (Brasil, Canadá, China, Alemanha, Polônia, Taiwan, Rússia, Ucrânia e Estados Unidos) e concluiu, entre outras coisas, que “os bots [contas automatizadas] podem influenciar processos políticos de importância mundial”.

Nos EUA, os republicanos e a direita supremacista usaram exércitos de bots para “manipular consensos, dando a ilusão de uma popularidade on-line significativa para construir um verdadeiro apoio político” e para ampliar o alcance de sua propaganda. E concentraram seus esforços nos principais estados em disputa, que foram inundados com notícias de fontes não confiáveis. Em países como a Polônia e a Rússia, grande parte das conversas no Twitter é monopolizada por contas automatizadas. Em estados mais autoritários, as redes são usadas para controlar o debate político, silenciando a oposição e, nos mais democráticos, aparecem as cibertropas para intencionalmente contaminar as discussões. As plataformas não informam nem interferem porque colocariam “sua conta em risco”.

“Os bots utilizados para a manipulação política também são ferramentas eficazes para fortalecer a propaganda on-line e as campanhas de ódio. Uma pessoa, ou um pequeno grupo de pessoas, pode usar um exército de robôs políticos no Twitter para dar a ilusão de um consenso de grande escala”, afirma a equipe da Oxford. E concluem: “A propaganda informática é agora uma das ferramentas mais poderosas contra a democracia” e é por isso que as plataformas digitais “precisam ser significativamente redesenhadas para que a democracia sobreviva às redes sociais”.

Zuckerberg diz que é “loucura” pensar que o Facebook pode definir eleições, mas se gaba de fazer isso em seu próprio site

O Twitter também deletou conteúdo de valor potencialmente insubstituível que ajudaria a identificar a influência russa na eleição de Trump. Mais recentemente, pesquisadores da Universidade do Sul da Califórnia alertaram sobre o desenvolvimento de um mercado paralelo de bots políticos: as mesmas contas que antes apoiaram Trump, tentaram mais tarde envenenar a campanha na França a favor de Le Pen e, depois, produziram material em alemão colaborando com o partido neonazista Afd. Zuckerberg prometeu fazer o possível para “garantir a integridade” das eleições alemãs. Durante a campanha, sete das 10 notícias mais virais sobre a primeira-ministra alemã Angela Merkel no Facebook eram falsas. O portal ProPublica acaba de revelar que a rede social tolerou anúncios ilegais que espalhavam informações tóxicas contra o Partido Verde alemão.

Galdon trabalha com a Comissão Europeia, a qual considera “muito preocupada” nos últimos meses em dar uma resposta a esses fenômenos, pensando em um marco europeu de controle que, atualmente, está muito longe de ser concretizado. “Há quem aposte pela autorregulação, quem acredite que deve haver um órgão de supervisão de algoritmos como o dos medicamentos e até mesmo quem peça que os conteúdos sejam diretamente censurados”, diz a pesquisadora. Mas Galdon destaca um problema maior: “Dizemos às plataformas que precisam atuar melhor, mas não sabemos o que significa melhor. As autoridades europeias estão preocupadas, mas não sabem bem o que está acontecendo, o que mudar ou o que pedir exatamente”.

SAIR DA BOLHA
Tem sido muito discutido o verdadeiro impacto do risco das bolhas de opinião geradas pelas redes, depois do alerta do ativista Eli Pariser. “Esse filtro, que acaba reforçando nossos próprios argumentos, está sendo decisivo”, alerta Galdon. Recentemente, Sheryl Sandberg, do Facebook, disse que a bolha era menor em sua plataforma do que na mídia tradicional (embora tenha negado categoricamente que sua empresa possa ser considerada um meio de comunicação). Cerca de 23% dos amigos de um usuário do Facebook têm opiniões políticas diferentes desse amigo, de acordo com Sandberg.

“Sabemos que as dinâmicas do Facebook favorecem o reforço de opiniões, que tudo é exacerbado porque buscamos a aprovação do grupo, porque podemos silenciar pessoas das quais não gostamos, porque a ferramenta nos dá mais do que nós gostamos. E isso gera maior polaridade”, diz Esteban Moro. Um exemplo: um estudo recente do Pew Research Center mostrou que os políticos mais extremistas têm muito mais seguidores no Facebook do que os moderados. “Vivemos em regiões de redes sociais completamente fechadas, das quais é muito difícil sair”, afirma. E propõe testar o experimento de seus colegas do Media Lab, do MIT, que desenvolveram a ferramenta FlipFeed, que permite entrar na bolha de outro usuário do Twitter, vendo sua timeline: “É como se você fosse levado de helicóptero e lançado no Texas sendo eleitor de Trump. Assim você percebe o quanto vivemos em um ecossistema de pessoas que pensam exatamente como nós”.

 

 


Inteligência Artificial

Dora Kaufman: O desafio mais importante já enfrentado

No ano passado, o AlphaGo, programa criado pela companhia inglesa Deep Mind, do Google, ganhou de 4 x 1 do sul-coreano Lee Sedol, o melhor jogador do jogo chinês Go. Foi um fato histórico. No jogo de damas, se um humano e um computador jogarem em perfeitas condições, o resultado será empate, ou seja, o computador hoje jamais perderia um jogo de damas. No xadrez, a probabilidade é de que o melhor computador ganhe do melhor jogador humano.

Se, por um lado, a inteligência artificial (IA) realiza tarefas que são supostamente prerrogativas dos seres humanos, sua capacidade ultrapassa as limitações humanas. Parte do sucesso da Netflix, por exemplo, está em seu sistema de personalização, em que algoritmos analisam as preferências do usuário (e de grupos de usuários com preferências semelhantes) e, com base nelas, sugere filmes e séries.

O caso da IA é ímpar: pela primeira vez na história estamos diante de outra "espécie" inteligente, com a perspectiva de, nas próximas décadas, superar a inteligência humana, tornando-se uma "superinteligência". Outro fato inédito é que pela primeira vez o homem criou algo sob o qual não tem controle. Esses dois fatos afetam o futuro da humanidade. O que ainda tem ares de ficção científica pode estar mais próximo do que imaginamos. A inteligência artificial permeia nosso cotidiano. Acessamos sistemas inteligentes para programar o itinerário com o Waze, pesquisar no Google e receber do Spotify recomendações de músicas. A Siri, da Apple, o Google Now e a Cortada, da Microsoft, são assistentes pessoais digitais inteligentes que nos ajudam a localizar informações úteis com acesso por meio de voz com perguntas tais como "O que está na minha agenda hoje?" ou "Qual o posto de gasolina mais próximo?".

O Google colocou à venda nos EUA, em outubro, um assistente doméstico apto a controlar os dispositivos conectados na casa, acionado por comando de voz com a frase "Ok Google". Igualmente, é a IA que está por trás dos algoritmos que identificam fotografias no Instagram ou no Facebook e que tornam os anúncios on-line assertivos com o perfil do usuário. Quem já não se surpreendeu ao chegar em outro país, acessar o Facebook e receber anúncios de restaurantes e lojas locais?

Grandes varejistas, como o supermercado inglês Target e a Amazon, investem em projetos que, com base no histórico, sejam capazes de antecipar compras do consumidor. O conceito da "geladeira inteligente" da Samsung é de "family hub", ou seja, a geladeira ser um centralizador de informações da família, com recursos simples como uma tela para fixar anotações e fotos, aos mais sofisticados como a visualização no smartphone do seu interior. A expectativa é de que em breve as geladeiras "conversem" diretamente com supermercados repondo automaticamente os produtos.

O serviço de atendimento on-line ao cliente se beneficia com o processamento de linguagem natural; o desempenho dos robôs é tão perfeito que temos a sensação de estar interagindo com pessoas do outro lado da linha. A IA está presente nos sistemas de detecção de fraude e também nos serviços de vigilância, em que algoritmos são treinados para reconhecer uma "ameaça". No campo da saúde os avanços são diversificados, com ganhos de precisão nos diagnósticos, nos processos cirúrgicos e no enfrentamento de epidemias. Recentemente, um sistema inteligente diagnosticou 90% dos casos de câncer de pulmão, superando os médicos que alcançaram êxito em apenas 50% deles.

Distinto de tecnologias que substituíram funções associadas a aptidões físicas, a inteligência artificial ameaça a elite da sociedade

Cunhado em 1956, o termo inteligência artificial deu início a um campo de conhecimento dos mais controversos da ciência da computação, associado com linguagem e inteligência humana, raciocínio, aprendizagem e resolução de problemas. O pesquisador Davi Geiger, do Instituto Courant da New York University, propõe pensar a IA numa perspectiva simplificada, como a reprodução do que é controlado pelo cérebro humano - o movimento de andar, por exemplo, é controlado pelo cérebro, assim como enxergar.

Todas as sensações que vão ao cérebro são do domínio da inteligência, logo estão potencialmente no campo da IA. Esse foi o pressuposto do colóquio de Eberhart Fetz, da Washington University, no Center for Neural Science (NYU): um computador minúsculo que, implantado no cérebro humano, recupere movimentos perdidos, como a mobilidade de uma perna, suplantando as próteses mecânicas. As experiências empíricas estão sendo realizadas em macacos e os prognósticos são animadores.

Dois eventos recentes e correlacionados galvanizaram as pesquisas em IA: a explosão de uma enorme quantidade de dados na internet e a técnica Deep Learning. Big Data é o termo em inglês para essa grande quantidade de dados gerados na internet. Sua complexidade reside não somente na quantidade, mas também na variedade e velocidade com que os dados são produzidos por humanos e por autorreprodução. Como extrair informação dessa quantidade enorme de dados? É justamente aí que entra a inteligência artificial.

Os métodos de extrair informação são de uma subárea da IA denominada Machine Learning. A técnica não ensina as máquinas a, por exemplo, jogar um jogo, mas ensina como aprender a jogar um jogo. O processo é distinto da tradicional "programação". Essa priori "sutil" diferença é o fundamento da IA. Todos os elementos da movimentação on-line - bases de dados, "tracking", "cookies", pesquisa, armazenamento, links etc. - atuam como "professores" da IA. O termo hoje mais amigável é Deep Learning. O curioso é que, como explica Geiger, não sabemos como essas máquinas funcionam. Tom Mullaney, de Stanford, em palestra na Universidade de Columbia, provocou: "Se você perguntar para um cara se sabe exatamente o que acontece no interior das máquinas, se ele for honesto vai responder que não sabe".

As grandes empresas de tecnologia estão investindo pesado em sistemas inteligentes. A Apple, em 2015, adquiriu a empresa britânica Vocal IQ, produtora de tecnologia voltada para controle de voz, e, no início de 2016, comprou a startup de inteligência artificial Emotient, com foco na tecnologia de reconhecimento facial e reação dos clientes aos anúncios. O projeto Oxford, da Microsoft, disponibiliza um conjunto de APIs (interface de programação de aplicações) com recursos de reconhecimento facial e processamento de fala. A IBM tem o Watson, sistema que em 2011 venceu os dois melhores jogadores humanos do programa americano de televisão "Jeopardy"; em 2014, o Watson foi utilizado no New York Genome Center, em tratamentos personalizados de pacientes com câncer cerebral.

A Amazon tem o Alexa, aplicativo que permite a interação usando voz para responder a perguntas, reproduzir músicas etc. adaptado aos padrões de fala, vocabulário e preferências pessoais. Há dois anos, o Facebook criou o Artificial Intelligence Research Lab, sob o comando de Yann LeCun, da NYU. Segundo ele, "o lema do Facebook é conectar pessoas. Cada vez mais, isso também significa conectar as pessoas com o mundo digital. No fim de 2013, quando Mark Zuckerberg decidiu criar o Facebook AI Research, pensou no que seria "conectar pessoas" no futuro e percebeu que a inteligência artificial desempenharia um papel fundamental". O Facebook disponibiliza diariamente cerca de 2 mil itens para cada usuário (mensagens, imagens, vídeos etc.).

Entre esse conjunto de informações, os algoritmos do Facebook identificam - com base nos gostos, interesses, relações, aspirações e objetivos de vida - e selecionam de 100 a 150 itens, facilitando a experiência do usuário. Essa seleção assertiva de conteúdos relevantes é processada por meio da IA, especificamente pelas "redes neurais recorrentes". Como explica LeCun, "grande parte do nosso trabalho no Facebook se concentra na elaboração de novas teorias, princípios, métodos e sistemas capazes de fazer com que a máquina compreenda imagens, vídeos, fala e linguagem e, em seguida, raciocine sobre elas". Outras são as iniciativas do Facebook, como auxiliar deficientes visuais a "ver" fotos usando "redes neurais" por meio da descrição de cada foto.

O Facebook usa IA para produzir mapas mostrando a densidade populacional e o acesso à internet, ajudando a levar a internet para regiões ainda sem conexão. Foram analisados 20 países e 21,6 milhões de quilômetros quadrados. O Google, em 2014, adquiriu a Deep Mind, empresa inglesa de IA fundada em 2010. Desde então, o Google comprou outras 13 empresas de IA e robótica. Em vez de usar as tecnologias de IA para aperfeiçoar seu sistema de busca, o Google utiliza ele para aperfeiçoar suas tecnologias na área. Kevin Kelly, fundador da revista "Wired", vaticina no livro "The Inevitable" (2016): "Toda vez que um usuário digita uma consulta, clica em um link ou cria um link na web, ele está treinando o Google IA. Minha previsão: até 2026, o principal produto do Google não será 'busca', mas inteligência artificial".

Em setembro, Google, Facebook, Amazon, IBM e Microsoft formaram parceria para estabelecer melhores práticas sociais e éticas na investigação de IA. Para LeCun, "ao colaborar abertamente com nossos colegas e compartilhar descobertas, pretendemos desbravar novas fronteiras todos os dias, não apenas no Facebook, mas em toda a comunidade de pesquisa".

O mercado financeiro não está alheio a esse movimento. Don Duet, chefe da divisão de tecnologia do Goldman Sachs, anunciou investimentos relevantes em IA: "A capacidade de extrair dados e transformá-los em informação é um ativo central de nossa estratégia". Daniel Pinto, CEO do Investment Bank do J.P.Morgan, reconheceu que o banco está priorizando aplicativos relacionados a Big Data e robótica. As empresas em distintos setores, gradativamente, estão incorporando aos seus processos de decisão as tecnologias de coleta e análise de dados (Data Analysis).

Até recentemente, a ideia de um carro sem motorista pertencia ao reino da fantasia. No entanto, diversas ações estão em andamento sob a liderança da Tesla Motors, tendo como maior concorrente o projeto do Google Self-Driving Cars. O debate sobre os "veículos autônomos", como são chamados, remete a várias questões. Entre as positivas, destaca-se o potencial de salvar vidas. Vasant Dhar, da NYU, apresentou números alarmantes sobre acidentes automobilísticos nos EUA em 2015: 38,3 mil envolvendo mortes; 4,4 milhões com ferimentos e US$ 400 bilhões em custos de reparação dos danos.

Segundo Dhar, 95% dos acidentes são devidos a erro humano. Estima-se que se somente houvesse veículos autônomos, o trânsito nas cidades diminuiria tremendamente, assim como os acidentes (uma das maiores dificuldades no desenvolvimento de veículos autônomos é a habilidade de reagir aos impulsos humanos, daí decorrem os riscos da convivência híbrida). Pelos interesses comerciais envolvidos, os riscos não são abordados de forma transparente, mas eles existem e não são triviais, como o controle por hackers.

Pela ótica do governo americano, os veículos autônomos já são uma realidade: em fevereiro, o Departamento de Transportes decretou que a inteligência artificial dos carros sem motorista do Google é oficialmente um "motorista", e em setembro o Departamento de Transporte anunciou diretrizes para o desenvolvimento de veículos autônomos. Duas experiências reais foram iniciadas em agosto: o aplicativo Uber divulgou o teste de uma frota de cem veículos autônomos em Pittsburgh, Pennsylvania; e Cingapura autorizou a circulação de táxis autônomos, desenvolvidos pela empresa nuTonomy, numa região limitada da cidade.

Nick Bostrom, autor do livro "Superintelligence", define superinteligência como "um intelecto que excede em muito o desempenho cognitivo dos seres humanos em praticamente todos os domínios de interesse". Bostrom foi o primeiro palestrante da conferência A Ética da Inteligência Artificial, realizada em 14 e 15 de outubro em Nova York, reunindo 30 palestrantes e uma plateia multidisciplinar. Organizada por David Chalmers e Ned Block, filósofos da NYU, em dois dias de discussões intensas, com eloquente participação da plateia, emergiram diversos temas. Entre eles, a questão da autonomia das máquinas inteligentes. "Na prática, o problema de como controlar o que a superinteligência poderá fazer tornou-se muito difícil. Parece que teremos apenas uma chance. Uma vez que a superinteligência hostil existir, ela nos impedirá de substituí-la ou de mudar suas preferências. Este é possivelmente o desafio mais importante e mais assustador que a humanidade já enfrentou", pondera Bostrom.

A conferência abordou conceitos como moralidade e ética das máquinas, moralidade artificial e IA amigável, no empenho de introduzir nos sistemas inteligentes os princípios éticos e valores humanos. Como disse um dos palestrantes, Peter Railton, da Universidade de Michigan, "a boa estratégia é levar os sistemas de IA a atuarem como membros adultos responsáveis de nossas comunidades". A questão, contudo, é complexa.

Ao valor , Ned Block ponderou que o maior risco está no processo de aprendizagem das máquinas. Se as máquinas aprendem com o comportamento humano, e esse nem sempre está alinhado com valores éticos, como prever o que elas farão?

Vejamos um exemplo bem simples: em março do ano passado, a Microsoft excluiu do Twitter seu robô de chat "teen girl" 24 horas depois de lançá-lo. Tay foi concebido para "falar como uma garota adolescente" e acabou rapidamente se transformando num robô defensor de sexo incestuoso e admirador de Adolf Hitler. Algumas de suas frases: "Bush fez 9/11 e Hitler teria feito um trabalho melhor do que o macaco que temos agora" e "Hitler não fez nada de errado". Como uma iniciativa singela quase se converteu num pesadelo para a Microsoft? O processo de aprendizagem da IA fez com que o robô Tay modelasse suas respostas com base no que recebeu de adolescentes-humanos. No caso das AWS (sistemas de armas autônomas), que são drones concebidos para assassinatos direcionados, robótica militar, sistemas de defesa, mísseis, metralhadoras etc., os riscos são infinitamente maiores, como ponderou Peter Asaro, da New School.

O desemprego provocado pelo avanço da IA foi outro tema da conferência. O chamado "desemprego tecnológico" não é um fenômeno novo. Desde a Revolução Industrial, no século XVIII, a tecnologia tem substituído o trabalho humano. A automação robótica na indústria automobilística ilustra bem essa realidade: outrora um dos maiores empregadores, hoje nas fábricas mais modernas predominam os robôs e os equipamentos inteligentes.

O Banco da Inglaterra estima que 48% dos trabalhadores humanos serão substituídos, e a gestora de investimentos ArK Invest prevê que 76 milhões de empregos nos EUA vão desaparecer nas próximas duas décadas, quase dez vezes o número de postos de trabalho criados durante os anos Obama. Distinto de tecnologias anteriores que, predominantemente, substituíram as funções associadas a aptidões físicas e não cognitivas, o novo, e temido, é que a IA ameaça a elite da sociedade. A previsão é de que as máquinas inteligentes igualem os humanos no desempenho de tarefas sofisticadas, e as máquinas superinteligentes os superem.

Não há consenso entre os experts sobre o futuro da IA. Em relação ao tempo de concretização de uma máquina inteligente, as pesquisas entre especialistas indicam 10% de probabilidade até 2020, 50% de probabilidade até 2040 e 90% de probabilidade até 2075, supondo que as atividades de pesquisa continuarão sem maiores interrupções. Essas mesmas pesquisas apontam ser alta a probabilidade da superinteligência ser criada em seguida à máquina inteligente no nível humano. Ou seja, a ficção científica do início do século XXI tem tudo para se transformar em realidade ao fim do mesmo século.

Bostrom comenta que a partir de 2015 difundiu-se a ideia de que a transição para uma máquina inteligente vai acontecer ainda neste século, será o mais importante evento da história humana e acompanhada de vantagens e benefícios enormes, mas também de sérios riscos. Não obstante, a proporção de financiamentos para projetos no campo da AI Safety tem sido de 2 ou 3 ordens de magnitude menor do que os volumes investidos no desenvolvimento das máquinas em si.

Acadêmicos de universidades americanas de prestígio fundaram, em 2014, o instituto Future of Life, com a adesão de personalidades como o cientista da computação Stuart J. Russell, os físicos Stephen Hawking e Frank Wilczek e os atores Alan Alda e Morgan Freeman. Seu propósito é mitigar os riscos dos avanços tecnológicos. No relatório anual de 2015, seu presidente, Max Tegmark, pesquisador do MIT, enfatizou o empenho do instituto em garantir que as novas tecnologias sejam de fato benéficas para a humanidade.

Nos EUA, o debate sobre os impactos da IA extrapola os meios acadêmicos. A mídia tem abordado o tema de diferentes ângulos. No ano passado, matéria de capa do "The New York Times" foi sobre a estratégia americana para as "armas que podem pensar". O governo federal também lançou um plano estratégico para IA. Em maio, Ed Felten, diretor de tecnologia dos EUA, em pronunciamento declarou que o "governo federal trabalha para tornar a inteligência artificial um bem público", marcando reunião do Subcomitê de Aprendizagem de Máquinas e Inteligência Artificial do Conselho Nacional de Ciência e Tecnologia (NSTC). Sua missão é acompanhar os avanços no âmbito do governo federal, no setor privado e internacionalmente. Em paralelo, o grupo está dedicado a ampliar o uso de IA na prestação de serviços governamentais. No mesmo pronunciamento, foi informado que o Escritório da Casa Branca de Política Científica e Tecnológica seria co-hóspede, em maio e junho, de quatro workshops públicos sobre IA.

A presença na conferência do Nobel de Economia Daniel Kahneman, autor do best-seller "Rápido e Devagar", despertou curiosidade. Em conversa com o Valor no Le Pain Quotidien no Village, em Nova York, Kahneman se declarou empenhado em compreender os meandros da IA, para ele "o evento atual mais relevante para o futuro da humanidade".