valor

Dora Kaufman: A ética e a inteligência artificial

O clássico da literatura do século XIX "Crime e Castigo", de Fiódor Dostoiévski, relata as angústias do estudante Raskólnikov após cometer um assassinato. No curso das investigações, um artigo de sua autoria publicado na juventude aguça as suspeita do juiz Porfírio Petróvitch. Nele, Raskólnikov divide os indivíduos em ordinários e extraordinários e, na interpretação do juiz, concede aos últimos o direito de infringir a lei precisamente porque são extraordinários. Debatendo-se entre a convicção de ter livrado o mundo de uma velha agiota, e o sentimento de culpa pela dificuldade de sustentar seu ato, Raskólnikov acaba sendo indulgente consigo.

Um drone militar americano, em 2011, eliminou, por comportamento suspeito, um grupo de homens em Datta Khel, Paquistão, que estavam em assembleia para resolver um conflito local; o Google, em 2017, está sendo processado na Inglaterra em uma ação coletiva por coletar dados de 5,4 milhões de usuários de iPhone, teoricamente protegidos por políticas de privacidade.

Em comum, ambos têm os algoritmos de inteligência artificial (IA) que, diferentemente do personagem de Dostoiévski, não se debatem em conflitos éticos.

O tema da ética permeia a sociedade humana desde Aristóteles e foi mudando de sentido ao longo da história resguardando, contudo, a crença de que apenas o humano é dotado da capacidade de, como sugere o bioeticista Larry Churchill, "pensar criticamente sobre os valores morais e dirigir nossas ações em termos de tais valores".

O filósofo sueco Nick Bostrom, no artigo "The Ethics of Artificial Intelligence" (2011), recusa conceder aos atuais sistemas de inteligência artificial, ainda restritos à uma tarefa concreta, o status moral: "Podemos alterar, copiar, encerrar, apagar ou utilizar programas de computador tanto quanto nos agradar [...] As restrições morais a que estamos sujeitos em nossas relações com os sistemas contemporâneos de IA são todas baseadas em nossas responsabilidades para com os outros seres".

A prerrogativa de controle pelo humano, contudo, pode se alterar em breve: pergunta dirigida a especialistas em IA sobre quando a inteligência da máquina alcançará o nível humano mostrou 10% de probabilidade em 2022, 50% de probabilidade até 2040 e 90% de probabilidade até 2075 (resultado agregado de quatro pesquisas).

Independentemente do fato se a superinteligência, com o advento da singularidade, ocorrerá ainda no século XXI, a acelerada disseminação em larga escala do uso da inteligência artificial evidencia a premência do debate.

Pesquisadores da Universidade Stanford, em meados do ano, tornaram público um algoritmo de inteligência artificial, o Gaydar, que, com base nas fotografias dos sites de namoro, identifica os homossexuais. A motivação inicial era protegê-los, contudo, a iniciativa foi vista como potencial ameaça à privacidade e segurança, desencadeando inúmeros protestos.

O estudo que originou o Gaydar foi previamente aprovado pelo Conselho de Avaliação de Stanford, com base no Conselho de Avaliação Institucional (Institutional Review Board - IRB), comitê de ética independente que norteia os conselhos dos centros de pesquisa e universidades americanas.

A questão é que as regras foram fixadas há 40 anos! "A grande e vasta maioria do que chamamos de pesquisa de 'grandes dados' não é abrangida pela regulamentação federal", diz Jacob Metcalf do Data & Society, instituto de NY dedicado aos impactos sociais e culturais do desenvolvimento tecnológico centrado em dados.

Um sistema chamado Compas (Correctional Offender Management Profiling for Alternative Sanctions), no Estado de Wisconsin, e similares em outros Estados americanos, baseado em algoritmos, determinam o grau de periculosidade de criminosos e consequentemente a pena do condenado. A intenção, segundo seus defensores, é tornar as decisões judiciais menos subjetivas. A metodologia de avaliação, criada por uma empresa privada comercial, vem sendo fortemente contestada.

No livro "A Teoria do Drone", Grégoire Chamayou alerta para os drones militares que, inicialmente concebidos como dispositivos de informação, vigilância e reconhecimento, transformaram-se em armas letais. Com base em modelos matemáticos (algoritmos) semelhantes aos utilizados para mapear e analisar as movimentações nas redes sociais na Internet (Facebook, por exemplo), os drones militares traçam conexões entre "suspeitos" e determinam sua consequente eliminação.

"É preciso uma discussão sobre os limites que devem se aplicar a essas máquinas; também é preciso decidir quem se responsabiliza no caso de um erro ou de uma falha", alerta Chamayou. Em 2015, na Conferência Internacional de Inteligência Artificial em Buenos Aires, mais de mil cientistas e especialistas assinaram uma carta aberta contra o desenvolvimento de robôs militares autônomos, dentre outros o físico Stephen Hawking, o empreendedor Elon Musk, e o cofundador da Apple Steve Wosniak. Na edição de 2017 da mesma Conferência, dessa vez em Melbourne, Austrália, nova carta foi lançada com o apoio de 116 líderes em IA e robótica solicitando a ONU que vete o uso de armas autônomas, tendo a frente Elon Musk e Mustafa Suleyman, fundador da empresa inglesa Deep Mind adquirida pelo Google.

Essas questões são importantes, mas não fazem parte do nosso dia a dia. Ledo engano, os algoritmos de inteligência artificial estão interferindo em um conjunto amplo de atividades, em geral sem transparência. Ou seja, desconhecemos os critérios de avaliação em situações cotidianas tais como contratação de empréstimo bancário e seleção para vagas de emprego.

Weapons of Math Destruction

Cathy O'Neil, matemática americana e autora do best-seller  "Weapons of Math Destruction", alerta que muitos desses modelos que administram nossas vidas codificam o preconceito humano: "Como os deuses, esses modelos matemáticos são opacos, invisíveis para todos, exceto os sacerdotes mais altos em seu domínio: matemáticos e cientistas da computação".

O'Neil adverte que as áreas de recursos humanos das empresas estão cada vez mais usando pontuações de crédito para avaliar candidatos em processos de contratação, supondo que o mau crédito se correlaciona com o mau desempenho no trabalho, implicando numa espiral descendente (aqueles que tem dificuldade em honrar seus empréstimos tem dificuldade de realocação profissional).

Em paralelo, os departamentos de RH igualmente acessam o histórico médico dos candidatos. Como o RH acessa os dados dos candidatos? Por meio de um cada vez mais unificado Banco de Dados (Big Data), cujos dados são captados e manipulados pelos algoritmos de Inteligência Artificial. "Bem-vindo ao lado escuro de Big Data" ironiza O'Neil.

No evento Sustainable Brands, em São Paulo, David O'Keefe da Telefonica, controladora da Vivo, apresentou produtos derivados dos dados captados das linhas móveis (Mobile Phone Data). Com o título "usando dados comuns globais e aprendizado de máquina para fornecer informações de relacionamento digital em multinacionais", O'Keefe descreveu o "produto" em que, por meio dos dados dos celulares dos funcionários de uma empresa multinacional (quem ligou para quem, com que frequência, quanto tempo durou a ligação etc.) é possível identificar as redes informais internas, importante elemento nas estratégias de gestão.

Essas redes, mais do que as formais, definidas nos organogramas, indicam as conexões de influência e de poder nas empresas (além do tempo que cada funcionário "gasta" ao celular com assuntos externos ao trabalho). Parece ficção científica, mas é realidade e supera de longe as previsões de George Orwell no livro "1984", publicado em 1949, vários anos antes do termo inteligência artificial ter sido cunhado.

A IA está presente no nosso dia a dia, pelo menos de uma parte da população que tem acesso a internet e a dispositivos digitais. Nos algoritmos de busca do Google, na recomendação de filmes e música do Netflix e Spotify, na recomendação de "amigos" do Facebook e LinkedIn, no aplicativo Waze, nos assistentes pessoais (Siri, Cortana, Alexa, Google Now), nos videogames, na identificação de fotos nas redes sociais, nos sistemas de vigilância e segurança, e mais em um enorme conjunto de benefícios que, efetivamente, têm o potencial de facilitar a vida do século XXI.

O marketing e a propaganda usam os algoritmos de IA para identificar os hábitos e preferências dos consumidores e produzir campanhas mais assertivas e segmentadas. O mesmo ocorre com as áreas comerciais, por exemplo, no setor imobiliário: os algoritmos permitem identificar se você foi designado para uma função em outra cidade e/ou contratado por uma empresa com escritório em outra cidade, acessar os locais e os tipo de moradia que você vem pesquisando na Internet, qual o tamanho de sua família etc. com isso aumenta a chance de ofertas de imóveis apropriados.

O varejo físico investe pesado em IA, incorporando as "vantagens" do varejo on-line por meio de dispositivos que permitem identificar por onde o cliente circulou nas lojas, por onde "navegou" seu olhar nas prateleiras, por quantas vezes e por quanto tempo. São os algoritmos de IA que transformam em informação útil essa imensidão de dados gerados pelas movimentações on-line.

Constatar que os algoritmos de IA permeiam cada vez mais os processos decisórios, em geral, provoca fortes reações de indignação. Não há como negar que são reações legítimas, devemos, sim, nos preocupar com a não transparência, com a invasão de privacidade, com a arbitrariedade. Por outro lado, é difícil sustentar o contra-argumento de que os humanos tem sensibilidade e discernimento e, consequentemente, estão mais propensos a agir com ética: não é raro os gestores de RH excluírem candidatos por preconceito. É razoável supor que, mesmo os piores modelos matemáticos, são menos propensos a cometer injustiças do que os humanos no desempenho das mesmas funções.

Harvard Business Review

Erik Brynjolfsson e Andrew McAfee admitem que existem riscos, mas, em recente artigo na "Harvard Business Review", alertam que "embora todos os riscos da IA sejam muito reais, o padrão de referência adequado não é a perfeição, mas sim a melhor alternativa possível. Afinal, nós humanos temos viesse, cometemos erros e temos problemas para explicar, de fato, como chegamos a determinada decisão".

Por outra linha de raciocínio, pode-se argumentar que esses modelos são simples referências no processo de tomada de decisão. Ou ainda, que no estágio atual, em que as máquinas ainda dependem da supervisão humana, cabe a ele alimentar às máquinas com os parâmetros, ou seja, a responsabilidade sobre o processo.

Como defende Cathy O'Neil, "nossos próprios valores e desejos influenciam nossas escolhas, os dados que escolhemos para coletar as perguntas que solicitamos. Os modelos são opiniões incorporadas em matemática". O'Neil propõe começar a regular os modelos matemáticos pelos seus "modeladores", criando um "código de ética" similar à área de saúde.

Se o campo da inteligência artificial remonta a 1956, quando John McCarthy cunhou o termo, por que a questão ética está na pauta em 2017?

A razão é o recente avanço da IA. Em 1959, Arthur Lee Samuel inaugurou um subcampo da IA com o objetivo de prover os computadores da capacidade de aprender sem serem programados, denominado por ele de Machine Learning (ML). A técnica não ensina as máquinas a, por exemplo, jogar um jogo, mas ensina como aprender a jogar um jogo utilizando técnicas baseadas em princípios lógicos e matemáticos.

O processo é distinto da tradicional "programação", a máquina aprende com exemplos. Na década de 1980,  inspirados no cérebro humano, cientistas da computação expandiram o subcampo da ML, propondo um processo de aprendizado com base em redes neurais, com resultados mais concretos nesta década, por conta de três fatores: um maior poder computacional, a crescente disponibilidade de grande quantidade de dados, e o progresso dos algoritmos.

Denominado em inglês de Deep Learning (aprendizado profundo), o foco são problemas solucionáveis de natureza prática, relacionado a uma tarefa concreta. O treinamento de uma rede neuronal artificial consiste em mostrar exemplos e ajustar gradualmente os parâmetros da rede até obter os resultados requeridos (tentativa e erro).

A rede geralmente tem entre 10-30 camadas empilhadas de neurônios artificiais. Num reconhecimento de imagem, por exemplo, a primeira camada procura bordas ou cantos; as camadas intermediárias interpretam as características básicas para procurar formas ou componentes gerais; e as últimas camadas envolvem interpretações completas.

Na identificação de fotos nas redes sociais, a máquina percebe padrões e "aprende" a identificar rostos, tal como alguém que olha o álbum de fotos de uma família desconhecida e, depois de uma série de fotos, reconhece o fotografado. O reconhecimento de voz, que junto com a visão computacional está entre as aplicações mais bem-sucedidas, já permite a comunicação entre humanos e máquinas, mesmo que ainda precária (Siri, Alexa, Google Now). Na cognição, onde estão os sistemas de resolução de problemas, ocorreram igualmente importantes avanços.

A relativa autonomia conquistada pelas máquinas, quando não mais seguem processos de decisão pré-programados pelos humanos e começam a aprender por si mesmas, coloca para a sociedade novas questões éticas e a urgência de estabelecer arcabouços legais e regulatórios.

As conhecidas "Três Leis da Robótica" de Asimov, propostas há mais de 50 anos, citadas frequentemente como referência ética para a IA, não se sustentam no estágio atual: as tecnologias inteligentes não estão relacionadas apenas a robótica -- pelo contrário, estão em todos os campos de conhecimento e suas aplicações práticas --, nem essas máquinas inteligentes estão subordinadas diretamente às "ordens que lhe são dadas por seres humanos".

Gerd Leonhard defende, no livro "Technology vs Humanity", a formação de um conselho global de ética digital para tratar da inteligência artificial, duvidando da capacidade das máquinas de compreender e assimilar algum tipo de ética, pelo menos no estágio de desenvolvimento atual da IA.

Para ele, nenhuma IA será verdadeiramente inteligente sem algum tipo de módulo de governança ética, pré-requisito para limitar a probabilidade de falhas. É pertinente, contudo, a indagação do filósofo americano Ned Block "se as máquinas aprendem com o comportamento humano, e esse nem sempre está alinhado com valores éticos, como prever o que elas farão?".

No início de 2016, exemplo frequentemente citado, a Microsoft lançou um robô de chat (chatbot) "teen girl", o Tay, para se relacionar com garotas adolescentes; em menos de 24 horas a empresa exclui-o do Twitter: o Tay transformou-se rapidamente num robô defensor de sexo incestuoso e admirador de Adolf Hitler. O processo de aprendizagem da IA fez com que o robô Tay modelasse suas respostas com base nos diálogos de adolescentes.

Várias questões afloram, desde a mais básica -- como incorporar a ética humana às tecnologias de IA, se são valores humanos às vezes ambíguos ou não verbalizados mesmo entre os próprios humanos? --, até se faz sentido investir no desenvolvimento de uma inteligência que no futuro não terá controle humano, com riscos e ameaças imponderáveis.

Não seria mais prudente para a sobrevivência da humanidade evitar essa tendência abdicando de seus potenciais benefícios?

Future of Life

A verdade é que existem muito mais perguntas do que respostas. Tentando enfrentar essas e outras questões, proliferam iniciativas de pesquisadores, corporações, governos. Acadêmicos americanos fundaram, em 2014, o instituto Future of Life, com a adesão de personalidades como o cientista da computação Stuart J. Russell, os físicos Stephen Hawking e Frank Wilczek e os atores Alan Alda e Morgan Freeman. Em outubro, a DeepMind da Google anunciou a criação do grupo DeepMinds Ethics & Society (DMES) dedicado a estudar os impactos da IA na sociedade.

Liderado por Verity Harding e Sean Legassick, o grupo será formado por 25 pesquisadores com dedicação exclusiva. Emergem igualmente iniciativas com foco específico: o Media Lab do Massachusetts Institute of Technology (MIT) está desenvolvendo um sistema para permitir que o usuário controle seu próprio feed de notícias do Facebook, e não os algoritmos; professores da Harvard Law School estão trabalhando em maneiras de eliminar o "viés injusto" dos algoritmos.

Ambas iniciativas estão sob o guarda-chuva de um fundo de pesquisa de US$ 27 milhões (Ethics and Governance of Artificial Intelligence Fund), criado pelo cofundador do LinkedIn, Reid Hoffman, e outros investidores, e administrado pelo MIT Media Lab e pelo Centro Berkman Klein de Harvard.

Os governos da Europa e dos EUA estão engajados na regulamentação da IA. No início do ano, um relatório do Parlamento Europeu sobre robótica e inteligência artificial versou sobre responsabilidade civil, ética, impacto sobre mercado de trabalho, segurança e privacidade.

Os eurodeputados defendem dotar os robôs autônomos de "personalidade eletrônica", ou seja, aptos a arcar com a responsabilidade de seus atos. Outras ideias em debate são a criação de um código de conduta ética para engenheiros de robótica, e a agência europeia para a robótica e IA. Dois obstáculos comprometem os resultados: o relativo baixo conhecimento sobre os meandros da Inteligência Artificial dos legisladores, e a velocidade com que a IA vem avançando. Se ainda não há consenso regulatório sobre globalização -- mercado financeiro, internet, e vários outros assuntos mais conhecidos e antigos, o que esperar sobre IA!

O desafio não é simples nem trivial, e a tendência é tornar-se mais complexo com o advento, em algum momento do século XXI, da superinteligência, definida por Nick Bostrom como "um intelecto que excede em muito o desempenho cognitivo dos seres humanos em praticamente todos os domínios de interesse". Ou seja, máquinas autônomas.

 


Herança maldita: 41 estatais criadas nos governos Dilma e Lula acumulam rombo de R$ 8 bilhões, diz instituto

Estudo realizado pelo ITV (Instituto Teotônio Vilela) e divulgado nesta segunda-feira pelo jornal Valor Econômico aponta que 41 estatais criadas nos últimos 13 anos nos governos do ex-presidente Luiz Inácio Lula da Silva e da presidente afastada Dilma Rousseff acumulam um rombo de R$ 8 bilhões. No período, o governo do PT colocou em funcionamento 43 empresas controladas pelo Estado, mas duas existiram apenas por alguns meses.

De acordo com o levantamento, as 41 estatais ativas – de vão de fábrica de semicondutores à produção de medicamentos derivados do sangue – consumiram R$ 5,5 bilhões com a folha de pagamento entre 2003 e 2015.

A Petroquímica Suape e a PBio (Petrobras Biocombustíveis) – subsidiárias da Petrobras produtora de etanol e biodiesel, respectivamente – estão no topo da lista das empresas estatais mais deficitárias. As duas companhias apresentaram, segundo o estudo, um rombo de R$ 5,1 bilhões nos últimos sete anos.

“Os dados constituem uma prova irrefutável da falácia do discurso petista. Passaram a vida toda defendendo o patrimônio público e destruíram as estatais”, disse ao Valor o presidente do ITV, senador José Aníbal (PSDB-SP).

Segundo o jornal, “o estudo do ITV, elaborado pelos pesquisadores André Lacerda e Murilo Medeiros, indica que apenas nos 21 anos de ditadura militar houve mais intensidade na criação de estatais. Foram 47 no período entre 1964 e 1985”. Desde 2003, o governo do PT criou 43 empresas controladas pelo Estado. Duas delas tiveram apenas alguns meses de vida, mas 41 continuam ativas.

A reportagem mostra ainda que “além de expandir a atuação da Petrobras, com novas subsidiárias altamente deficitárias em países como a Tanzânia, os governos Lula e Dilma apostaram fortemente na montagem de estruturas que buscavam centralizar o planejamento e a administração”.


Fonte: pps.org.br


Cristiano Romero: Uma oportunidade para o Estado encolher

Uma das contrapartidas dos Estados na renegociação de suas dívidas com a União será a privatização de empresas estatais. O governo do Estado do Rio de Janeiro, por exemplo, concordou em privatizar a Companhia Estadual de Águas e Esgotos (Cedae). Goiás, por sua vez, aceitou vender a Celg, a distribuidora de energia do Estado.

O processo de venda das estatais estaduais será conduzido pelo Banco Nacional de Desenvolvimento Econômico e Social (BNDES), uma exigência do governo federal. O banco, como se sabe, tem expertise no assunto, tendo sido responsável pelas privatizações realizadas nos governos Collor (1990-1992), Itamar Franco (1992-1994) e Fernando Henrique Cardoso (1995-2002).

“O BNDES já está trabalhando intensamente nisso [na privatização da Cedae]”, informou ao titular desta coluna o ministro da Fazenda, Henrique Meirelles. “Os governadores concordaram que o BNDES seja o coordenador do processo”, revelou, conforme antecipou ontem o Valor PRO, o serviço de informações em tempo real do Valor.
União negocia com todos os Estados a venda de estatais

A equipe econômica está negociando com todos os Estados a venda de empresas estatais. A privatização é parte do esforço para melhorar a situação fiscal do setor público, principal vulnerabilidade da economia brasileira neste momento. A medida tem um efeito colateral importante: com a desestatização, a tendência dos setores onde as estatais atuam é ter mais eficiência. Privatizar é, também, uma forma de reduzir drasticamente os incentivos à corrupção.

Na renegociação anterior das dívidas estaduais, em 1997, adotou-se o mesmo compromisso, muitas empresas foram vendidas, mas ainda existe um bom par delas em vários Estados. A severa crise fiscal é uma oportunidade histórica para o Estado brasileiro desistir de vez de sua atuação empresarial, passando a concentrar-se em atividades típicas de sua atuação, como educação, saúde e segurança.

O governo fluminense, na gestão de Marcello Alencar (1995-1998), tentou privatizar a Cedae, mas esbarrou em questões regulatórias – a disputa entre Estados e municípios quanto à competência sobre os serviços de saneamento básico -, na resistência de grupos políticos e no corporativismo dos funcionários. No ano passado, o tema veio à baila na Assembleia Legislativa.

Além do compromisso com a venda de ativos, os Estados concordaram com sua inclusão na proposta de emenda constitucional que limita a correção das despesas públicas à inflação do ano anterior e com a não concessão, por 24 meses, de aumentos reais aos salários do funcionalismo público. O ministro Henrique Meirelles explica que a Constituição assegura aos servidores a reposição do poder de compra (isto é, a inflação), mas alguns governadores entendem que é possível dar reajustes abaixo da variação da inflação.

“Não podemos impedir o que está previsto na Constituição, mas o fato é que, com essa regra, o crescimento real (acima da inflação) dessa despesa será zero. Muitos Estados vinham concedendo reajustes muito acima da inflação”, contou Meirelles.

Considerando-se apenas oito Estados (SP, RJ, MG, RS, SC, PR, BA e GO), o Distrito Federal e a prefeitura de São Paulo, a despesa com pessoal e encargos saltou de 3,7% para 5,2% do PIB entre 2008 e 2015. O investimento desses entes caiu, no mesmo período, de 0,8% para 0,5% do PIB. A despesa corrente (o gasto com educação e saúde, por exemplo) teve que encolher: de 4,7% para 3,8% do PIB.

Um aspecto muito importante da reunião dos governadores com a equipe econômica foi a concordância quanto à necessidade de adesão de todos os Estados à renegociação, mesmo daqueles que estão situação razoável, como o Espírito Santo. “Coloquei na reunião que ou fechávamos um acordo com todos ou não seria possível fazer apenas com alguns. Todos entenderam que era importante resolver a questão não só das dívidas, mas também da questão fiscal dos Estados”, revelou o ministro.

A adoção do teto de evolução das despesas é crucial porque, de 1997 a 2015, observa Meirelles, as despesas da União cresceram 6% ao ano em termos reais. Tomando-se o período em que os governos Lula e Dilma decidiram adotar a chamada “Nova Matriz Econômica” – de 2008 a 2015 -, o gasto avançou 14,5% acima da inflação acumulada. No mesmo período, a despesa total saltou 51% em termos reais, forçando o Tesouro Nacional a elevar a dívida pública em R$ 2,2 trilhões.

“Aprovada a emenda constitucional que fixa o teto, no ano que vem teremos zero de crescimento real”, previu Meirelles. De 2004 a 2015, a despesa primária (que não inclui os juros da dívida) do governo central saltou de 15,6% para 19,5% do PIB. O governo espera, com o teto, diminuí-la em dois pontos percentuais do PIB em três anos.

O ministro da Fazenda confirmou que, em 2017, o setor público consolidado (União, Estados e municípios) deve apresentar um novo déficit primário. Acredita, porém, que o saldo negativo vai baixar ao longo do tempo. O cálculo é o seguinte: Meirelles aposta que, à medida que as iniciativas na área fiscal comecem a ser aprovadas e implementadas, o setor produtivo voltará a confiar na política econômica, o que ajudará a destravar as decisões de investimento, impulsionando a atividade econômica. A retomada do PIB, por seu turno, aumentará a arrecadação, auxiliando o ajuste fiscal.

Talvez, muitos ainda não tenham se dado conta, mas a imposição de um teto para as despesas acabará por tornar realistas os orçamentos públicos. Diante do teto, caberá aos governantes, em negociação com o Congresso e as assembleias legislativas, estabelecer as prioridades do gasto público. Hoje, pode tudo e o resultado é inflação, carga tributária e dívida pública crescentes, asfixia do setor privado e por conseguinte dos investimentos, baixo crescimento e baixa qualidade dos serviços públicos. (Valor Econômico – 22/06/2016)


Cristiano Romero é editor-executivo e escreve às quartas-feiras
E-mail: cristiano.romero@valor.com.br

Fonte: pps.org.br