Professor do DCC/UFMG e da FGV publicam artigo no Valor Econômico

Foi publicado na última semana de novembro, no Valor Econômico, artigo dos professores do Departamento de Ciência da Computação (DCC) da UFMG, Virgílio Almeida, e da Fundação Getúlio Vargas, Francisco Gaetani, novo artigo que discute a regulação de IA. Leia o artigo na íntegra abaixo:

Uma visão realista sobre regulação de IA

Francisco Gaetani1 e Virgílio Almeida2

As crescentes incertezas do futuro abrem espaço para o país firmar uma posição sobre dois temas que crescem no cenário global, a regulação da IA e o acoplamento das tecnologias de inteligência artificial ao desenvolvimento social, econômico e militar. A vitória de Trump e a ascensão do poder político dos grandes barões da tecnologia, como Elon Musk e Jeffrey Bezos, exigirá do Brasil uma posição de protagonismo frente ao avanço da IA e do poder digital.

A falta de diretrizes claras, regulamentação e governança pode contribuir para um ambiente de investimento e inovação instável e volátil; pouco atraente a novos investimentos no país. Pode também excluir o país dos acordos geopolíticos sobre IA. Por um lado, as empresas podem se sentir limitadas por incertezas e dúvidas quanto ao impacto ético e legal de novas tecnologias de IA, devido a ausência de política para o setor. Por outro lado, não existem órgãos de governança representativos para IA e as diferentes forças políticas no congresso não se entendem para aprovar políticas de IA que sejam inclusivas, equitativas e transparentes para a sociedade. E a pergunta natural que paira no ar é, por que é tão difícil regular a IA?

No livro,  The Social Control of Technology, de 1980 o autor David Collingridge explorou os processos regulatórios das então tecnologias emergentes. Ele observou que, embora seja mais fácil regular tecnologias quando são novas — porque ainda não refletem custos consolidados e interesses estabelecidos —, a incerteza sobre seus efeitos torna difícil saber exatamente o que fazer. Em contraste, quando as tecnologias estão mais desenvolvidas e difundidas na sociedade, seus efeitos podem ser mais claros, porém os esforços para regulá-las se tornam mais difíceis. O dilema de Collingridge pode ser simplificado no seguinte: no início do uso das tecnologias emergentes, tem se poder para criar controle, mas falta clareza suficiente para agir. Mais tarde, tem-se clareza sobre o que regular, mas pouca capacidade para agir. Não seria este então o momento ideal para formular uma estrutura regulatória para IA? Afinal, uma estrutura regulatória para IA fortaleceria a posição brasileira frente a possíveis confrontos com as novas políticas dos EUA no governo Trump.

A dificuldade de regulação das plataformas de redes sociais no Brasil, como Facebook, Whatsapp e YouTube, ilustra muito bem o dilema de Collingridge. Teria sido muito mais simples regular as plataformas sociais em 2010, quando o Facebook tinha apenas 12 milhões de usuários, cujo uso e dependência dos serviços da rede eram bastante limitados. No entanto, nessa época era ainda impossível prever seus efeitos. Nas eleições de 2018 e 2022, as plataformas tiveram papel central nas disputas políticas, e consequentemente o processo de regulação ficou ainda mais difícil e acabou desaguando no arquivamento da PL 2630, conhecida como PL das Fake News. Novos problemas como desinformação e manipulação política não passaram pelo radar da sociedade no início das redes sociais e aplicativos de comunicação como Whasapp e Telegram. No fundo, o dilema de Collingridge reflete o impasse existente entre as tecnologias avançadas e a sociedade.

O momento atual requer a discussão de novas abordagens para regulação de IA e plataformas digitais. Para lidar com o dilema de Collingridge e com a velocidade da inovação digital, precisamos mudar as abordagens de governança. Isso não significa forçar as tecnologias a se desenvolverem mais lentamente ou engessar a inovação ou demandar que o executivo e legislativo produzam novas legislações a cada desenvolvimento tecnológico tido como disruptivos. Devem ser explorados novos caminhos para a regulação digital no Brasil.

A política de IA precisa de novas abordagens. Uma visão realista para a regulamentação de IA no Brasil envolve a capacidade de incorporar novas formas de um certo nível de experimentalismo em abordagens de governança, possibilitando a abertura dos processos de regulação, formulação de políticas e desenvolvimento tecnológico. Há novas abordagens em discussão em fóruns globais, em especial a idéia de governança provisória parece se aplicar bem ao caso brasileiro. A governança provisória é um paradigma regulatório que permite flexibilidade nas regras, promovendo exploração e aprendizado. Instituições que gerenciam a IA, sejam estatais ou da indústria, devem assegurar que as normas possam se ajustar a mudanças nas circunstâncias.

Na realidade, o Brasil tem feito iniciativas que se encaixam dentro desse modelo de governança provisória, através das regras estabelecidas para a última eleição. O Tribunal Superior Eleitoral (TSE) regulamentou, pela primeira vez, o uso de inteligência artificial na propaganda eleitoral para as Eleições Municipais de 2024. Em 12 novas resoluções, o TSE proibiu deepfakes, exigiu aviso sobre o uso de IA em propagandas, restringiu o uso de robôs para simular diálogos e responsabilizou as big techs por não removerem rapidamente conteúdos de desinformação, discurso de ódio e ideologias antidemocráticas.

1 Francisco Gaetani é professor da EBAPE/FGV e Secretário Extraordinário para a Transformação do Estado, do Ministério de Gestão e da Inovação em Serviços Públicos.

2 Virgilio Almeida é professor associado ao Berkman Klein Center da Universidade de Harvard, professor emérito da UFMG e ex-secretário de Política de Informática do Ministério da Ciência e Tecnologia e Inovação.

Acesso por PERFIL

Pular para o conteúdo