Site *desinformante repercute o potencial do Brasil para IA em entrevista com o prof. Virgilio Almeida

No final de 2023, o professor do Departamento de Ciência da Computação da UFMG, Virgílio Almeida, concedeu entrevista ao site *desinformante – informação confiável sobre desinformação, para a série #panorama2024, onde o pesquisador apontou a necessidade de envolvimento do governo no debate sobre automação e na criação de políticas públicas que garantam a valorização do trabalho humano. Veja abaixo a matéria completa:

Potencial do Brasil para IA está na qualidade dos dados oficiais

POR NINA SANTOS E MATHEUS SOARES

Diverso e com dimensões continentais, o Brasil dispõe de uma grande massa de dados qualificados que não deve ser entregue sem contrapartida aos países que lideram o desenvolvimento da Inteligência Artificial. A análise é de Virgílio de Almeida, professor emérito do Departamento de Ciência da Computação da UFMG, professor associado ao Berkman Klein Center, na Universidade de Harvard e membro da Academia de Ciências para o Mundo em Desenvolvimento (TWAS). Entrevistado para a série #panorama2024 do *desinformante, o pesquisador apontou a necessidade de envolvimento do governo no debate sobre automação e na criação de políticas públicas que garantam a valorização do trabalho humano.

Nina Santos: A gente fala muito sobre processos de automação, sobre como as máquinas podem tomar o lugar dos humanos, ou tomar decisões pelos humanos, mas sabemos que também tem um componente muito grande do fator humano dentro do que se chama de inteligência artificial. Seria interessante começar falando um pouco sobre os dois lados da moeda – ou quem sabe o mesmo lado integrado dessa mesma moeda.

Virgílio Almeida: Eu tenho trabalhado com a questão da inteligência artificial e mais ainda com o aspecto das possibilidades de políticas públicas e da análise dos seus impactos. Acho que o primeiro ponto a considerar é que as tecnologias de inteligência artificial, e aí nós estamos falando de algoritmos, são desenvolvidas fora do Brasil. Nós estamos longe desse desenvolvimento. É um desenvolvimento externo feito por poucas empresas, que têm recursos humanos, cientistas, engenheiros muito qualificados nisso, e uma infraestrutura computacional que os países em desenvolvimento não têm, muito menos as universidades. Então a pergunta é: se tudo isso é desenvolvido lá fora, baseado na cultura dos Estados Unidos, principalmente, um pouco da Europa e um pouco da China, como os países em desenvolvimento, como o Brasil, como a África do Sul, como outros países do chamado Sul Global podem se inserir nesse contexto?

Eu acho que a gente pode tentar sumarizar quais são os aspectos que nós temos, como país, para nos preocupar. O avanço da inteligência artificial está associado a recursos humanos qualificados, que nós não temos na quantidade e na profundidade do conhecimento que é necessário. Um segundo fator: é preciso uma infraestrutura computacional muito potente para processar enormes bases de dados, algo que o Brasil também não tem; o Brasil ainda tem poucos centros com essa capacidade dos chamados supercomputadores, que é o 14 Bis e o Centro de Previsão de Tempo e Estudos Climáticos, de São José dos Campos. O terceiro ponto são os dados. Nós estamos falando de tecnologias que dependem de grandes massas de dados para operarem e gerarem resultados. Nesse particular o Brasil tem potencial, que é o fato de ser um país de mais de 200 milhões de habitantes, com uma diversidade racial e social e com instituições que têm controle sobre suas grandes bases de dados.

Vamos citar o SUS, os dados de saúde; o INEP com os dados de educação; o IBAMA e outras agências da área ambiental com dados ambientais; o IBGE, que tem dados há muitos anos consolidados, então nós temos o potencial que essas grandes empresas precisam. Como aproveitar isso? São necessárias políticas públicas que ordenem o uso desses dados brasileiros e tragam vantagens para o país, não simplesmente coloque esses dados disponíveis para empresas ou governos do exterior. Fazendo uma pequena analogia: o Brasil tem dados de saúde muito parecidos, em termos de qualidade, com os dados do National Health Service (NHS), no Reino Unido, e lá eles estão propondo políticas para controlar o acesso a esses dados, para gerar desenvolvimento no país nesse setor, com novas [aplicações] de IA na área da saúde.

Então o Brasil tem um enorme caminho de oportunidades, isso é um ponto. O segundo ponto é que o Brasil assumiu a presidência do G20. O G20 está vindo da Índia, que fez um grande avanço nas discussões da área digital e inclusive se projetou como um país em desenvolvimento, numa situação muito positiva do uso das tecnologias digitais para questões sociais e para o avanço econômico. O Brasil vai ter que se posicionar sobre as questões de IA nesse ano em que preside o G20.

A falácia da isenção

Matheus Soares: Com a explosão do Chat GPT, a gente ainda está tentando entender um pouco sobre os pontos positivos e negativos. Qual é a sua opinião sobre essas previsões positivas e negativas da chegada da IA?

Virgílio Almeida: Fomos todos surpreendidos pelo Chat GPT, que começou em novembro de 2022. Pela primeira vez você tem uma ferramenta de inteligência artificial sob o controle do usuário, fácil de usar, fácil de gerar resultados, então caiu no gosto popular e também no gosto das empresas. Mas a gente não tem ainda uma compreensão maior dos impactos do Chat GPT. Ele produz resultados às vezes com aparência de autenticidade, de correção, mas a gente tem visto, e estudos têm mostrado, que esses resultados nem sempre são baseados em fatos, nem sempre são isentos de um viés.

Só para se ter uma ideia, há poucos dias saiu numa revista americana um artigo mencionando que as cartas de recomendação para os alunos que se candidatam a outras posições, feitas por professores usando o Chat GPT, têm um viés de favorecimento masculino. Descobrir quais são as características negativas e positivas é algo em que nós precisamos investir. Para isso há as universidades. Aqui na UFMG a reitoria criou uma comissão para definir como os alunos e os professores vão usar o Chat GPT e outras ferramentas de IA generativa na vida acadêmica, na produção de exercícios, nos trabalhos de fim de curso.

Como mostrar aos alunos que eles podem usar isso se beneficiando, mas não usar para criar atalhos e métodos de responder exercícios, provas, ou fazer trabalhos sem conhecimento. Não queremos formar uma geração que tem pouco conhecimento do que faz. Então as universidades, as escolas, precisam discutir isso. O ano de 2024 deve ser um ano de mais estudos visando a compreensão dos impactos da IA na sociedade brasileira.

Substituição X empoderamento do trabalho humano

Matheus Soares: E no campo da comunicação e da informação, o que a gente pode esperar, tanto da parte de produção de conteúdo dos usuários, mas também dos jornalistas? Como você vê esse futuro?

Virgílio Almeida: A produção de conteúdos fica extremamente facilitada com os aplicativos da IA generativa. Os de textos, feito o Chat GPT, o Bard, o LlaMA, os de imagem, que estão cada vez mais rápidos. Na nova versão do Chat GPT você mostra, por exemplo, a primeira página do “New York Times” e pergunta o que está lá dentro. Ele sumariza sem dar o link, só pela fotografia. Como fica a comunicação nisso, já que os produtos gerados por essas ferramentas são muito atraentes? Você pega um texto extremamente fácil de ler, elegante, com imagem bacana, mas que muitas vezes não corresponde à realidade. Então alguns periódicos e revistas na área científica já têm regras criadas. Por exemplo, a “Science”, a “Nature”, todas elas já têm regras quanto ao uso dessas tecnologias para artigos que são submetidos. A “Science” diz que não devem ser gerados textos e desenhos porque a ferramenta de IA generativa não pode ser responsabilizada por aquele conteúdo, e o conteúdo precisa ser associado a um ser humano.

Acho que a gente vai viver e tentar aprender, nos próximos tempos, essa diferença entre a realidade e a ficção, entre o humano e aquilo que é gerado por essas ferramentas de IA, que acabam mostrando resultados que a gente pensava que eram restritos aos seres humanos. Esse debate vai atingir a questão da ampliação da automação. Quando a gente, há alguns anos, falava em automação, a imagem que vinha na cabeça é daqueles grandes braços mecânicos nas linhas de produção automobilísticas. Agora não, você tem automação atrás da tela, em dispositivos que estão instalados a um custo muito baixo. Nós precisamos ampliar essa discussão para muito além dos grupos de tecnologia. Um exemplo: a automação nos Estados Unidos tem sido criticada, principalmente por pesquisadores da área de ciências políticas e economia, porque ela tem sido usada muito mais para substituir o elemento humano do que para dar novas ferramentas, ou complementar o trabalho humano.

Então, o Brasil deveria ter políticas públicas nessa área. Vamos pegar um exemplo de grande impacto no Brasil, que são os call centers. Você tem milhões de trabalhadores em call centers, que em geral é o primeiro emprego de mulheres jovens, de 18 a 20 anos. Estima-se que exista um número bem maior do que um milhão de trabalhadores nesse emprego, então imagina qual é o impacto social se cada vez mais esses call centers simplesmente substituem o elemento humano por um Chat GPT, por um Bard? Deveria haver políticas públicas que dessem incentivos não para a substituição, mas para o empoderamento do elemento humano. O debate tem que ser mais amplo e eu acho que falta um pouco a gente ouvir essa discussão do governo.

Nina Santos: Muitas vezes o elemento técnico é apresentado como algo muito mais preciso do que o elemento humano, que seria, ele sim, suscetível a ter determinadas tendências e preferências. Você tem feito, junto com outros professores, essa relação entre técnica, política e instituições, sobre o que representa na nossa sociedade o uso de algoritmos e de inteligência artificial. Queria te ouvir um pouco sobre isso também.

Virgílio Almeida: A sociedade, no exterior e no Brasil, acha que todas as decisões de especialistas, de experts em um setor técnico, em uma área, são as mais adequadas, e a gente vê que nem sempre é assim. A gente vê o impacto disso nas questões democráticas, onde a substituição da combinação de vozes que a democracia permite por decisões técnicas tem levado a prejuízos. E aí entra a questão do algoritmo como um fator de tomada de decisão, que considera enormes massas de dados, é muito mais eficiente, muito mais rápido, mas seriam eles as entidades responsáveis por decisões mais justas, mais transparentes, por decisões que sejam mais inclusivas?

A gente tem visto inúmeros estudos que mostram que nem sempre a inclusão é parte desse processo e que esses algoritmos podem não ser justos. Eu tenho um exemplo real interessante: nos Estados Unidos tem um algoritmo de controle para transplante de rim. Quando um novo órgão torna-se disponível, este algoritmo calcula quem está na fila e mostra na primeira posição quem vai receber esse órgão. É uma decisão de vida e morte para algumas pessoas. Esse algoritmo começou a ser desenvolvido em 2007 e a ideia era maximizar o número de anos com vida que a pessoa que recebesse o rim teria. Isso prejudicava as pessoas mais velhas, né?

O algoritmo calculava um número [na fila ] com 16 posições decimais. Você imagina o seguinte: se a diferença entre João e Maria fosse na 15ª, isso seria algo técnico? Não, isso é um dilema moral, que não deve ser tomado apenas por especialistas. E aí as discussões sobre esse algoritmo começaram a ser feitas tendo como participantes representantes das famílias das pessoas que solicitaram o transplante, representantes do setor de saúde e também da área tecnológica. O algoritmo foi evoluindo nessa direção e no ano passado saiu um livro muito interessante nos Estados Unidos sobre esse tema.

Se esse algoritmo fosse um algoritmo de IA, será que essa discussão poderia ter ocorrido? Será que se entenderia por que ele tomou uma decisão X ou Y? Era um algoritmo tradicional, onde o programa todo podia ser compreensível por aqueles diferentes grupos que fizeram parte da discussão. Isso mostra a importância de a pessoa comum entender o que esses algoritmos fazem. Aliás, saiu um artigo muito interessante recentemente na “Science”, escrito pela professora Alondra Nelson, que é da área de ciências sociais do Instituto de Estudos Avançados de Princeton, e um filósofo chamado Seth Lazar, em que eles dizem que as decisões algorítmicas não devem ser discutidas apenas por especialistas de um tipo, têm que incluir uma multidisciplinaridade, com grupos multissetoriais.

Assista a entrevista completa no Youtube: https://www.youtube.com/watch?v=a834tpfjKrM&t=106s

Acesso por PERFIL

Pular para o conteúdo