Pesquisa revela falhas na proteção infantil em transmissões online ao vivo

Cientistas usam robôs como personagens passivos, sem se relacionarem com outros usuários, e simulam o uso da plataforma para avaliar suas respostas. O resultado: mesmo quando a classificação etária é respeitada, adolescentes parecem estar expostos a comentários tóxicos e a outros conteúdos impróprios

Adolescentes, do Brasil e dos Estados Unidos, estão expostos a conteúdos impróprios em plataformas interativas de transmissão ao vivo, de conteúdos como jogos, entretenimento, esportes, música e outros. Essa é a principal conclusão de um estudo publicado, agora, em 2026, na revista Social Network Analysis and Mining, que investigou, por meio de simulação com robôs, ou bots, a experiência de usuários de 13, 15 de 18 anos, no Brasil e nos Estados Unidos.

Em outras palavras, mecanismos atuais de proteção etária não impedem o contato de menores com conteúdo potencialmente nocivo. E isso ocorre mesmo quando o usuário declara ter menos de 18 anos. E o nível da exposição das crianças a conteúdos inapropriados é semelhante ao observado entre usuários adultos.

A pesquisa faz parte de um estudo mais amplo, conduzido sob a orientação dos professores do Departamento de Ciência da Computação (DCC), Jussara M. Almeida, da Universidade Federal de Minas Gerais (UFMG), e Humberto Torres Marques-Neto, da Pontifícia Universidade Católica de Minas Gerais (PUC Minas). Ambos integram o Instituto Nacional de Ciência e Tecnologia em Inteligência Artificial Responsável para Linguística Computacional, Tratamento e Disseminação de Informação (INCT TILD-IAR), sediado no DCC/UFMG.

Os pesquisadores contam que o projeto nasceu como uma tese de doutorado sendo desenvolvida por Kênia Carolina Gonçalves, que integra o Laboratório de Computação Social (LOCUS), do DCC UFMG, e que atualmente está visitando o Content-Centered Computing Group (CCC), da Università di Torino, na Itália, onde dá continuidade ao trabalho.

No entanto, os resultados recentes têm atraído a participação de outros cientistas brasileiros, italianos, além de 11 bolsistas de graduação e de pós-graduação. O objetivo principal é aumentar a segurança de crianças e adolescentes em ambientes virtuais.

Para isso, eles estão desenvolvendo, inclusive, um novo método de classificar os conteúdos ao vivo. Além disso, trabalham em tecnologias baseadas em inteligência artificial responsável capazes de fazer avançar ações dinâmicas de proteção em plataformas digitais.

Nenhuma criança participou do estudo

Um ponto muito importante é ético e metodológico: nenhuma criança real participou da pesquisa. Em linguagem científica foram criadas seis personas, ou seja, seis robôs que simularam ser usuários de 13, 15 e 18 anos, no Brasil e nos Estados Unidos. E esses agentes atuavam de forma passiva. Eles assistiram às transmissões, coletavam os dados de interesse, mas não interagiram com outros usuários. Isso, tanto para proteger possíveis participantes quanto os usuários das plataformas.

Para simular uma criança norte-americana, portanto acessando uma plataforma a partir dos Estados Unidos, os pesquisadores usaram tecnologia VPN (Virtual Private Network). Essa rede virtual criptografa o tráfego de internet e mascara a localização real do usuário. Assim, os sistemas da plataforma eram levados a entender que aquele perfil estava realmente conectado a partir do país declarado. O que permitiu comparar a experiência entre países com maior controle experimental.

E assim foi por cerca de 30 dias. Os robôs acessaram a plataforma seis vezes por dia, em horários variados. Ao final, os pesquisadores analisaram 4.260 transmissões, 2.040 canais e aproximadamente 443 mil mensagens de chat. O método permitiu observar o funcionamento real dos algoritmos de recomendação e a dinâmica espontânea das interações.

Temas nocivos identificados

O estudo aplicou modelos automáticos de análise de sentimento e toxicidade. Abaixo, os principais tipos de conteúdo impróprio detectados:

Abaixo você encontra uma síntese dos principais riscos identificados pela pesquisa.

Categoria de riscoO que acontece na práticaPor que preocupa
Conteúdo inadequadoLives classificadas como “Infantil” exibem jogos adultos, violência, sangue, linguagem forte e temas sexuaisCrianças podem acessar material não apropriado
Rótulos enganosos“Family Friendly” e “Kid Safe” nem sempre refletem o conteúdo realPais e responsáveis podem confiar no rótulo e reduzir a supervisão
Publicidade disfarçadaPresença de conteúdo patrocinado e incentivos a doaçõesMistura entretenimento com consumo e influencia comportamento infantil
Toxicidade no chatInsultos, racismo, homofobia e linguagem sexualizada aparecem nas conversasCrianças entram em contato direto com agressões e discurso de ódio
Incentivo ao uso prolongadoRecompensas virtuais (drops) e metas que incentivam a permanênciaAumenta tempo de exposição a riscos e amplia dificuldade de interrupção
Recomendações automáticasAlgoritmos sugerem conteúdos semelhantes ao que já foi vistoExposição inicial pode levar a ciclo de recomendações inadequadas
Limitações da moderaçãoDependência de autodeclaração e denúnciasA escala das plataformas dificulta controle eficiente

5% parece pouco, mas não é

A análise automática indicou que cerca de 5% das mensagens continham conteúdo tóxico. Os cientistas alertam para o fato de que, à primeira vista, o percentual pode até parecer baixo. Contudo, em transmissões com milhares de comentários por hora, isso representa contato recorrente com linguagem agressiva.

Entre os conteúdos identificados estavam insultos, palavrões, discurso de ódio, homofobia, racismo, ataques direcionados a participantes e comentários sexualmente explícitos. A exposição foi semelhante para perfis infantis e adultos. Portanto, a idade declarada não alterou significativamente o ambiente ao qual o usuário foi submetido.

O dado central não é apenas a presença de jogos classificados para maiores. O estudo mostra que, mesmo quando o jogo exibido é adequado à faixa etária, o chat pode concentrar interações nocivas. “O problema, portanto, vai além da classificação indicativa tradicional. E, ainda, não é possível mensurar os efeitos do impacto desse conteúdo tóxico no desenvolvimento das crianças”, alerta Jussara Almeida.

Kênia Gonçalves, cita alguns exemplos de sinais de risco nas interações identificados em suas pesquisas: “diversos emojis, às vezes presentes em mais de 7% das mensagens, eram usados com duplo sentido, mas representam conteúdos inapropriados para o público infantil e adolescente”, alerta. Segundo ela, que também é professora da Instituto Federal de Minas Gerais (IFMG Sabará), chamadas explícitas com pedidos de ‘pix’, ‘loja/shop’ e ‘donate/merch’, reforçaram os resultados sobre os diversos tipos de riscos relacionados a transações financeiras às quais crianças e adolescentes estão expostos.

Algoritmos globais, regras diferentes

O tamanho do desafio só cresce à medida em que se compreende melhor a realidade dessa exposição. Sua solução, passa pelo desenvolvimento de fatores técnicos, mas também envolve aspectos econômicos e regulatórios. “Os protocolos de classificação desses conteúdos variam entre países. Um sistema global precisa adaptar conteúdo às legislações locais, que nem sempre convergem”, alerta Humberto Torres, da PUC Minas.

Além disso, jogos com maior grau de violência frequentemente apresentam melhor desempenho comercial, o que influencia estratégias de recomendação. Algoritmos priorizam engajamento e retenção. E o comportamento de crianças, naturalmente curiosas, é um fator preponderante nesse contexto.

Elas podem ser facilmente conduzidas por sugestões automáticas a conteúdos progressivamente mais intensos. “A classificação etária funciona dentro de sua lógica. No entanto, ela não controla a dinâmica social em tempo real nem resolve a tensão entre modelo de negócio e proteção infantil, alerta a professora Jussara, do DCC UFMG.

Diante desse volume de informações, delicadas e urgentes, a equipe já está trabalhando no desenvolvimento de mecanismos que possam ser mais eficientes para detectar padrões tóxicos com maior precisão. Em consequência disso, talvez seja possível criar filtros sensíveis à idade e ampliar a transparência das recomendações. A ideia central continua sendo reduzir a exposição de crianças e pré-adolescentes a conteúdos nocivos gerados por outros usuários, sobretudo em transmissões internacionais.

O estudo recente, portanto, conclui que os mecanismos atuais da plataforma analisada, a Twitch, conhecida internacionalmente, não impediram a exposição de menores a conteúdo potencialmente inadequado. A idade declarada pelos perfis não resultou em diferenciação efetiva na experiência observada durante as transmissões ao vivo e nas interações em chat. 

Você pode ler o artigo original, em inglês, aqui: Potential Exposure of Kids to Age-Inappropriate Content on Twitch: A Comparative Cross-Country Study. Autores: Kênia C. Gonçalves; Flávio Soriano; Jussara M. Almeida; Humberto Marques-Neto. Revista: Social Network Analysis and Mining, Janeiro de 2026.

Redação: Marcus Vinicius dos Santos – Jornalista do INCT TILD-IAR

Imagem gerada no site  www.freepik.com

Acesso por PERFIL

Acessar o conteúdo