A inteligência artificial tem estado na mira dos governos sobre como ela pode ser usada indevidamente para fraude, desinformação e outras atividades on-line maliciosas; agora, um órgão regulador do Reino Unido quer explorar como a IA é usada do outro lado: na luta contra o conteúdo malicioso quando envolve crianças.
O Ofcom, órgão regulador encarregado de aplicar a Lei de Segurança Online do Reino Unido, planeja lançar uma consulta sobre como a IA e outras ferramentas automatizadas são usadas atualmente e podem ser usadas no futuro para detectar e remover proativamente conteúdo ilegal on-line, especificamente para proteger as crianças de conteúdo nocivo e identificar material de abuso sexual infantil que antes era difícil de detectar.
A medida coincide com a publicação de uma pesquisa da Ofcom mostrando que os usuários mais jovens estão mais conectados do que nunca: entre as crianças de 3 ou 4 anos de idade, cerca de 84% já estão on-line; e quase um quarto das crianças de 5 a 7 anos pesquisadas já possuem seus próprios smartphones.
As ferramentas que o Ofcom está introduzindo fariam parte de um conjunto mais amplo de propostas que o órgão regulador está elaborando com foco em medidas de segurança infantil on-line. As consultas para as propostas abrangentes começarão nas próximas semanas, e a consulta sobre IA ocorrerá no final deste ano, disse o Ofcom.
Mark Bunting, diretor do Grupo de Segurança On-line do Ofcom, diz que seu interesse em IA começará com uma análise de como ela é usada como ferramenta de triagem atualmente.
“Alguns serviços já usam essas ferramentas para identificar e proteger as crianças contra esse conteúdo”, disse ele em uma entrevista ao TechCrunch. “Mas não há muitas informações sobre a precisão e a eficácia dessas ferramentas. Queremos buscar maneiras de garantir que o setor esteja avaliando (isso) quando as estiver usando, certificando-se de que os riscos à liberdade de expressão e à privacidade estejam sendo gerenciados.”
Um resultado provável será o Ofcom recomendando como e o que as plataformas devem avaliar, o que poderia levar não apenas as plataformas a adotarem ferramentas mais sofisticadas, mas também a multas se elas não conseguirem melhorar o bloqueio de conteúdo ou criar maneiras melhores de impedir que usuários mais jovens o vejam.
“Como acontece com muitas regulamentações de segurança on-line, a responsabilidade recai sobre as empresas para garantir que elas tomem as medidas adequadas e usem as ferramentas adequadas para proteger os usuários”, disse ele.
Haverá críticos e defensores das medidas. Os pesquisadores de IA estão descobrindo maneiras cada vez mais sofisticadas de usar a IA para detectar, por exemplo, deepfakes, bem como para verificar usuários on-line. No entanto, há também muitos céticos que observam que a detecção de IA está longe de ser infalível.
O Ofcom anunciou a consulta sobre ferramentas de IA ao mesmo tempo em que publicou sua mais recente pesquisa sobre como as crianças estão se envolvendo on-line no Reino Unido, que constatou que, em geral, há mais crianças mais jovens conectadas do que nunca, tanto que o Ofcom agora está dividindo a atividade entre faixas etárias cada vez mais jovens.
Atualmente, a tecnologia móvel é particularmente aderente e está aumentando entre as crianças. Em pesquisas com pais e alunos, que variam entre 2.000 e 3.400 entrevistados (dependendo das perguntas feitas), quase um quarto, 24%, de todas as crianças de 5 a 7 anos de idade já têm seus próprios smartphones e, quando se incluem os tablets, os números sobem para 76%.
Essa mesma faixa etária também está usando muito mais a mídia nesses dispositivos: 65% fizeram chamadas de voz e vídeo (contra 59% há apenas um ano), e metade das crianças (contra 39% há um ano) está assistindo a mídia transmitida.
As restrições de idade para alguns dos principais aplicativos de mídia social estão diminuindo, mas quaisquer que sejam os limites, no Reino Unido eles não parecem ser respeitados. Cerca de 38% das crianças de 5 a 7 anos de idade estão usando a mídia social, segundo a Ofcom. O WhatsApp da Meta, com 37%, é o aplicativo mais popular entre eles.
E, possivelmente no primeiro caso em que o principal aplicativo de imagens da Meta foi considerado menos popular do que a sensação viral do ByteDance, o TikTok foi usado por 30% das crianças de 5 a 7 anos de idade, com o Instagram com “apenas” 22%. O Discord completou a lista, mas é significativamente menos popular, com apenas 4%.
Cerca de um terço, 32%, das crianças dessa idade está on-line por conta própria, e 30% dos pais disseram que não se importam que seus filhos menores de idade tenham perfis de mídia social. O YouTube Kids continua sendo a rede mais popular para usuários mais jovens, com 48%.
Os jogos, um eterno favorito das crianças, passaram a ser usados por 41% das crianças de 5 a 7 anos, sendo que 15% das crianças dessa faixa etária jogam jogos de tiro.
Embora 76% dos pais pesquisados tenham dito que conversaram com seus filhos pequenos sobre segurança on-line, há pontos de interrogação, aponta o Ofcom, entre o que uma criança vê e o que ela pode relatar. Ao pesquisar crianças mais velhas, com idades entre 8 e 17 anos, o Ofcom as entrevistou diretamente. O Ofcom constatou que 32% das crianças relataram ter visto conteúdo preocupante on-line, mas apenas 20% dos pais disseram ter relatado algo.
Mesmo levando em conta algumas inconsistências nos relatos, “a pesquisa sugere uma desconexão entre a exposição de crianças mais velhas a conteúdo potencialmente prejudicial on-line e o que elas compartilham com os pais sobre suas experiências on-line”, escreve o Ofcom. E o conteúdo preocupante é apenas um desafio: os deepfakes também são um problema. Segundo o Ofcom, entre as crianças de 16 a 17 anos, 25% disseram que não estavam confiantes em distinguir o falso do verdadeiro on-line.