Eduarda Ferreira
5 de Julho, 2024
A União Europeia (UE) assumiu o compromisso de defender todas as pessoas, em particular as crianças e jovens, definindo medidas específicas no Regulamento dos Serviços Digitais (Digital Services Act).
O Regulamento dos Serviços Digitais (RSD) pretende assegurar que todos os serviços digitais que utilizamos, em especial as plataformas gigantes (como o Instagram, o Snapchat, o TikTok e o YouTube) e os motores de pesquisa também gigantes (como o Google e o Bing) façam mais para proteger os direitos dos utilizadores, para os manter em segurança e para impedir a propagação de conteúdos ilegais ou inadequados.
O RSD exige que essas plataformas tenham em conta o seu impacto em questões importantes como a realização de eleições justas, a segurança pública, o bem-estar mental e físico dos utilizadores ou impedir a violência baseada no género.
Que medidas concretas estão previstas para proteger as crianças e os jovens online?
Para proteger crianças e jovens de situações como assédio, intimidação, informações falsas, conteúdos ilegais e pessoas que se façam passar por outras, plataformas e motores de pesquisa devem assegurar que:
- As crianças e jovens compreendem facilmente como funciona o serviço;
- Não correm o risco de ser expostos a conteúdos suscetíveis de prejudicar a sua “saúde e o seu desenvolvimento físico, mental e moral”, por serem inadequados à sua idade;
- As características das plataformas não são suscetíveis de causar comportamentos aditivos.
As plataformas gigantes devem também adotar medidas para atenuar estes riscos, incluindo (se apropriado, dependendo das plataformas):
- Controlo parental – configurações que permitem aos pais e cuidadores, por exemplo, monitorizar ou limitar o acesso das crianças à internet;
- Verificação da idade – sistema para verificar a idade dos utilizadores antes de acederem ao serviço, através, por exemplo, de identificadores físicos ou de outras formas de identificação;
- Ferramentas para ajudar os jovens a sinalizar abusos ou obter apoio.
As plataformas devem disponibilizar sistemas de apresentação de queixas e de denúncia adaptados às crianças para:
- Facilitar a denúncia e a apresentação de queixas por parte dos utilizadores (incluindo os menores) quando detetam conteúdos ilegais ou outros que não devem estar em linha;
- Agir rapidamente quando os “sinalizadores de confiança” (organizações especializadas em assinalar conteúdos ilegais e lesivos) denunciam conteúdos que consideram ilegais ou contrários às condições gerais dessas plataformas.
As plataformas online utilizadas por crianças devem garantir a proteção dos dados pessoais e a privacidade:
- Adotar normas de configurações especiais de privacidade e de segurança no caso de menores;
- Não solicitar demasiados dados pessoais;
- Proteger os dados pessoais e garantir que não são manipulados ou cedidos a terceiros.
Os serviços em linha utilizados por menores devem esforçar-se por ter informação adaptada às crianças, usar explicações claras, permitindo-lhes que compreendam aquilo com que estão a concordar quando navegam na internet.
Proibir publicidade dirigida a crianças, com base nos seus perfis
As empresas podem recolher informações sobre as nossas preferências e interesses a partir dos sítios Web que visitamos, do que “gostamos”, das ligações que abrimos, além de informações pessoais que nós mesmos indicamos, como a idade ou onde vivemos. A partir destes dados de definição de perfis, as plataformas servem-se de algoritmos e da inteligência artificial para escolher os anúncios que terão mais impacto em cada um de nós. Algumas plataformas em linha fazem dinheiro sempre que compramos produtos que vimos nesses anúncios.
Nos termos do RSD se as plataformas estiverem razoavelmente certas de que um utilizador é menor, não podem mostrar-lhe nenhum tipo de publicidade baseada na definição de perfis.
Quais são as próximas etapas? Como estão a ser aplicadas as novas regras?
O Regulamento dos Serviços Digitais começou a ser aplicado em 16 de novembro de 2022. Plataformas e motores de pesquisa gigantes devem respeitar todas as regras do RSD, o mais tardar, quatro meses após a sua designação.
As primeiras 19 plataformas deste tipo, anunciadas pela Comissão em abril de 2023, tiveram de começar a seguir as regras quatro meses mais tarde.
A partir de fevereiro de 2024, todos os serviços digitais, incluindo plataformas de menor dimensão, passaram a ter de seguir as regras do RSD que lhes são aplicáveis.
- O Snapchat, a Google, o YouTube, o Instagram e o Facebook já deixaram de permitir que os anunciantes apresentassem anúncios dirigidos a menores.
- O TikTok e o YouTube colocam agora automaticamente as contas dos utilizadores com menos de 16 anos em modo privado, para que apenas os contactos conhecidos possam ver os vídeos que eles carregam.
Mas isto é apenas o princípio. A Comissão Europeia dispõe de novos poderes para fiscalizar plataformas e motores de pesquisa de muito grande dimensão e as medidas que tomam para reduzir os riscos.
Caso as empresas não sigam estas regras, a União Europeia ou os Estados Membros poderão aplicar-lhes coimas até 6% dos seus rendimentos globais anuais.
Onde obter mais informações ou ajuda?
- Para ajuda ou mais informações, contacte o Centro Internet Segura. Este centro oferece serviços de assistência destinados em específico a crianças e a jovens, disponíveis por telefone, correio eletrónico ou chat em linha — e gratuitos!
- No Centro de Sensibilização SeguraNet encontra diversos recursos dirigidos a crianças e jovens, pais, docentes e escolas.
Texto elaborado com base em European Commission, Directorate-General for Communications Networks, Content and Technology, (2024). Regulamento dos Serviços Digitais (RSD) em síntese: medidas para proteger as crianças e os jovens em linha, Publications Office of the European Union.
Sobre a Autora
Interesses de investigação: web geoespacial, TIC na educação, inclusão digital, sexualidades e igualdade de género.
Ver arquivo →