A Apple está reforçando o controle sobre o acesso de menores de idade a aplicativos classificados para maiores de 18 anos na App Store. A empresa passou a adotar uma nova tecnologia que permite identificar a faixa etária dos usuários sem precisar acessar dados privados, impedindo que conteúdos inadequados sejam baixados por crianças e adolescentes.
O recurso se chama Declared Age Range API e foi criado para informar aos desenvolvedores a faixa etária aproximada de quem utiliza um aplicativo. Em vez de coletar informações sensíveis, o sistema se baseia em padrões de uso, comportamentos e categorias de interesse do usuário.
No Brasil, o uso dessa tecnologia depende da autorização do próprio usuário ou de um responsável legal, como pais ou responsáveis. Quando ativado, o sistema bloqueia automaticamente aplicativos classificados como +18. Contas que não tiverem a idade confirmada também ficam impedidas de realizar downloads desse tipo de conteúdo.
Verificação de idade pode exigir documentos
Para validar contas de usuários adultos, a Apple afirma que utilizará “métodos razoáveis” de verificação. Entre as possibilidades estão o envio de fotos de documentos de identidade ou a confirmação por meio de cartões de crédito vinculados à conta.
Essa mudança pode impactar especialmente o universo dos jogos digitais. Alguns games que possuem loot boxes — mecânicas de recompensas aleatórias pagas — são classificados para maiores de 18 anos em determinados países. Com o novo sistema, menores de idade podem perder acesso a esses títulos.
A medida tende a gerar resistência entre parte do público mais jovem, que poderá encontrar novas barreiras para baixar ou continuar usando determinados aplicativos.
Pressão regulatória impulsiona mudanças
A tecnologia também será implementada em regiões dos Estados Unidos com regras mais rígidas para proteção de menores online, como os estados de Louisiana e Utah. Nesses locais, legislações recentes pressionam empresas de tecnologia a reforçar mecanismos de verificação de idade.
No Brasil, discussões semelhantes ganham força com propostas inspiradas no chamado “ECA Digital”, que busca ampliar a proteção de crianças e adolescentes no ambiente online.
O debate sobre segurança digital também ganhou destaque após um documento revelar que 1 em cada 5 adolescentes já foi exposto a conteúdo sexual explícito indesejado no Instagram — um dado que reforça a pressão sobre as plataformas para criar mecanismos de proteção mais robustos.