A verificação de idade para IA na Austrália se tornou um imperativo regulatório, com a autoridade de segurança online do país, eSafety, anunciando a possibilidade de bloquear aplicativos e mecanismos de busca que não implementarem sistemas eficazes. A partir de 9 de março, novas diretrizes exigem que ferramentas digitais evitem o acesso de menores de 18 anos a conteúdos prejudiciais, como pornografia, violência extrema, automutilação e transtornos alimentares, sob pena de multas milionárias. Esta medida amplia a ofensiva australiana contra plataformas digitais, com o objetivo claro de proteger a saúde mental e o bem-estar de crianças e adolescentes na era digital.
O que as novas regras exigem
As ferramentas digitais disponíveis em território australiano, incluindo buscadores equipados com inteligência artificial e chatbots interativos, como o popular ChatGPT, estão agora sob rigoroso escrutínio. A legislação visa estabelecer barreiras eficazes para impedir que usuários com menos de 18 anos de idade acessem materiais considerados impróprios ou perigosos. Isso abrange um espectro de conteúdos que incluem pornografia explícita, cenas de violência extrema, material que promove a automutilação e informações que podem induzir transtornos alimentares, entre outros riscos inerentes ao ambiente digital não supervisionado.
O órgão regulador australiano, eSafety, enfatiza que a inobservância dessas diretrizes por parte das empresas de tecnologia resultará em ações legais. As sanções podem ser severas, incluindo multas que alcançam até 49,5 milhões de dólares australianos, o equivalente a aproximadamente 180,8 milhões de reais. Tais valores sublinham a seriedade com que a Austrália encara a proteção de seus jovens cidadãos no espaço online.
O que se sabe até agora: A Austrália, por meio da eSafety, exige a implementação de sistemas de verificação de idade em serviços de IA até 9 de março para bloquear o acesso de menores a conteúdo nocivo. Empresas não conformes enfrentam multas de até 49,5 milhões de dólares australianos e o risco de bloqueio de suas plataformas no país.
Contexto da ofensiva regulatória
Esta recente exigência para a verificação de idade para IA na Austrália não é um evento isolado, mas sim parte de uma estratégia regulatória mais ampla e agressiva do país contra as plataformas digitais. Em dezembro, a Austrália já havia se destacado globalmente ao se tornar a primeira nação a proibir o uso de redes sociais por adolescentes, uma medida motivada por preocupações crescentes com a saúde mental da juventude. Agora, o foco se volta para as ferramentas de inteligência artificial, que têm enfrentado uma pressão internacional cada vez maior. Diversos processos judiciais em diferentes países questionam a capacidade ou a vontade dessas plataformas de evitar – e, em alguns casos, até mesmo incentivar – comportamentos autodestrutivos entre seus usuários mais jovens.
Casos notórios incluem ações judiciais movidas contra empresas de IA de destaque, como a OpenAI e a Character.AI, ambas acusadas de facilitar interações prejudiciais com jovens. Embora a Austrália ainda não tenha registrado incidentes de violência diretamente vinculados a chatbots, a eSafety revelou dados alarmantes: recebeu relatos de crianças com apenas 10 anos de idade utilizando essas ferramentas por períodos prolongados, chegando a seis horas diárias. Essa intensidade de uso levanta sérias questões sobre a exposição e vulnerabilidade dos menores a conteúdos potencialmente danosos ou interações inadequadas.
Quem está envolvido: O governo australiano e a eSafety lideram a iniciativa. Empresas de IA como OpenAI, Character.AI, xAI (Grok), Replika e Claude, além de lojas de aplicativos (Apple, Google), são as principais afetadas e responsáveis pela implementação dos sistemas de verificação de idade.
O panorama atual da conformidade das plataformas
O aviso emitido pela eSafety surge após uma análise detalhada conduzida pela agência de notícias Reuters, que indicou um atraso significativo na adaptação das plataformas de inteligência artificial às novas regulamentações. A pesquisa revelou que a maioria dos serviços de IA ainda não havia anunciado ou implementado medidas concretas para atender às exigências impostas para a verificação de idade para IA na Austrália. Entre os 50 produtos de IA baseados em texto mais populares no país, apenas nove haviam implementado ou anunciado planos robustos de verificação de idade.
Outras 11 plataformas adotaram filtros abrangentes ou optaram por bloquear completamente o acesso de usuários australianos, o que também as coloca em conformidade com as novas diretrizes. Contudo, o levantamento apontou que aproximadamente 30 serviços de inteligência artificial não haviam demonstrado quaisquer ações aparentes para cumprir as regras. Este cenário preocupa as autoridades, que veem a inação como um risco contínuo à segurança dos jovens usuários.
Entre os principais assistentes conversacionais, como ChatGPT, Replika e Claude, observam-se os primeiros sinais de adaptação, com o surgimento de sistemas de verificação de idade ou filtros de conteúdo mais rigorosos. A Character.AI, por exemplo, já implementou restrições de acesso para menores em seus chats abertos, uma medida proativa para mitigar riscos. Outras plataformas afirmaram que pretendem se adequar, mas falharam em detalhar como ou quando essas implementações ocorreriam, gerando incerteza sobre sua real prontidão.
Desafios para desenvolvedores e lojas de aplicativos
A análise da Reuters também destacou uma lacuna preocupante entre os chatbots complementares: cerca de três quartos dessas ferramentas não dispõem de qualquer filtragem de conteúdo ou planos claros de verificação de idade. Uma parcela ainda mais significativa dessas plataformas falha em publicar um canal de contato acessível para denúncias de violação, o que é um requisito fundamental do novo código de conduta australiano. Esta ausência de mecanismos de denúncia dificulta a fiscalização e a responsabilização, deixando os usuários sem um caminho claro para reportar conteúdos ou interações indevidas.
Um exemplo notável é a ferramenta Grok, desenvolvida pela xAI, que até o momento do anúncio das novas regras na Austrália, não apresentava sistemas de verificação etária ou filtros textuais adequados. A empresa, por sua vez, não respondeu aos questionamentos da Reuters sobre seus planos de conformidade. A responsabilidade, entretanto, não recai apenas sobre os desenvolvedores de IA. As empresas que operam as principais lojas de aplicativos, como Apple e Google, também são peças-chave nesse ecossistema de segurança.
Ambas foram contatadas pela Reuters para comentar sobre suas estratégias. A Apple, em seu site, afirmou que pretende utilizar “métodos razoáveis” para impedir downloads de aplicativos restritos a maiores de 18 anos, mas sem especificar os mecanismos que seriam empregados para tal. O Google, por sua vez, optou por não comentar sobre o assunto, o que levanta questões sobre a prontidão e o compromisso dessas gigantes da tecnologia em apoiar as iniciativas regulatórias australianas. A eficácia da verificação de idade para IA na Austrália dependerá da colaboração entre todos os envolvidos.
O que acontece a seguir: Com o prazo se aproximando, espera-se que mais plataformas anunciem medidas de conformidade. A eSafety manterá a fiscalização ativa, podendo acionar lojas de aplicativos para remoção de serviços que não se adequarem. O debate sobre a proteção de menores online deve intensificar-se globalmente, influenciando futuras regulamentações.
Decreto australiano redefine o futuro da IA e proteção infanto-juvenil
O movimento regulatório da Austrália, focado na verificação de idade para IA na Austrália, não é apenas um marco local, mas um prenúncio de tendências globais na governança da inteligência artificial. Ao posicionar-se firmemente pela proteção de crianças e adolescentes contra os riscos inerentes à tecnologia, o país estabelece um precedente significativo. A pressão sobre desenvolvedores de IA e operadoras de lojas de aplicativos para implementar sistemas robustos de verificação e filtragem de conteúdo é um reflexo da crescente conscientização sobre o impacto da IA na sociedade, especialmente nos grupos mais vulneráveis.
À medida que o prazo de 9 de março se aproxima, a comunidade tecnológica e as autoridades reguladoras de todo o mundo observarão atentamente os desdobramentos na Austrália. O sucesso ou os desafios enfrentados na implementação e fiscalização dessas regras poderão moldar a forma como outros países abordarão a regulação da IA. Este é um capítulo crucial na busca por um equilíbrio entre a inovação tecnológica e a segurança digital, reafirmando que a responsabilidade social das empresas de tecnologia é tão fundamental quanto a própria capacidade de inovar.





