O Dr. Garth Graham é médico, é pai e é o Director Global de Saúde do YouTube, o que lhe confere um grau de importância bastante elevado no mundo digital actual. Pois foi com estes pergaminhos que publicou esta semana um post na conta oficial do canal a propósito do lançamento de um temporizador para o feed de Shorts na Europa e ainda partilhou cinco conselhos para famílias navegarem «em conjunto no mundo digital».
São conselhos sensatos, escritos com um tom genuinamente cuidadoso, e algumas das ferramentas que anuncia até são tecnicamente úteis, mas há um pequenito problema, ou seja, o mesmo problema que existe em todos os documentos deste género que todas as grandes plataformas tecnológicas publicam com regularidade crescente: a empresa que escreve estas recomendações é a mesma que construiu, refinou e continua a operar um sistema desenhado especificamente para tornar esses conselhos muito difíceis de seguir.
Confessemos que é dar a chave da porta de casa ao larápio que já a assaltou mas deixou lá ficar umas quantas pratas e tem que lhe regressar…
O que o comunicado diz e o que não diz
Resumidamente, o que podemos ler é que o YouTube anunciou que os pais podem agora definir limites de tempo diários para o feed de Shorts dos filhos, incluindo desactivá-los por completo. Mas foi mais longe e também simplificou a criação de contas supervisionadas para menores, não esquecendo aquele reparo tipo “tautau” que os lembretes para «fazer uma pausa» existem.

O Dr. Graham aconselha os pais a falarem abertamente com os filhos, a verem vídeos em conjunto, a combinarem regras em família e a promoverem o equilíbrio entre o digital e o mundo físico. Não sei se ele tem filhos em idades “complicadas”, mas que tem um extraordinário bom coração, não tenhamos dúvidas.
Atenção, tudo correcto é correcto e positivo, mas é também o tipo de comunicação corporativa que os especialistas em relações públicas de Silicon Valley levam anos a aperfeiçoar: suficientemente substancial para não ser imediatamente descartado, suficientemente vago para não criar compromissos mensuráveis, e enquadrado de forma a posicionar a empresa como parceira das famílias em vez de como o agente que criou o problema que agora propõe ajudar a gerir.
O que o post não diz é que o YouTube Shorts – tal como o TikTok, o Instagram Reels e todos os formatos de vídeo curto vertical que proliferaram nos últimos anos – foi desenhado por engenheiros e cientistas comportamentais com um objectivo preciso: maximizar o tempo de sessão. Não por acidente, não como efeito secundário indesejado, mas como métrica central de negócio.
O algoritmo de recomendação não serve os interesses do utilizador, serve os interesses da plataforma, que são medidos em tempo de ecrã, número de interacções e retorno ao feed. E nenhum temporizador opcional muda a arquitectura fundamental desse sistema. E nós sabemos disso.
O modelo de negócio que ninguém quer nomear
Para perceber porque é que estas medidas são insuficientes, é preciso perceber como o YouTube – e todas as grandes plataformas de conteúdo – ganham dinheiro. O modelo é simples: quanto mais tempo um utilizador passa na plataforma, mais anúncios vê, mais dados comportamentais gera e mais valioso se torna para os anunciantes.
O tempo de sessão não é apenas uma métrica de vaidade, é a base de uma das maiores indústrias publicitárias da história. Em 2025, a Google, empresa-mãe do YouTube, gerou mais de 350 mil milhões de dólares em receitas, uma parte significativa das quais vem directamente da atenção que o YouTube captura.
Este modelo de negócio cria um incentivo estrutural para optimizar o produto na direcção errada para a saúde dos utilizadores, especialmente dos mais jovens. O cérebro de um adolescente, que ainda está em desenvolvimento com o córtex pré-frontal que regula o controlo de impulsos não completamente formado até aos 25 anos, é particularmente vulnerável aos mecanismos de recompensa variável que os feeds de scroll infinito exploram.
A dopamina libertada pela antecipação do próximo vídeo, a comparação social implícita no número de gostos e visualizações, a ansiedade de não estar a par do que toda a gente está a ver (FoMO) – estes não são efeitos acidentais, antes consequências previsíveis e previstas de um design deliberado.
Quando o Dr. Graham escreve que «as ferramentas são apenas uma parte da equação» e que «servem para apoiar as conversas e os hábitos que as famílias criam em casa», tem razão. Mas inverte a relação de responsabilidade: o problema não começa nas famílias e a solução não pode ser devolvida às famílias. A causa está no design do produto e a solução estrutural tem de estar no design do produto.
O que está a acontecer na Europa e porque é que o timing não é coincidência
O lançamento deste conjunto de ferramentas na Europa em Abril de 2026 não acontece no vácuo. A União Europeia tem estado nos últimos anos a construir o enquadramento regulatório mais ambicioso do mundo para as plataformas digitais: o Digital Services Act entrou em aplicação plena em 2024, obrigando as plataformas de muito grande dimensão a avaliarem e mitigarem os riscos sistémicos que os seus serviços criam, incluindo riscos para a saúde mental de menores.
O AI Act começa a aplicar-se de forma progressiva e vários países europeus já têm legislação em curso ou aprovada para restringir o acesso de menores a redes sociais. Exemplos? A França avançou com a proibição para menores de 15 anos sem autorização parental verificada, e a Austrália foi mais longe ao proibir completamente o acesso de menores de 16 anos às redes sociais.
Neste contexto, a publicação de um texto com cinco conselhos de bem-estar digital assinado pelo Director Global de Saúde do YouTube não é principalmente um gesto de responsabilidade social espontânea. É uma resposta a uma pressão regulatória crescente e a uma narrativa pública que se tornou perigosa para o negócio.
Quando os legisladores, os investigadores de saúde mental e os próprios pais começam a falar de proibições e de regulação dura, as empresas têm duas opções: aceitar legislação que não controlam ou produzir demonstrações voluntárias de auto-regulação suficientemente convincentes para retardar ou suavizar essa legislação. A segunda opção é invariavelmente a preferida.
Isto não significa que as ferramentas anunciadas sejam falsas ou inúteis. Significa que o seu âmbito é cuidadosamente calibrado para parecer substantivo sem alterar a arquitectura fundamental do produto.
Ou seja, e vamos pensar nisto, um temporizador opcional que os pais têm de activar numa plataforma que os próprios adolescentes gerem nos seus próprios dispositivos, numa faixa etária em que a supervisão parental directa é crescentemente difícil, é uma ferramenta com valor marginal real para os casos mais problemáticos que são, precisamente, aqueles em que os pais já não têm controlo sobre o que os filhos consomem.
A investigação que as plataformas preferem não citar
Quando o YouTube menciona «especialistas independentes em desenvolvimento infantil» como orientadores das suas ferramentas de protecção, a frase é verdadeira mas incompleta: a investigação científica sobre o impacto das redes sociais e do conteúdo de scroll infinito na saúde mental de adolescentes é vasta, crescente e, nos seus resultados mais consistentes, preocupante.
Jonathan Haidt, psicólogo social da Universidade de Nova Iorque, documentou no seu trabalho uma correlação entre a proliferação dos smartphones e das redes sociais a partir de 2012 e o aumento abrupto de problemas de saúde mental entre adolescentes, especialmente raparigas, em múltiplos países ocidentais.
Jean Twenge, da Universidade Estatal de São Diego, chegou a conclusões semelhantes com metodologias diferentes.
A Surgeon General dos Estados Unidos publicou em 2023 um aviso de saúde pública sobre o impacto das redes sociais na saúde mental de menores, ou seja, o equivalente ao aviso sobre o tabaco em termos de peso institucional.
A resposta das plataformas a esta investigação tem sido consistente ao longo dos anos: contestar a metodologia, financiar estudos alternativos, salientar os benefícios sociais das plataformas para comunidades marginalizadas e jovens isolados – que são reais e não devem ser ignorados – e insistir que a correlação não é causalidade.
Há investigadores sérios que partilham algumas dessas reservas metodológicas mas o padrão de resposta – que se assemelha ao da indústria tabaqueira durante décadas a contestar a relação entre o tabaco e o cancro – é suficientemente reconhecível para merecer cepticismo.
O que o Youtube poderia fazer diferente e porque é que não acontece
Uma empresa genuinamente comprometida com a saúde digital dos seus utilizadores mais jovens não precisaria de anunciar que os pais podem agora desactivar o feed de Shorts. Se fosse coerente, teria desenhado o produto de forma a que o scroll infinito não existisse por defeito para utilizadores menores de 18 anos. Se fosse honesta, não teria optimizado o algoritmo de recomendação para maximizar o tempo de sessão sem consideração pelos padrões de uso que os dados internos revelam como prejudiciais. E não teria documentos internos, como os que vieram a público através de Frances Haugen no caso do Facebook/Instagram em 2021, e de processos judiciais subsequentes que mostram que a empresa sabia dos impactos negativos e continuou a operar da mesma forma.
O que seria estruturalmente diferente é um modelo de negócio que não dependesse do tempo de sessão como métrica central. Enquanto o YouTube (e o TikTok, e o Instagram, e todas as plataformas com o mesmo modelo) dependerem da atenção como moeda, o incentivo para construir produtos que capturam e retêm essa atenção a qualquer custo não desaparece com um temporizador opcional. É sistémico e problemas sistémicos precisam de soluções sistémicas, não de comunicados com cinco conselhos para bom comportamento.
A regulação europeia vai nessa direcção, imperfeita e lentamente, mas vai. O Digital Services Act obriga as plataformas a avaliarem e reportarem os riscos que os seus sistemas de recomendação criam para grupos vulneráveis, incluindo menores. Vários processos judiciais nos Estados Unidos estão a tentar estabelecer responsabilidade civil das plataformas pelos danos causados a menores. A pressão está a aumentar de todos os lados. Por isso, estes comunicados de bem-estar digital são, em parte, uma resposta a essa pressão – uma tentativa de gerir a narrativa enquanto os lobistas trabalham para suavizar a legislação.
As cinco dicas do Dr. Graham são sensatas, sinceras e completamente insuficientes como resposta à escala do problema.






