Page Nav

HIDE
Quarta, Maio 21

Pages

Desafio Fatal: viralização e omissão nas redes sociais matam

  A trágica morte de uma criança em Brasília, vítima de um desafio online, não é apenas um caso isolado – é o sintoma de um sistema que falh...

 

A trágica morte de uma criança em Brasília, vítima de um desafio online, não é apenas um caso isolado – é o sintoma de um sistema que falha em proteger os mais vulneráveis. A resposta não pode ser a censura, mas sim a responsabilização urgente de quem cria, dissemina e lucra com o perigo.

A notícia chocou o país e expôs, mais uma vez, a face sombria da conectividade irrestrita: uma criança de apenas 8 anos, em Brasília, perdeu a vida ao inalar desodorante, supostamente induzida por um “desafio” viralizado em plataformas como TikTok e Kwai.

Essa tragédia não é um raio em céu azul. É a consequência direta de um ambiente digital onde a busca incessante por engajamento muitas vezes atropela a ética, a segurança e, neste caso, a própria vida.

O episódio reacende, com força e urgência inadiáveis, o debate sobre a necessidade de limites e regulamentação para as redes sociais, mas nos coloca diante de uma encruzilhada crucial: como proteger sem censurar?

É inegável que qualquer menção à regulamentação das redes sociais dispara imediatamente alarmes sobre a liberdade de expressão. E aqui, minha posição é clara e radicalmente contrária a qualquer forma de censura.

A livre manifestação do pensamento é um pilar inegociável de qualquer sociedade democrática.

Contudo, é preciso afirmar com a mesma veemência: liberdade de expressão não pode, jamais, ser confundida com um salvo-conduto para a irresponsabilidade, para a disseminação de conteúdos nocivos ou para a indução de práticas que colocam vidas em risco, especialmente as de crianças e adolescentes, cuja capacidade de discernimento ainda está em formação.

O Marco Civil da Internet (Lei nº 12.965/2014) estabeleceu um modelo de responsabilidade para intermediários que busca, justamente, equilibrar a liberdade na rede com a proteção de direitos.

Ele prevê a responsabilização das plataformas por conteúdos de terceiros apenas após ordem judicial específica.

Embora fundamental para evitar a censura prévia e proteger o fluxo de informações, esse modelo se mostra dolorosamente insuficiente diante da velocidade e do alcance de desafios virais letais como o do desodorante.

Esperar uma ordem judicial enquanto um vídeo perigoso se espalha exponencialmente é, na prática, assistir à tragédia em câmera lenta.

A reação política ao caso de Brasília, com senadores como Damares Alves e Leila Barros cobrando explicações das plataformas e propondo a criminalização específica desses desafios, é um passo necessário, mas ainda tímido diante da magnitude do problema.

Discursos e notas de repúdio não bastam. Precisamos ir além. O caminho, a meu ver, não reside em controlar o que pode ou não ser dito, mas em estabelecer mecanismos claros e eficazes de responsabilização para quem produz, impulsiona e lucra com conteúdos manifestamente perigosos.

Isso significa responsabilizar diretamente os criadores que idealizam e promovem desafios que atentam contra a integridade física e psicológica. Significa cobrar das plataformas digitais uma postura muito mais proativa e transparente na moderação desses conteúdos.

Seus algoritmos, desenhados para maximizar o tempo de tela e o engajamento, acabam por criar câmaras de eco que amplificam o perigo, transformando “brincadeiras” mortais em tendências globais em questão de horas.

As plataformas não são meros quadros de aviso; elas são arquitetas ativas do ambiente digital e devem ter deveres de cuidado compatíveis com seu poder e influência.

Projetos como o PL 4144/24, que tramita na Câmara e propõe responsabilizar provedores por conteúdos falsos e desinformação, apontam na direção correta ao exigir sistemas de verificação e rotulagem.

A discussão precisa avançar para incluir também a responsabilidade sobre conteúdos que, embora não necessariamente “falsos”, incitam comportamentos de alto risco. As boas práticas de moderação, que envolvem clareza nas regras, consistência na aplicação e direito à revisão, precisam ser a norma, não a exceção.

A morte desta criança em Brasília é uma ferida aberta na nossa sociedade conectada. Ela nos obriga a confrontar a complacência com que temos tratado os perigos do universo digital. A solução não virá de extremos – nem da censura que amordaça, nem da liberdade absoluta que abandona os vulneráveis à própria sorte.

Ela reside no equilíbrio difícil, mas imprescindível, entre garantir a livre expressão e exigir responsabilidade de todos os atores envolvidos.

É hora de transformar a indignação em ação concreta, focada na proteção da vida e na responsabilização de quem transforma cliques em tragédias. Afinal, quantas vidas mais precisarão ser perdidas para que finalmente entendamos que a omissão também mata!

*Marcelo Senise – Idealizador do Instituto Brasileiro para a Regulamentação da Inteligência Artificial, Sócio Fundador da Social Play e CEO da CONECT I.A, Sociólogo e Marqueteiro, atua há 36 anos na área política e eleitoral, especialista em comportamento humano, e em informação e contrainformação, precursor do sistema de análise em sistemas emergentes e Inteligência Artificial.

Da redação do Portal de Notícias, com a fonte do Radar DF

Nenhum comentário

Pixel

Saudosismo

Secretaria de Saúde promove workshop para fortalecer prática...

Exposição "Cores do Sentir" destaca saúde mental infantojuve...

Pioneirismo que salva vidas: médica cria o primeiro banco ge...

GDF osTécnicos de Enfermagem: profissionais essenciais no ac...

Governo de Minas destaca compromisso com municípios durante ...

Governo de Minas forma 58 estudantes de Curso Técnico em Gas...

Com acesso ao crédito, agro mineiro investe em novas tecnolo...

GDF alerta: cartões de benefícios sociais não são enviados p...

DF tem Vagas de emprego: estão abertas 567 nas agências do t...