
As plataformas de Big Tech frequentemente reprimem usuários por conteúdos relacionados ao Linux e homelabs, e a situação não é nova. O YouTube e o Facebook já tomaram tal atitude, criando um padrão preocupante onde o conteúdo é sinalizado ou removido sem explicações adequadas.
Recentemente, o conhecido YouTuber de tecnologia, CyberCPU Tech, se viu na mesma situação, com seu canal em risco. Duas semanas atrás, Rich postou um vídeo sobre como instalar o Windows 11 25H2 usando uma conta local, mas o YouTube decidiu removê-lo, alegando que o conteúdo estava "encorajando atividades perigosas ou ilegais que poderiam causar sérios danos físicos ou morte".
Após isso, Rich publicou outro vídeo que mostrava como contornar os requisitos de hardware do Windows 11 para instalar o sistema em máquinas não suportadas. Novamente, o YouTube retirou o vídeo do ar, resultando em duas notificações de violação das diretrizes da comunidade.
Rich imediatamente recorreu das decisões, mas o primeiro apelo foi negado em apenas 45 minutos, e o segundo em apenas cinco. Inicialmente, ele suspeitou que a moderação automática do YouTube, alimentada por inteligência artificial, pudesse ter causado a remoção. Porém, posteriormente, começou a questionar se a Microsoft estava de alguma forma envolvida. Sem respostas concretas da plataforma, tudo se tornou uma especulação.
Surpreendentemente, o YouTube acabou restaurando ambos os vídeos, afirmando que suas "ações iniciais" não foram resultado de automação. Isso levanta a questão: se humanos revisaram esses vídeos, como chegaram à conclusão de que os tutoriais sobre Windows representavam um "risco de morte"?
Esse incidente ilustra a dificuldade dos sistemas de moderação automatizados em diferenciar conteúdo legítimo de material prejudicial. Apesar dos bilhões investidos em IA por empresas de Big Tech, suas ferramentas ainda confundem tutoriais inofensivos com conteúdos ameaçadores. Um exemplo recente disso foi a remoção do canal pessoal de Enderman.
Enquanto isso, verdadeiros spams conseguem passar despercebidos. O que essas plataformas realmente precisam é de supervisão humana. A automação pode ajudar, mas não deve substituir o julgamento humano em casos complexos.
?feature=oembed
Confira os últimos vídeos publicados no canal