Inteligência Artificial e Conteúdo Seguro

Inteligência Artificial e Conteúdo Seguro

— Por Alexandre Kavinski, CMO e fundador da i-Cherry

Cada vez mais as redes sociais se valem da inteligência artificial e machine learning para manter conteúdo inapropriado de fora do feed de notícias.

A Microsoft anunciou no último dia 16 que está usando de uma técnica, “redes neurais convolutas”, para vasculhar e excluir perfis e conteúdo inapropriado, incluindo spam, abuso e assédio de sua rede. Para as mulheres o anúncio é muito bem recebido, uma das principais queixas é de contatos inapropriados frequentes fazendo propostas indecorosa por meio de seus perfis.

A prática não é novidade entre as redes, Pinterest, Instagram e Twitter já utilizam de recursos similares para conter os abusos.

No Facebook, que afirma identificar e excluir automaticamente 98% do conteúdo (fotos e vídeos) relacionados a terrorismo, a tecnologia chega a uma novo patamar. Depois de ter um vídeo terrorista publicado ao vivo em sua live o Facebook implementou uma solução que identifica imagens em movimento em tempo real para controlar seu conteúdo.

A grande dificuldade é que para treinar um algoritmo é necessário analisar uma grande quantidade de dados, como o conteúdo terrorista não vem em abundância o player faz parceria com a polícia americana para coletar vídeos de extremistas e alimentar sua base de dados de treinamento.

Quando os conteúdos indevidos são identificados as redes compartilham entre si as informações para que possam ter maior controle. Cada vez mais veremos as redes sociais e publicações online se valendo de técnicas de inteligência artificial para manter a web mais segura.

voltar ao blog