top of page

👥 Facebook lança desafio de deteção de Deepfake



Com vários grupos politicamente afiliados já a usarem plataformas digitais para manipular e influenciar os eleitores, a ascensão dos deepfakes é uma preocupação séria e pode representar uma grande ameaça à democracia como a conhecemos.


O que é deepfake?

Deepfake é uma tecnologia que utiliza inteligência artificial (IA) para criar vídeos falsos, mas muito realistas, colocando pessoas a fazer ou a dizer coisas que nunca fizeram na vida real. A técnica que permite fazer as montagens de vídeo já gerou desde conteúdos pornográficos com celebridades até discursos fictícios de políticos influentes.


É por isso que todas as principais plataformas estão a trabalhar para desenvolver sistemas para detectar vídeos digitalmente alterados, de forma a capturá-los antes que eles possam espalhar-se. O Twitter lançou a sua política de 'Manipulated Media' em fevereiro para esse efeito, enquanto o Facebook estava à procura de formas de avançar nos seus próprios modelos de detecção. Em consonância com isso, em setembro, a The Social Network desafiou as equipas a criarem melhores modelos de detecção de deepfake que pudessem ser usados ​​para eliminar esses vídeos.


E na semana passada, o Facebook partilhou os resultados do seu primeiro Desafio de detecção do Deepfake.


Como explicado pelo Facebook:

"O DFDC foi lançado em dezembro passado e 2.114 participantes enviaram mais de 35.000 modelos para a competição. Agora que o desafio foi concluído, estamos a partilhar detalhes sobre os resultados e a trabalhar com os vencedores para ajudá-los a publicar o código dos modelos de detecção com melhor desempenho. "

Este é um ponto-chave - o Facebook, ao trabalhar com as equipas vencedoras, procura partilhar a base de código de cada um dos modelos vencedores, enquanto também planeia abrir os conjuntos de dados usados ​​em código-fonte, de forma a ajudar a avançar mais amplamente as pesquisas sobre deepfakes.


Então, quão bons foram os modelos vencedores?

Os modelos de detecção com melhor desempenho, entre os milhares enviados, tiveram taxas de detecção acima de 82%. O que é impressionante - mas foi baseado num treino fornecido, que os pesquisadores poderiam estudar e refinar especificamente, focado nesses exemplos.


Para determinar a verdadeira precisão destes sistemas, o Facebook também testou os modelos num conjunto de dados de 10.000 clips que os participantes não tinham visto anteriormente e que não tinham acedido antes de enviar o seu código. Isto alterou os resultados finais significativamente.


"O participante com melhor desempenho foi um modelo inserido por Selim Seferbekov. Ele alcançou uma precisão média de 65,18% em relação ao conjunto de dados. Usando o conjunto de dados público, esse modelo foi classificado em quarto lugar. Da mesma forma, os outros modelos vencedores, que ficaram em segundo e quinto lugar quando testados, também classificados abaixo na tabela de classificação pública (eram 37, 6, 10 e 17, respectivamente.) "


Como podes ver, os resultados mudaram muito quando foram aplicados a vídeos para os quais os pesquisadores não puderam treinar especificamente. Isto provavelmente mostra que ainda há um longo caminho a percorrer no estabelecimento de um sistema de detecção de falhas profundas verdadeiramente preciso - embora uma taxa de detecção de 65% ainda que seja significativa e provavelmente ajuda a sinalizar muitas preocupações em potencial no processo de publicações.


Idealmente, no entanto, o Facebook pode aumentar esse número e desenvolver um sistema melhor para determinar vídeos digitalmente alterados antes de serem partilhados. Porque, como vimos, uma vez que um vídeo é carregado on-line, o facto de ser determinado que ele é falso ou editado posteriormente é muitas vezes tarde demais para impedir que os danos sejam causados.


À medida que a corrida às eleições nos EUA para 2020 aquece, parece cada vez provável que, em algum momento, algum vídeo de grande impacto entre em cena.


Como isso mudará a corrida? Como isso altera o comportamento do eleitor? As plataformas digitais podem detectar e eliminar essas informações antes que elas ocorram?


São questões muito relevantes para as quais ainda não temos dados concretos mas que serão ainda mais explorados nestas eleições


Yorumlar


Artigos Recentes

bottom of page