Gadgets

Microsoft declara la guerra a los deepfakes a medida que se acercan las elecciones estadounidenses

Microsoft declara la guerra a los deepfakes a medida que se acercan las elecciones estadounidenses

Microsoft tiene como objetivo el contenido falsificado que se utiliza para manipular las creencias y opiniones públicas, dijo la compañía en un comunicado hoy. Este contenido se crea utilizando tecnologías de inteligencia artificial cada vez más accesibles para la gente común, capaz de generar contenido realista y difícil de detectar a simple vista.

Microsoft había lanzado previamente su programa Defending Democracy, que está diseñado para contener la información errónea que se propaga a través de las redes sociales para influir en el resultado de las elecciones. Una forma particularmente problemática de desinformación se llama ‘deepfakes’ y puede incluir todo, desde una imagen estática generada o modificada por IA hasta videos que aparentemente muestran a un político u otras personas diciendo o haciendo cosas que realmente no sucedieron.

Aunque una solución a largo plazo a este problema es difícil debido a la naturaleza de la inteligencia artificial, Microsoft señala que, por el momento, se está enfocando en los próximos meses en un esfuerzo por ayudar a proteger el resultado de las elecciones presidenciales de Estados Unidos. Ahí es donde entra en juego la herramienta de detección Microsoft Video Authenticator recientemente anunciada.

Como sugiere su nombre, Video Authenticator puede analizar los medios, tanto imágenes como videos, y producir una “puntuación de confianza” que muestra la probabilidad de que los medios hayan sido manipulados. Los usuarios tienen un porcentaje de probabilidad en tiempo real para cada fotograma de contenido, según Microsoft, que dice que su tecnología funciona buscando elementos sutiles como tonos de gris, límites de desvanecimiento y fusión.

La herramienta es capaz de detectar elementos que un espectador humano podría no ser capaz de ver a simple vista, lo que la convierte en una tecnología útil contra la interferencia electoral. Microsoft dice que entrenó la herramienta usando el conjunto de datos público Face Forensic ++ y luego la probó usando el conjunto de datos DeepFake Detection Challenge.

En cuanto a la realidad a largo plazo de tales tecnologías, Microsoft explica:

Esperamos que los métodos de generación de medios sintéticos sigan creciendo en sofisticación. Dado que todos los métodos de detección de IA tienen tasas de falla, debemos comprender y estar preparados para responder a las falsificaciones profundas que escapan a los métodos de detección. Por tanto, a largo plazo, debemos buscar métodos más sólidos para mantener y certificar la autenticidad de los artículos de noticias y otros medios. Hoy en día, existen pocas herramientas que ayuden a asegurar a los lectores que los medios que están viendo en línea provienen de una fuente confiable y no han sido alterados.

You may also like

Leave a reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

More in Gadgets