Seguridad

La creciente amenaza de los deepfakes armados

El Comité de Inteligencia de la Cámara de Representantes de EE. UU. escuchó el testimonio de expertos la semana pasada sobre la creciente amenaza de los «deepfakes» (videos manipulados y otra desinformación generada por inteligencia artificial) y sus implicaciones para las elecciones de 2020 y la nación en general. .

Las técnicas conocidas colectivamente como «deepfakes» se pueden usar para combinar o superponer imágenes y videos existentes con otras imágenes o videos aprovechando la inteligencia artificial o las técnicas de «red antagónica generativa» de aprendizaje automático.

Estas funciones permiten la creación de videos falsos de celebridades, incluido contenido pornográfico, así como la difusión de noticias falsas y otros engaños maliciosos.

Un video manipulado de la presidenta de la Cámara de Representantes, Nancy Pelosi, demócrata por California, circuló ampliamente en línea antes de la audiencia, haciéndola parecer débil. El video se ha vuelto viral en las redes sociales y ha sido visto más de 2,5 millones de veces en Facebook.

Los deepfakes se han convertido en una preocupación bipartidista, y tanto demócratas como republicanos expresan su preocupación por el uso de videos manipulados como herramienta de desinformación.

El Comité de Inteligencia de la Cámara escuchó el testimonio de cuatro expertos diferentes en inteligencia artificial y desinformación sobre los riesgos potenciales de las falsificaciones profundas para el gobierno de EE. UU. y, de hecho, para la democracia. Sin embargo, un experto también advirtió que las falsificaciones profundas podrían representar una amenaza para el sector privado. Uno de esos escenarios podría involucrar un video falso que muestre a un director ejecutivo cometiendo un delito. Poner tales videos en el mercado podría afectar el precio de las acciones de la compañía.

Ya sea en la política o en los negocios, incluso si se desacredita un video, el daño puede ser duradero.

historia profunda

El término «deepfakes» apareció por primera vez en 2017, pero la capacidad de modificar y manipular videos se remonta al lanzamiento en 1997 del programa VideoRewrite. diferentes pistas de audio.

La tecnología de combinar video y alterar lo que se dice se ha utilizado en Hollywood por más tiempo, pero a menudo es una tarea costosa y que requiere mucho tiempo. Por ejemplo, la película Forrest Gump requirió un equipo de artistas para convertir el personaje de Tom Hanks en imágenes históricas. Ahora, más de 20 años después, los resultados no son tan buenos como los que ofrece el software actual.

Programas simples como FakeApp, lanzado en enero de 2018, permiten a los usuarios manipular fácilmente videos y cambiar caras. La aplicación utiliza redes neuronales artificiales y solo 4 GB de almacenamiento para generar videos.

La calidad y el detalle del video dependen de la cantidad de material visual disponible, pero teniendo en cuenta que las figuras políticas de la actualidad aparecen en cientos de horas de metraje, es bastante fácil hacer un video atractivo.

lucha contra las falsificaciones

Se están desarrollando tecnologías para combatir las falsificaciones profundas. El Instituto de Ciencias de la Información de la USC ha desarrollado una herramienta que puede detectar falsificaciones con una precisión de hasta el 96 por ciento. Es capaz de detectar movimientos faciales y de la cabeza sutiles, así como «artefactos» de video únicos (distorsiones de medios notables causadas por la compresión) que también pueden indicar que el video ha sido manipulado.

Los enfoques anteriores para detectar falsificaciones profundas requerían un análisis cuadro por cuadro de los videos, pero los investigadores de USC ISC han desarrollado una herramienta que se ha probado en más de 1,000 videos y demostró ser menos intensiva en computación.

Cuando los videos se cargan en Facebook y otras plataformas de redes sociales, pueden tener el potencial de expandirse y usarse para la detección automática y, lo que es más importante, rápida, de falsificaciones. Esto permite la detección casi en tiempo real, lo que evita que dichos videos se propaguen.

Los investigadores del ISI de la USC se basaron en un proceso de dos pasos. Comienza cargando cientos de ejemplos de videos verificados de una persona. Luego, un algoritmo de aprendizaje profundo llamado «red neuronal convolucional» permitió a los investigadores identificar características y patrones en la cara de un individuo. Estas herramientas pueden determinar si el video ha sido manipulado al comparar el movimiento y las características faciales.

Los resultados son similares a los lectores biométricos que pueden reconocer rostros, escaneos de retina o huellas dactilares, pero al igual que esas tecnologías, se necesita una línea de base para comparar. Esto puede ser fácil para celebridades como la presidenta de la Cámara de Representantes, Nancy Pelosi, o el actor Tom Hanks, pero puede no serlo para la gente común, ya que las bases de datos existentes de videoclips pueden ser limitadas o inexistentes.

probable que esté armado

Las falsificaciones profundas tienen el potencial de ser peores y más dañinas que las imágenes “modificadas con Photoshop”, tanto a nivel individual como a nivel nacional.

«Hay un mundo de diferencia entre las imágenes retocadas con Photoshop y los videos asistidos por IA, y las personas deberían preocuparse por las falsificaciones profundas debido a su mayor realismo y potencial para convertirse en armas», advierte Usman Rahim, gerente de operaciones y seguridad digital. confianza en los medios.

Una de las razones es la aceptación actual de que las fotos se pueden modificar, tanto que estas imágenes se han ganado el apodo de «falsificaciones baratas». El video es un campo nuevo.

“Muy pocas personas se dan cuenta de cuán realistas se han vuelto los videos falsos y cuán fácilmente se pueden producir para difundir desinformación, dañar la reputación o socavar el proceso democrático”, dijo Rahim a E-Commerce Times.

«En las manos equivocadas, las falsificaciones profundas difundidas a través de Internet, especialmente las redes sociales, pueden tener un impacto enorme en las personas y, en términos más generales, en las sociedades y las economías», agregó.

El profesor asociado señaló: «Además de los riesgos de seguridad nacional, por ejemplo, videos falsos utilizados por líderes mundiales para incitar al terrorismo, los riesgos políticos son particularmente altos en una elección nacional competitiva como la de 2020, donde múltiples candidatos buscan derrocar un titular controvertido” Larry Parnell, Director de Programas Estratégicos de Relaciones Públicas Escuela de Graduados en Administración Política en la Universidad George Washington.

«Cualquiera de las partes podría querer entrar en acción, lo que haría que los trucos sucios de la ‘vieja escuela’ parecieran planos», dijo a E-Commerce Times. «Hemos visto cómo se usaron las redes sociales para influir en las elecciones nacionales de 2016. En comparación con el progreso que ha tenido esta tecnología en los últimos dos o tres años, parece un juego de niños».

Más allá de los riesgos políticos y de seguridad

Deepfakes puede plantear problemas a un nivel más personal y personal. La técnica se ha utilizado para crear videos porno de venganza, y es posible que pueda usarse para otros propósitos siniestros o nefastos.

«En manos de niños sin supervisión, los deepfakes pueden llevar el ciberacoso al siguiente nivel», dice confianza en los mediosRahim.

«Imagínese lo que sucedería si las imágenes de nosotros mismos o de nuestros hijos se usaran y circularan en línea», agregó.

Parnell de GW advirtió: «Incluso podemos ver videos falsos y publicaciones en redes sociales que se utilizan como evidencia contra figuras controvertidas en procedimientos legales para silenciarlos o socavar su credibilidad».

Ha habido llamados para responsabilizar a la industria tecnológica por crear falsificaciones profundas.

«Si crea un software que permite a los usuarios crear falsificaciones profundas, incurrirá en daños significativos e incluso puede ser considerado penalmente responsable», dijo Anirudh Ruhil, profesor de la universidad. Escuela Voinovich de Liderazgo y Asuntos Públicos en la Universidad de Ohio.

«Si eres una red social u otra plataforma tecnológica que difunde deepfakes, serás responsable y pagarás daños, e incluso puedes ser encarcelado», dijo a E-Commerce Times.

“Estas son sus únicas opciones de política, porque de lo contrario, está dejando libres las plataformas de redes sociales y los sitios web para comercializar deepfakes a las masas”, agregó Ruhil.

La autoría de videos tan atroces puede no ser fácil de detectar y, en algunos casos, puede ser una forma mundial de hacer posible el enjuiciamiento.

“De alguna manera, esta política es similar al control de armas que uno podría argumentar: apuntar a vendedores de armas capaces de causar destrucción masiva”, explicó Ruhil. «Si permitimos que la industria de la tecnología se salga con la suya, verá una repetición de las mismas luchas que hemos tenido para regular Facebook, YouTube, Twitter, etc.»

contraatacar

La buena noticia sobre los deepfakes es que, en muchos casos, la tecnología aún no es perfecta y hay muchas señales de que los videos han sido manipulados.

Además, ya existen herramientas que ayudan a los investigadores y los medios a separar la realidad de la ficción.

«Las redes sociales y las plataformas, así como los medios tradicionales, pueden usar estas herramientas para identificar falsificaciones profundas y luego eliminarlas o etiquetarlas para que los usuarios no caigan en ellas», dijo Rahim.

Otra solución podría ser tan simple como agregar «ruido digital» a las imágenes y archivos, lo que dificulta su uso para crear falsificaciones profundas.

Sin embargo, al igual que en la ciberseguridad, es probable que los malos estén un paso por delante, por lo que es posible que las soluciones de hoy no resuelvan los métodos de falsificación profunda del mañana.

Es posible que se necesite más esfuerzo para solucionar este problema antes de que sea demasiado grande para resolverlo.

«Si bien este puede ser un proceso continuo y costoso, las principales empresas tecnológicas deberían invertir ahora en tecnologías emergentes para detectar falsificaciones profundas», sugirió Parnell.

«DARPA y otras empresas gubernamentales y del sector privado están desarrollando software que se puede usar porque la alternativa es ser sorprendido y criticado públicamente por no hacerlo, y como resultado sufrir un grave daño a la reputación», agregó.

Por ahora, lo mejor que podría pasar es que los editores y las plataformas de redes sociales llamen y eliminen las falsificaciones profundas, lo que ayudaría a restaurar la confianza.

«Si no lo hacen, su credibilidad seguirá disminuyendo y participarán en la desaparición de su negocio», dijo Raheem.

“La desconfianza hacia las plataformas de redes sociales en particular va en aumento, y se las considera una amenaza casi tan grande como los piratas informáticos”, advirtió.

“La era de priorizar la monetización de los datos del consumidor a expensas de mantener o recuperar la confianza del consumidor está dando paso a una nueva era en la que la confianza en línea está estrechamente relacionada con el aumento de los resultados”, señaló Rahim. «Los medios sociales y tradicionales también pueden ser una fuerza para el bien al exponer a los malos actores y aumentar la conciencia de los consumidores sobre la prevalencia y la amenaza de las falsificaciones profundas».

LEER  La nueva plataforma empuja datos, tubería sucia y túnel DNS contaminan la plomería de Linux

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba