Seguridad

La IA potencialmente maliciosa está al frente y al centro en un nuevo informe

A pesar de todos sus beneficios, la inteligencia artificial tiene su lado oscuro.El lado oscuro es el tema central de 100 páginas Informe Un grupo de organizaciones tecnológicas, académicas y sin fines de lucro publicaron conjuntamente la noticia el martes.

El informe predice que los actores de amenazas aprovecharán la inteligencia artificial para aumentar la escala y la eficiencia de sus ataques. Lo utilizarán para alterar sistemas físicos como drones y automóviles sin conductor, y para amplificar sus capacidades de violación de la privacidad y manipulación social.

Eran de esperar nuevos ataques, dijeron los investigadores, aprovechando la mayor capacidad para analizar el comportamiento, las emociones y las creencias humanas basándose en los datos existentes.

«Necesitamos comprender que los algoritmos son realmente buenos para manipular a los humanos», dijo el científico informático Peter Eckersley. Fundación Frontera Electrónica.

Necesitamos desarrollar sistemas inmunológicos individuales y sociales contra ellos», dijo a E-Commerce Times.

La EFF es uno de los iniciadores del informe, junto con el Future of Humanity Institute, el Centro de Investigación de Riesgos Existenciales de la Universidad de Oxford, la Universidad de Cambridge, el Centro para una Nueva Seguridad Estadounidense y OpenAI.

más noticias falsas

El informe, Uso malicioso de la inteligencia artificial: predicción, prevención y mitigación, señala que la manipulación del comportamiento humano es una preocupación primordial en el contexto de estados autoritarios, pero también puede socavar la capacidad de las democracias para sostener un debate público genuino.

«Veremos la creación de imágenes y vídeos sintéticos o falsos más convincentes, y la corrupción del espacio informativo», afirmó Jack Clark, director de estrategia y comunicaciones. inteligencia artificial abiertaes una empresa de investigación sin fines de lucro cofundada por el director ejecutivo de Tesla y SpaceX, Elon Musk.

«Vamos a ver más propaganda y noticias falsas», dijo Clark al E-Commerce Times.

Exley de la EFF señala que existe un vínculo crucial entre la seguridad informática y el uso de inteligencia artificial con fines maliciosos.

«Necesitamos recordar que si las computadoras en las que implementamos nuestros sistemas de aprendizaje automático no son seguras, las cosas no irán bien a largo plazo, por lo que necesitamos muchas nuevas inversiones en seguridad informática», dijo.


«La IA puede mejorar o empeorar la ciberseguridad», continuó Exley, «y realmente necesitamos usarla con fines defensivos para hacer que nuestros dispositivos sean más estables, seguros y confiables».

obstaculizar la innovación

En respuesta al cambiante panorama de amenazas en ciberseguridad, los investigadores e ingenieros que trabajan en el desarrollo de la IA deberían tomar en serio la naturaleza de doble uso de su trabajo, recomienda el informe. Esto significa que las consideraciones relacionadas con el abuso deben influir en el enfoque y las normas de la investigación.

El informe pide una reinvención de las normas e instituciones en torno a la apertura de la investigación, incluidas evaluaciones de riesgos previas a la publicación para áreas técnicas de particular interés, modelos de licencias de acceso centralizado y regímenes de intercambio que faciliten la seguridad.

Sin embargo, las recomendaciones inquietaron al director de la comisión, Daniel Castro. Centro de innovación de datos.

«Pueden frenar el desarrollo de la inteligencia artificial. Abandonarán el modelo innovador que ha tenido éxito en el campo tecnológico», dijo al E-Commerce Times.

«La IA se puede utilizar para muchos propósitos diferentes», añadió Castro. «La IA podría usarse para malos propósitos, pero el número de personas que intentan hacerlo es bastante limitado».

Avance y ética

Al publicar el informe, los investigadores esperan estar a la vanguardia de la política de IA.

Exley de EFF explicó: «En muchas conversaciones sobre políticas tecnológicas, está bien esperar hasta que un sistema esté ampliamente implementado antes de detallar las preocupaciones de que pueda salir mal o ser mal utilizado, pero cuando tienes un sistema enormemente transformador y conoces las precauciones de seguridad que deseas Llevará años implementarlo, por lo que hay que empezar muy pronto”.

Sin embargo, el problema con la formulación de políticas públicas es que rara vez responde tempranamente a los problemas.

«Este informe es el ‘canario en la mina de carbón'», dijo Ross Rustici, director senior de inteligencia. racionalidad de internet.


«Si podemos lograr que la comunidad política avance en esto, si podemos lograr que los investigadores se centren en la ética de la implementación de la tecnología en lugar de en la novedad y la ingeniería de la tecnología, podríamos estar en una mejor posición», dijo a E-Commerce. Veces. «Pero si la historia nos muestra algo, esas dos cosas casi nunca suceden. Rara vez vemos avances científicos que aborden sus consecuencias éticas antes de que sucedan».

LEER  Google muestra IA, promociona la privacidad en el discurso de apertura de E/S

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba