Seguridad

Líderes de TI y seguridad confundidos por la inteligencia artificial e inseguros de los riesgos de seguridad

Los empleados de casi tres cuartas partes de las organizaciones de todo el mundo utilizan de forma regular u ocasional herramientas de IA generativa, pero a pesar de las amenazas a la seguridad que plantea el uso incontrolado de estas aplicaciones, los empleadores no parecen saber qué hacer.

Ésa es una de las conclusiones clave de una encuesta realizada a 1.200 líderes de TI y seguridad de todo el mundo publicada el martes. saltos extraun proveedor con sede en Seattle de soluciones de respuesta y detección de redes nativas de la nube.

Si bien el 73% de los líderes de seguridad y TI encuestados admitieron que sus empleados utilizan regularmente herramientas de IA generativa, los investigadores de ExtraHop informan que menos de la mitad de las organizaciones (46%) cuentan con políticas o procedimientos para regular el uso de la IA. uso de aplicaciones (42%).

La mayoría de las organizaciones se toman en serio los beneficios y riesgos de la tecnología de IA (solo el 2 % dijo que no toman medidas para monitorear el uso de las herramientas de IA generativa por parte de los empleados); sin embargo, los investigadores creen que sus esfuerzos son claros. Las tasas de adopción no se mantienen al día y la efectividad de algunas de sus acciones, como las prohibiciones, pueden ser cuestionables.

Los resultados de la encuesta muestran que casi un tercio de los encuestados (32%) dijeron que su organización ha prohibido la IA generativa. Sin embargo, sólo el 5% dijo que los empleados nunca utilizan inteligencia artificial o grandes modelos de lenguaje en el trabajo.

«La prohibición rara vez tiene el efecto deseado, y esto parece ser cierto también para la inteligencia artificial», escribieron los investigadores.

restringir pero no prohibir

Randy Lariar dijo: «Si bien es comprensible por qué algunas organizaciones prohibirían el uso de la IA generativa, la realidad es que la IA generativa está avanzando tan rápido que pronto será prohibida en el lugar de trabajo. Es como impedir que los empleados accedan a sus navegadores web». , Big Data, Inteligencia Artificial y Práctica de Análisis otifes un proveedor de soluciones de ciberseguridad con sede en Denver.

«Las organizaciones deben adoptar nuevas tecnologías y cambiar el enfoque de bloquearlas en el lugar de trabajo a adoptarlas de forma segura y confiable», dijo a TechNewsWorld.

Patrick Harr, director ejecutivo barra siguienteUna empresa de ciberseguridad con sede en Pleasanton, California, está de acuerdo. «Restringir el uso de aplicaciones de IA generativa de código abierto en las organizaciones es un paso prudente que permitirá el uso de herramientas importantes sin una prohibición total», dijo a TechNewsWorld.

«A medida que estas herramientas continúan aumentando la productividad», continuó, «los ejecutivos saben que se deben implementar las barreras de privacidad adecuadas para garantizar que los usuarios no compartan información de identificación personal y que los datos privados sigan siendo privados».


relacionado: Los expertos dicen que las prohibiciones de IA en el lugar de trabajo no funcionarán 16 de agosto de 2023


Los directores de seguridad de la información (CISO) y los directores de información (CIO) deben equilibrar la necesidad de limitar los datos confidenciales de las herramientas de inteligencia artificial generativa con la necesidad de que las empresas utilicen estas herramientas para mejorar los procesos y aumentar la productividad, dijo John, vicepresidente de riesgo cibernético. y cumplimiento añadió John Allen. rastros ocultosuna empresa global de inteligencia artificial en ciberseguridad.

«Muchas nuevas herramientas de IA generativa vienen con niveles de suscripción que mejoran la privacidad, por lo que los datos enviados permanecen privados y no se utilizan para ajustar o desarrollar modelos de IA», dijo a TechNewsWorld.

Continuó: “Esto podría abrir la puerta para que las organizaciones involucradas aprovechen las herramientas de inteligencia artificial generativa de una manera más centrada en la privacidad; sin embargo, aún necesitarán garantizar que el uso de datos protegidos cumpla con los requisitos de cumplimiento y notificación relevantes y específicos para ellos. . .Negocio.»

Pasos para proteger tus datos

Allen señaló que además de las políticas corporativas sobre el uso de IA generativa para proteger datos sensibles, las empresas de IA también toman medidas para proteger los datos a través de controles de seguridad, como el cifrado, y obtienen certificaciones de seguridad como SOC 2, un tipo de auditoría). .Procedimientos para garantizar que los proveedores de servicios gestionen de forma segura los datos de los clientes.

Sin embargo, señaló que aún queda la pregunta de qué sucede cuando datos confidenciales ingresan a un modelo, ya sea a través de un sabotaje malicioso o un error desafortunado cometido por un empleado bien intencionado.


«La mayoría de las empresas de inteligencia artificial proporcionan un mecanismo para que los usuarios soliciten la eliminación de datos», dijo, «pero todavía hay dudas sobre si la eliminación afecta, o cómo, el aprendizaje que se realizó sobre los datos antes de la eliminación».

Los investigadores de ExtraHop también descubrieron que la gran mayoría de los encuestados (casi el 82%) dijeron que creían que la pila de seguridad actual de su organización podría protegerla de las amenazas generadas por las herramientas de inteligencia artificial. Sin embargo, los investigadores señalan que el 74% planea invertir en medidas de seguridad de IA de próxima generación este año.

«Esperemos que estas inversiones no lleguen demasiado tarde», bromean los investigadores.

Falta de conocimiento requerido

«Las organizaciones tienen demasiada confianza cuando se trata de defenderse contra las amenazas de seguridad generadas por la IA», dijo a TechNewsWorld Jamie Moles, ingeniero de ventas senior de ExtraHop.

Explicó que el sector empresarial tiene menos de un año para sopesar plenamente los riesgos y beneficios del uso de la IA generativa.

«Dado que menos de la mitad de los encuestados tienen inversiones directas en tecnología que ayuda a monitorear el uso de la IA generativa, está claro que lo más probable es que no tengan la comprensión necesaria de cómo se utilizan estas herramientas en sus organizaciones», observó.

Moles añadió que sólo el 42% de las organizaciones capacitan a los usuarios para utilizar estas herramientas de forma segura, lo que crea riesgos de seguridad adicionales, ya que el uso indebido podría exponer información confidencial.

«Los resultados de la encuesta probablemente indiquen que los encuestados están preocupados por muchas otras tecnologías menos atractivas y probadas en el campo de batalla que los malos actores han estado usando durante años y que la comunidad de ciberseguridad no ha podido detener», dijo el director ejecutivo y director ejecutivo Mike Starr.fundador de siendo rastreadoes un proveedor de soluciones de gestión de vulnerabilidades ubicado en Reston, Virginia.

«Si se les hace la misma pregunta sobre otros vectores de ataque, la respuesta significaría un nivel de confianza mucho menor», afirmó.

Espero que el gobierno intervenga.

Starr también señaló que pocas violaciones de seguridad documentadas, si es que hay alguna, pueden atribuirse directamente al uso de herramientas de inteligencia artificial generativa.

«Los líderes de seguridad tienen suficiente trabajo para combatir las tecnologías anticuadas que los actores de amenazas continúan utilizando con éxito», dijo.


«Un corolario de esta realidad es que los malos actores no se ven obligados a abandonar sus principales vectores de ataque y adoptar enfoques más innovadores», continuó. «No hay ningún incentivo para practicar destellos de doble pulga cuando puedes correr la pelota 10 yardas cada vez».

La encuesta encontró que el 90% de los encuestados dijeron que querían que el gobierno participara de alguna manera, con un 60% apoyando regulaciones obligatorias y un 30% apoyando la orientación en el campo de la inteligencia artificial, lo que sugiere que los líderes de TI y seguridad pueden estar desesperados por recibir orientación en el campo. Se necesita inteligencia artificial. Las empresas pueden decidir qué estándares gubernamentales adoptar.

«El llamado a la regulación gubernamental ilustra el territorio inexplorado en el que nos encontramos cuando se trata de generar inteligencia artificial», explicó Morse. «Debido a que la IA generativa es todavía tan nueva, las empresas están menos seguras de cómo gestionar su uso por parte de los empleados y, con directrices claras, los líderes empresariales pueden sentirse más seguros a la hora de implementar la gobernanza y las políticas para el uso de estas herramientas».

LEER  Estados Unidos y la OTAN acusan a China de pirateo masivo de Microsoft

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba