El lunes, Sundar Pichai, director ejecutivo de Google y la empresa matriz Alphabet, pidió la regulación gubernamental de la tecnología de inteligencia artificial en un discurso en el grupo de expertos Bruegel de Bruselas y un artículo de opinión en el Financial Times.
No hay duda de que la IA debería estar regulada, según se informa, dijo Pichai en Bruselas. La pregunta es cuál es la mejor manera.
Agregó que la regulación sensata debe adoptar un enfoque proporcionado, equilibrando los daños potenciales con los beneficios potenciales, y podría incorporar las normas existentes, como el Reglamento General de Protección de Datos de la UE.
“Necesitamos estar sobrios sobre lo que podría salir mal”, escribió Pichai en su columna del Financial Times. «La gente se preocupa por las posibles consecuencias negativas de la IA, desde falsificaciones profundas hasta usos maliciosos del reconocimiento facial».
Prometió ser un socio útil para los reguladores y brindarles los conocimientos, la experiencia y las herramientas de Google para abordar los problemas relacionados con la IA.
“La inteligencia artificial tiene el potencial de mejorar la vida de miles de millones de personas, y quizás el mayor riesgo es no hacerlo”, escribió. «Al asegurarnos de que se desarrolle de manera responsable de una manera que beneficie a todos, podemos inspirar a las generaciones futuras a creer en el poder de la tecnología como lo hago yo».
Tabla de Contenidos
‘salsa bastante débil’
El editorial de Pichai es «una salsa bastante débil», Escrito por el empresario, periodista y autor John Battelle En Searchblog, encontró una cita de Pichai que vale la pena señalar: «Las empresas como la nuestra no pueden simplemente desarrollar una nueva tecnología prometedora y dejar que las fuerzas del mercado decidan cómo usarla».
Battelle sugirió que Pichai se dio cuenta de esto tarde.
«Ojalá Google, Facebook, Amazon y Apple tuvieran esta opinión antes de construir el sistema impulsado por IA (es decir, el capitalismo de vigilancia) en el que ahora vivimos juntos», escribió.
Greg Sterlingvice, presidente de Market Insights, con sede en Berlín, dijo que Pichai tenía razón al decir que la IA debe ser reguladaUberfabricante de soluciones de marketing de posicionamiento.
«La sociedad no puede permitir que las empresas de tecnología se autorregulen utilizando tecnología de la que se abusa fácilmente», dijo Sterling a E-Commerce Times. «Esto ya está sucediendo en China y en otros lugares».
Dicho esto, la forma que tomará la regulación específica y qué tan global será el consenso, aún está en debate, señaló.
«Al menos en los EE. UU., el gobierno necesita consultar a muchos expertos y luego crear leyes y regulaciones que permitan la innovación, pero no el uso de estas tecnologías con fines discriminatorios», dijo Sterling.
«Las decisiones sobre contratación, atención médica, seguros, etc. no deben ser tomadas por AI sin ética, ética y bien social», continuó.
«El aprendizaje automático y la IA harán lo que sea que estén programados para hacer, lo que sea que pida el algoritmo», agregó Sterling. “Los humanos tienen que establecer límites en la aplicación de estas tecnologías y trazar límites absolutos en torno a ciertos casos de uso para evitar que los malhechores los utilicen indebidamente”.
La piedra angular de la regulación inteligente
«Lo que más aprecio del artículo de Sundar Pichai es su reconocimiento de que el documento de Principios de IA será una fuente importante de establecimiento de normas y facilitará el desarrollo de una regulación sólida», dijo Jessica Fjeld, subdirectora de Harvard Cyber Law. Clínica Centro Berkman Klein para Internet y Sociedaddijo a E-Commerce Times.
Tres docenas de documentos de principios de IA bien conocidos forman la base del informe de ética de IA publicado la semana pasada por Fjeld y Nele Achten, Hannah Hilligoss, Adam Christopher Nagy y Madhulika Srikumar.
En el documento, los investigadores identificaron ocho temas comunes que podrían formar el núcleo de cualquier enfoque basado en principios para la ética y la gobernanza de la IA:
- Privacidad: los sistemas de IA deben respetar la privacidad de las personas.
- Responsabilidad: se deben establecer mecanismos para garantizar que los sistemas de IA rindan cuentas y se deben tomar medidas correctivas para resolver los problemas.
- Seguridad y protección: los sistemas de IA deben funcionar según lo previsto y no verse comprometidos.
- Transparencia y explicabilidad: los sistemas de IA deben diseñarse e implementarse para permitir la supervisión.
- Equidad y no discriminación: los sistemas de IA deben diseñarse para maximizar la equidad y la inclusión.
- Control humano de la tecnología: las decisiones importantes deben ser revisadas por humanos.
- Responsabilidad profesional: los desarrolladores de sistemas de IA deben asegurarse de consultar a todas las partes interesadas en el sistema y planificar el impacto a largo plazo.
- Promoción de los valores humanos: los objetivos y la implementación de la IA deben promover el bienestar humano.
Los investigadores señalaron que los ocho temas brindan una visión ética y respetuosa de los derechos humanos de los requisitos fundamentales de la inteligencia artificial.
«Sin embargo, existe una brecha grande e intratable entre la representación de estos conceptos de alto nivel y su logro real en el mundo real», agregaron.
dificil de regular
Si bien los reguladores pueden estar decididos a mantener la IA bajo control, pueden encontrar la tarea desalentadora.
«La realidad es que una vez que se introduce la tecnología, la gente trata de usarla», dijo el analista principal Jim McGregor. Investigación Tiriasuna empresa de consultoría e investigación de alta tecnología con sede en Phoenix.
“Toda la idea de la regulación es estúpida. La IA se usará de buenas y malas maneras”, dijo a E-Commerce Times.
“Quieres limitar las cosas malas, y quieres que la gente use y desarrolle tecnología con respeto e integridad, pero se cometerán errores y algunas personas la usarán maliciosamente”, dijo McGregor. «Mira la tecnología que Google, Facebook y otros están haciendo para rastrear personas, monitorear información y compartir datos».
Agregó que a medida que la IA se propaga, será cada vez más difícil regular la IA.
«Para 2025, no podrá comprar una sola plataforma electrónica que no use inteligencia artificial, ya sea una solución local, en la nube o híbrida», predice McGregor.
«Se puede usar para algo tan simple como administrar la energía de la batería, o tan complejo como operar un automóvil autónomo”, dijo. «Cada vez que surge una nueva tecnología, siempre hay una parte subconsciente de la población que reacciona: ‘Esto es genial Terrible. Todo lo nuevo es malo. En general, sin embargo, la tecnología beneficia a la humanidad”.