Dieciocho países, entre los que se encuentran Estados Unidos, el Reino Unido, Alemania, Italia, Australia y Singapur, han llegado a un acuerdo para fortalecer la seguridad en el diseño de la inteligencia artificial (IA). Se trata de una primicia mundial en términos de reglas internacionales enfocadas en el desarrollo de sistemas de IA seguros desde su concepción y en la protección de estas tecnologías contra actores malintencionados.
Un acuerdo internacional para fortalecer la ciberseguridad de la inteligencia artificial
Según Jen Easterly, directora de la Agencia estadounidense de ciberseguridad y seguridad de infraestructuras (CISA), es importante que los países reconozcan que el desarrollo de la IA requiere un enfoque centrado en la seguridad. Es la primera vez que se alcanza un consenso para otorgar más importancia a la seguridad que a la funcionalidad, la rapidez en la comercialización o la reducción de costos en el ámbito de la IA.
Los textos fundacionales de una nueva era de ciberseguridad
El Centro nacional de ciberseguridad británico (NCSC) considera estos primeros textos como los primeros pasos hacia otras regulaciones futuras. La ambición es ayudar a los desarrolladores a tomar decisiones informadas en materia de ciberseguridad en cada etapa del proceso de desarrollo. El objetivo es asegurar que la seguridad se convierta en una condición sine qua non para cualquier sistema de inteligencia artificial y que esté en el centro del trabajo de desarrollo de cada componente durante todo el proceso. Con motivo del lanzamiento de esta operación, un centenar de socios clave de la industria, gobiernos y agencias internacionales se reunirán, incluyendo Microsoft, el Instituto Alan Turing y las agencias de ciberseguridad británica, estadounidense, canadiense y alemana.
Un compromiso colectivo para garantizar un desarrollo seguro de la IA
El domingo 26 de noviembre, países como Estados Unidos, Reino Unido, Francia y una docena más firmaron este acuerdo para fortalecer la ciberseguridad de la inteligencia artificial. Se trata del primer acuerdo internacional detallado que busca proteger la inteligencia artificial de actores malintencionados y fomentar que las empresas creen sistemas de IA seguros desde su diseño. Para ello, la CISA y el NCSC han publicado nuevas directrices sobre el desarrollo de sistemas de IA seguros que ayudarán a los desarrolladores a tomar decisiones informadas en materia de ciberseguridad en cada etapa del proceso de desarrollo.
Recomendaciones para asegurar la seguridad en el ámbito de la IA
Estas directrices, firmadas por las agencias de 18 países, tienen como objetivo elevar los niveles de ciberseguridad de la inteligencia artificial y contribuir así a garantizar que sea diseñada, desarrollada y desplegada de forma segura. Jen Easterly subraya que la publicación de estas directrices marca «un paso clave en nuestro compromiso colectivo – de los gobiernos de todo el mundo – para asegurar un desarrollo y despliegue seguros de las capacidades de IA desde su concepción». Aunque no se trata de un acuerdo vinculante, contiene principalmente recomendaciones generales como la supervisión de los sistemas de IA frente a abusos, la protección de los datos contra la falsificación y el control de los proveedores de software.
Una declaración internacional sin precedentes para anticipar los riesgos de la IA
El acuerdo también busca abordar las preguntas sobre cómo prevenir el uso indebido de la tecnología de inteligencia artificial por parte de hackers. Incluye recomendaciones como la publicación de modelos únicamente después de haber realizado pruebas de seguridad adecuadas. En total, son 28 países, incluidos Estados Unidos, Reino Unido, los Estados miembros de la Unión Europea y China, los que han firmado la Declaración de Bletchley con el objetivo de anticipar los riesgos potenciales que plantea la inteligencia artificial. La Declaración de Bletchley representa la primera declaración internacional sobre la IA, con todos los países de acuerdo en que esta tecnología representa un riesgo potencialmente catastrófico para la humanidad.
En un momento en que la inteligencia artificial ocupa un lugar cada vez más importante en nuestra sociedad, este acuerdo internacional y las medidas anunciadas constituyen un paso importante hacia la garantía de un desarrollo seguro y responsable de esta tecnología crucial. La cooperación entre los diferentes países y actores deberá continuar para prevenir de manera efectiva los riesgos inherentes a la creciente utilización de la IA en diversos ámbitos.