La integración de la Inteligencia Artificial Generativa en el ámbito del comercio revoluciona las prácticas establecidas, pero conlleva una multitud de riesgos de seguridad. El entusiasmo por esta tecnología innovadora se acompaña de una *vigilancia incrementada* ante las crecientes amenazas. Los recientes informes alertan sobre el hecho de que la adopción de estas herramientas expone a las empresas a violaciones de datos preocupantes.
Los datos sensibles, incluyendo el código fuente de las empresas, se ven comprometidos, suscitando preguntas sobre la gestión de la seguridad. El uso imprudente de estas aplicaciones por parte de los empleados intensifica esta amenaza, provocando violaciones regulatorias alarmantes. La necesidad de una gobernanza rigurosa y proactiva se revela ineludible en este panorama en constante evolución.
La Adopción de la Inteligencia Artificial Generativa en el Comercio
El sector del comercio se distingue por una adopción significativa de la Inteligencia Artificial generativa, con el 95 % de las empresas integrando ahora estas aplicaciones. Esta adopción masiva representa un aumento espectacular en comparación con el año anterior, cuando solo el 73 % de las organizaciones habían dado el paso. Este fenómeno revela la urgencia que sienten los minoristas para evitar quedar rezagados en el mercado.
Los Peligros de la Inteligencia Artificial
A pesar de las ventajas innegables, la incorporación de estas herramientas expone a las empresas a una multitud de riesgos. La integración de la IA incrementa la superficie de ataque para la ciberdelincuencia, generando un alto potencial de filtraciones de datos sensibles. Los estudios recientes realizados por Netskope ilustran esta alarmante realidad al mostrar violaciones de políticas de datos alcanzando cifras máximas en el sector.
Transición hacia un Enfoque Más Controlado
El informe destaca un cambio de mentalidad en el sector, pasando de una adopción caótica a una gestión más seria y corporativa. El uso de cuentas personales para la IA generativa ha caído dramáticamente, pasando del 74 % al 36 %. Al mismo tiempo, el uso de herramientas de IA aprobadas por las empresas ha más que duplicado, alcanzando el 52 % de las organizaciones.
La Popularidad de las Herramientas de IA
ChatGPT sigue siendo el campeón indiscutible de la adopción, utilizado por el 81 % de las empresas. Sin embargo, Google Gemini y Microsoft Copilot no tardaron en imponerse, alcanzando respectivamente el 60 % y el 56 %. La reciente caída de popularidad de ChatGPT, junto con el poderío de Microsoft 365 Copilot, sugiere un cambio en las preferencias de las empresas hacia integraciones más eficaces.
Los Riesgos de Seguridad Aumentados
Los desafíos relacionados con la seguridad se ven exacerbados por el tratamiento de grandes cantidades de datos sensibles en estas herramientas. Las violaciones de políticas de datos revelan que el 47 % de los problemas provienen del código fuente de las empresas, seguido de datos regulados, como la información confidencial, en un 39 %.
Regulaciones y Prohibiciones de Aplicaciones Arriesgadas
Frente a estos desafíos de seguridad, un número creciente de minoristas opta por prohibir ciertas aplicaciones consideradas demasiado arriesgadas. ZeroGPT aparece frecuentemente entre las que figuran en las listas negras, debido a preocupaciones relacionadas con la conservación de contenido de usuario y las redirecciones de datos hacia sitios de terceros.
Plataformas de IA Empresarial
La creciente precaución lleva a las empresas minoristas a recurrir a plataformas de IA empresariales más serias, ofrecidas por grandes proveedores de servicios en la nube. Estas soluciones permiten un mayor control, favoreciendo el alojamiento privado de modelos y el desarrollo de herramientas personalizadas. OpenAI a través de Azure y Amazon Bedrock comparten el primer lugar, siendo utilizados respectivamente por el 16 % de las empresas.
Riesgos de Integración Inadecuada
A pesar de estas soluciones, el riesgo persiste. Una mala configuración podría exponer los sistemas estratégicos de una empresa a ataques. Un estudio indica que el 63 % de las organizaciones conectan directamente su infraestructura a las API de OpenAI, incorporando la IA profundamente en sus sistemas traseros y flujos de trabajo automatizados.
Malware y Prácticas de Seguridad en la Nube
Los ataques se desarrollan aprovechando nombres de confianza. Plataformas como Microsoft OneDrive resultan ser vectores comunes de malware, afectando al 11 % de los minoristas cada mes, mientras que GitHub está involucrado en el 9,7 % de los ataques. Estas vulnerabilidades son a menudo amplificadas por el uso de aplicaciones personales en el trabajo.
Políticas de Protección de Datos
El uso no controlado de aplicaciones personales contribuye a aumentar las violaciones de datos. Las plataformas de redes sociales como Facebook y LinkedIn son parte integral del entorno laboral moderno, siendo utilizadas por el 96 % y el 94 % de las empresas, respectivamente. La exposición de datos regulados al cargarlos en aplicaciones no aprobadas representa el 76 % de las violaciones.
La Urgencia de una Gestión Estricta
Los resultados del estudio de Netskope deben alentar a los líderes del sector a actuar sin demora. Una visibilidad completa de todo el tráfico web, la restricción de aplicaciones de alto riesgo y la aplicación de políticas estrictas de protección de datos se vuelven necesarias para evitar violaciones potenciales y desastrosas.
Preguntas frecuentes sobre la Inteligencia Artificial Generativa en el Comercio: Los Costos de Seguridad que Apuestan por la Adopción
¿Cuáles son los principales riesgos de seguridad asociados con la adopción de la Inteligencia Artificial Generativa en el sector del comercio?
Los principales riesgos incluyen la exposición de datos sensibles como el código fuente de las empresas, así como una vulnerabilidad a ciberataques debido a la gran superficie de ataque creada por estas herramientas.
¿Cómo pueden las empresas de comercio proteger sus datos al utilizar la Inteligencia Artificial Generativa?
Las empresas deben establecer políticas de protección de datos estrictas, prohibir el uso de aplicaciones no aprobadas e invertir en plataformas de IA reconocidas que ofrezcan un mayor control sobre los datos.
¿Qué aplicaciones de Inteligencia Artificial Generativa son las más comúnmente utilizadas en el sector del comercio?
ChatGPT es la plataforma más utilizada, seguido de Google Gemini y las herramientas de Microsoft Copilot, que también son populares entre las empresas del sector.
¿Por qué la gestión de la IA en las empresas se ha vuelto tan crucial en el sector del comercio?
Con el aumento del uso de la IA, las empresas deben monitorear y controlar el uso de estas tecnologías para evitar violaciones de datos que pueden tener consecuencias legales y financieras graves.
¿Qué medidas están tomando las empresas para evitar el fenómeno del «shadow AI»?
Las empresas adoptan herramientas de IA aprobadas por la organización, reduciendo así el uso de aplicaciones personales y asegurando una mejor conformidad en materia de seguridad de datos.
¿En qué medida la integración de API de IA en los sistemas internos de las empresas representa un riesgo adicional?
La integración directa de API de IA en sistemas internos aumenta la complejidad y la probabilidad de filtraciones de datos, especialmente si ocurre una mala configuración.
¿Qué tipos de datos son los más comprometidos cuando una empresa utiliza la Inteligencia Artificial Generativa?
Los datos más a menudo comprometidos incluyen el código fuente de la empresa y datos regulados, como la información confidencial de los clientes.
¿Qué papel juega la concienciación de los empleados en la mitigación de los riesgos asociados con la IA en las empresas?
La concienciación de los empleados es esencial, ya que ayuda a reducir los riesgos relacionados con el uso de servicios no aprobados que pueden llevar a violaciones de datos significativas.
¿Cuáles son las mejores prácticas que los responsables de la seguridad deben seguir al adoptar soluciones de IA?
Deben garantizar una visibilidad completa sobre todo el tráfico web, bloquear las aplicaciones de alto riesgo y aplicar políticas de protección de datos estrictas para controlar la información que puede ser compartida.