CIBERPROTECCIÓN

Los entornos de Inteligencia Artificial: nuevo campo de batalla para la ciberseguridad

Apenas un el 37% de las organizaciones cuenta con los procesos necesarios para evaluar la seguridad antes de implementar la IA.

Cibersur.com | 21/10/2025 08:53
La adopción de herramientas de Inteligencia Artificial se está abriendo paso en el día a día de las organizaciones, con sistemas y agentes que permiten realizar tareas con una mínima intervención humana.

Al mismo tiempo que se amplían las posibilidades de esta tecnología, los riesgos de seguridad asociados son cada vez mayores, con nuevos y sofisticados ataques para las infraestructuras TI.  De hecho, tal y como apunta el informe Global Cybersecurity Outlook 2025 del Foro Económico Mundial, solo el 37% de las organizaciones cuenta con los procesos necesarios para evaluar la seguridad antes de implementar la IA.

Teniendo en cuenta este escenario, y en el marco del mes de la ciberseguridad, Tokiota, partner español de Microsoft que desarrolla soluciones de negocio basadas en IA, la nube, infraestructuras securizadas y plataformas de datos, ha detectado cuáles son los principales riesgos en entornos de Inteligencia Artificial, y explica cómo combatirlos.

Fugas de datos a través de prompts

Los sistemas de IA manejan grandes volúmenes de datos y pueden revelar información sensible si no se controlan adecuadamente. Esto es aún más grave en determinados sectores, como el financiero o el sanitario, que operan con información privada y confidencial.

La introducción de prompts con fines maliciosos puede manipular el comportamiento del modelo y hacer que este releve información restringida que no debería proporcionar atendiendo a su configuración de seguridad.

Para hacer frente a esta técnica, denominada Prompt Injection, es importante disponer de una auditoría previa en la que se revise y etiquete toda la información de la compañía, establecer unas claras políticas de roles y permisos (quien puede consultar que) que bloqueen la respuesta a determinadas instrucciones dependiendo de su origen, así como implementar los mecanismos de gobernanza adecuados.

Ataques adversariales

Este tipo de ataques están diseñados para manipular a los modelos de IA y conducir a decisiones erróneas mediante la introducción intencionada de alteraciones sutiles en las entradas de datos que, muchos casos pasan inadvertidas, pero pueden provocar consecuencias muy negativas.

Las soluciones para prevenir estos ataques pasan por proporcionar al modelo ejemplos de datos alterados para que pueda reconocerlos posteriormente y por la inclusión de sistemas de detección de anomalías.

Data poisoning

El entrenamiento de los datos es un proceso determinante para el correcto funcionamiento del modelo de Inteligencia Artificial. La inserción de datos incorrectos o sesgados y el “envenenamiento” de la información en esta fase provoca también importantes alteraciones en los modelos.

En este sentido, determinados ataques manipulan los resultados de los modelos de IA con fines muy concretos, como provocar determinados fallos en los sistemas o interrumpir su funcionamiento.

Para combatir estas situaciones, es crucial implantar mecanismos de validación de datasets, supervisar las fuentes externas y aplicar la técnica fine-tuning de forma segura.

Shadow AI

En muchas organizaciones, hay una ausencia de marcos claros sobre la aplicación de la Inteligencia Artificial por parte de los equipos. A esto se une que determinados usuarios buscan agilizar su trabajo utilizando esta tecnología sin la supervisión o aprobación del departamento IT o del área de ciberseguridad.

Esta situación, conocida como shadow AI, conlleva numerosos riesgos, entre los que destacan la filtración de información, los incumplimientos normativos y los fallos operativos.

Resulta, por tanto, imprescindible dotar a los equipos de la capacitación necesaria para el correcto empleo de la IA y poner en su conocimiento los peligros que conlleva un uso inadecuado, así como impulsar políticas de gobernanza que integren la seguridad de la IA en la estrategia a nivel corporativo.

“Las compañías, al mismo tiempo que evolucionan tecnológicamente, deben ser plenamente conscientes de la importancia de su seguridad y poner en marcha las políticas necesarias para salvaguardar sus datos. En concreto, soluciones como Microsoft Purview y Microsoft Entra ID permiten una robusta protección en entornos de IA a través del etiquetado automático de información sensible, la prevención de pérdida de datos (DLP), la gestión de identidades privilegiadas y el acceso condicional basado en el riesgo”, afirma Sisco Barrera, responsable de seguridad e infraestructura de Tokiota.

“En la era de la inteligencia artificial, la ciberseguridad ya no es solo una cuestión técnica, sino en una cuestión estratégica que debe involucrar a toda la organización”, concluye.


Envíanos tus Comentarios

Cibersur no se hace responsable de las opiniones reflejadas en los comentarios
introducir este texto en la contenedor de la izquierda recargar
Comentarios - total 0


Quienes Somos | Publicidad | Suscripción | Contacto | Nota Legal
© CIBERSUR Edita CPS S.L. en Sevilla (España, UE)