En la era digital, la Inteligencia Artificial (IA) ha revolucionado la forma en que las organizaciones operan, facilitando la automatización de procesos y mejorando la eficiencia en el lugar de trabajo. Sin embargo, José Amado, gerente de la Práctica de Identidades Digitales en SISAP, advierte que esta tecnología también presenta significativos riesgos para la seguridad de la información, tanto a nivel personal como organizacional. El uso indebido de aplicaciones como ChatGPT y Gemini puede exponer datos sensibles, lo que subraya la importancia de una correcta gestión y capacitación sobre el manejo de IA en las empresas.
Amado destaca que uno de los mayores peligros es la falta de control sobre los datos compartidos con estas plataformas. Un ejemplo ilustrativo es el caso en el que un empleado, para agilizar su trabajo, utiliza ChatGPT para resumir un informe ejecutivo, compartiendo así información confidencial que queda almacenada en la nube, fuera del control de la empresa. Esta situación puede poner en riesgo la integridad de la información y exponer a la organización a posibles brechas de seguridad.
Además, el uso de IA en la creación de código fuente para aplicaciones y sitios web también presenta vulnerabilidades significativas. Amado señala que el código generado por IA tiende a ser similar o idéntico para múltiples usuarios, lo que podría facilitar el acceso de cibercriminales a través de las mismas debilidades en diferentes sistemas. Por ello, SISAP recomienda a las organizaciones que opten por métodos tradicionales de programación y que consulten con expertos en ciberseguridad para realizar un análisis exhaustivo de sus sistemas y reforzar sus defensas contra posibles ataques.
Visitar: SISAP Makel Tsecure