Solo el 43% de empresas españolas cumple con todas las regulaciones en materia de privacidad de datos

Solo el 43% de empresas españolas cumple con todas las regulaciones en materia de privacidad de datos_679a42b816476.jpeg

Ayer, 28 de enero, fue el Día de la Privacidad de Datos, una oportunidad para poner de manifiesto la importancia de adecuar los procesos de las empresas a los requerimientos de protección de datos, ya que su incumplimiento puede acarrear graves consecuencias, para la seguridad de los usuarios y en forma de sanciones monetarias. De hecho, en 2023 la AEPD (Agencia Española de Protección de Datos) impuso más de 16 millones de euros en multas por infracciones en privacidad, y según los últimos datos disponibles (octubre 2024), la entidad había registrado 2.200 procedimientos por posible infracción del RGPD, uno de los cuales se ha traducido en una multa de 5 millones de euros.

Sin embargo, las empresas españolas están reforzando sus esfuerzos para mejorar este ámbito, pues según revela el estudio de Zoho, se está incrementando un 13% la impartición de formación periódica para garantizar que la privacidad de los datos sea una prioridad, frente a los datos de 2023. No obstante, la integración de la inteligencia artificial (IA) en las operaciones empresariales ha supuesto un cambio relevante en el ámbito de la privacidad de datos, ya que esta tecnología se basa en el análisis de grandes cantidades de datos para formar sus modelos, lo que plantea interrogantes de cómo se recopilan y se usan los datos de los usuarios.

Con la Inteligencia Artificial ganando mayor relevancia en los negocios, en paralelo al aumento de la preocupación por cómo su uso puede infringir la privacidad de datos, el Consejo Europeo de Protección de Datos (CEPD) ha emitido su primera opinión unificada sobre el uso de datos personales en la IA, subrayando la complejidad de equilibrar la innovación con las prácticas éticas de datos. Ante esta declaración del CEPD, Sridhar Iyengar, Managing Director de Zoho Europa, apunta que “está claro que los modelos de IA entrenados con datos personales no pueden considerarse automáticamente anónimos. Para garantizar un verdadero anonimato, los modelos deben asegurar que los individuos no puedan ser identificados o que los datos personales no puedan ser extraídos a través de consultas. No adherirse a esto durante el desarrollo de modelos de IA no solo plantea problemas éticos, sino que también puede invalidar el despliegue de los propios modelos.”

Aspectos a tener en cuenta por parte de las empresas

De esta forma, las empresas responsables de desarrollar esta tecnología deben tener en cuenta qué clase de datos recogen de los usuarios al recopilar la información necesaria para alimentar sus modelos, no solo porque pueden comprometer la privacidad individual, sino también porque si se demuestra un uso indebido de los datos, incumpliendo las normativas, puede suponer un freno a la innovación.

Otro elemento importante en la integración del uso de Inteligencia Artificial es que los usuarios estén informados de aquellos datos que se van a recopilar, quedando patente que trabajar la confianza será clave para el éxito de la integración de las nuevas tecnologías. En este sentido, Iyengar explica que “será imprescindible generar confianza a través de una comunicación abierta y de integrar la protección de la privacidad en los sistemas desde el principio, lo que se conoce como ‘privacidad desde el diseño’. Al adoptar estas medidas, las empresas no solo pueden cumplir la normativa vigente, sino también mejorar su reputación y garantizar el uso ético de la inteligencia artificial. De este modo, pueden innovar y mantener una ventaja competitiva sin comprometer el uso y la protección de los datos”.

Pero este es un aspecto aún a mejorar, pues según han relevado los datos del estudio de Zoho, solo el 31% de las empresas encuestadas afirman ir más allá de los requisitos para proporcionar protección adicional a los datos de clientes y empleados, de forma que, aunque las empresas cumplen la normativa, son pocas las que toman medidas proactivas para mejorar la protección de datos. A este respecto, Iyengar indica “para nosotros, como proveedores de software, la protección de datos va mucho más allá del mero cumplimiento de los requisitos legales. Se trata, nada menos, que de ganarnos y mantener la confianza de los clientes. Todos debemos aspirar a desarrollar soluciones que bloqueen el rastreo innecesario, minimicen las vulnerabilidades y garanticen la protección de la información sensible. Solo así podremos alcanzar el equilibrio entre innovación, facilidad de uso y privacidad. El Día Europeo de la Protección de Datos es, por lo tanto, una llamada de atención para todos nosotros: debemos abordar proactivamente cómo manejamos los datos de nuestros clientes en la era de la IA. La protección de datos no debe ser una obligación incómoda, sino la piedra angular de la responsabilidad digital”.

Fuente Original: Aquí

Facebook
Twitter
LinkedIn
Email