ADN RadioConcierto Radio
NewslettersRegístrateAPP
españaESPAÑAchileCHILEcolombiaCOLOMBIAusaUSAméxicoMÉXICOusa latinoUSA LATINOaméricaAMÉRICA

ACTUALIDAD

Revelan la cantidad de proyectos de inteligencia artificial que se enfocan en seguridad

En el mes de la Ciberseguridad, un estudio reveló que solo el 43% de las empresas la están utilizando para mejorar la seguridad de la información.

AS.com
Revelan la cantidad de proyectos de inteligencia artificial que se enfocan en seguridad
Shutterstock

Un estudio reciente realizado por el IBM Institute for Business Value (IBM IBV) ha revelado un dato alarmante que merece atención: únicamente el 24% de los proyectos de inteligencia artificial generativa que se están desarrollando actualmente incluyen la seguridad como un componente clave en su planificación y ejecución.

Este hallazgo se vuelve aún más sorprendente al considerar que un abrumador 82% de los ejecutivos entrevistados en la investigación creen firmemente que la seguridad es esencial para el éxito de estas iniciativas.

A pesar de esta percepción, casi el 70% de los líderes empresariales parecen priorizar la innovación y el avance tecnológico por encima de las medidas de seguridad, lo que podría abrir la puerta a serias vulnerabilidades que comprometen no solo la integridad de los proyectos, sino que también la confianza de los usuarios y consumidores en estas tecnologías.

“En un entorno donde los cibercriminales han comenzado a utilizar la inteligencia artificial para llevar a cabo sus actividades ilícitas, el no proporcionar la atención adecuada a la seguridad podría acarrear consecuencias difíciles de abordar”, asegura Hellis Leiva, Consultor de Soluciones de Ciberseguridad de Orión.

De hecho, se ha vuelto cada vez más común observar ataques más sofisticados, como correos electrónicos de phishing sumamente realistas y difíciles de distinguir de la comunicación legítima, así como deepfakes de audio que pueden manipular la percepción pública o privada.

Por otro lado, también se ha detectado un uso imprudente de herramientas de IA públicas, como ChatGPT, por parte de empleados, lo que facilita la filtración de datos sensibles y expone a las organizaciones a riesgos innecesarios.

La IA generativa: grandes oportunidades, pero también riesgos

Conforme la inteligencia artificial generativa se integra cada vez más en sectores críticos como la salud, la educación y las telecomunicaciones, la necesidad de priorizar la seguridad desde el diseño se vuelve más urgente que nunca.

“A medida que esta tecnología avanza y se estandarizan sus aplicaciones en diversos sectores, es previsible que los atacantes se vuelvan más frecuentes y sofisticados en sus métodos de ataque, lo que representa un desafío significativo para la seguridad de la información”, detalla el ejecutivo de Orión.

El estudio también menciona que, aunque muchas empresas están apenas comenzando a adoptar la inteligencia artificial generativa, solo el 43% la están utilizando para mejorar la seguridad de la información, mientras que un 46% hace lo propio en cuanto a la gestión de riesgos.

La mayoría de estas implementaciones todavía se encuentran en fases piloto, lo que resalta la urgencia de integrar medidas de seguridad desde la concepción de estos proyectos para evitar comprometer los datos y la infraestructura de la organización.

Un llamado a tomar acción

Para Orión es crucial hacer ver que la inteligencia artificial generativa no solo representa un nuevo objetivo para los ciberataques, sino que también puede ofrecer herramientas útiles para mejorar la defensa cibernética.

“Para que estas soluciones sean efectivas a largo plazo, deben garantizar la confidencialidad, integridad y disponibilidad de los datos, lo que es fundamental para mantener la confianza de las empresas en los resultados que pueden obtener a través de estas tecnologías avanzadas”, apunta Hellis Leiva.

El informe de IBM también alerta sobre la aparición de nuevas amenazas que están surgiendo en el panorama de la ciberseguridad, como la “inyección rápida”, una técnica que manipula los modelos de inteligencia artificial para obtener resultados sesgados o incorrectos, y los llamados “exploits de inversión”, que buscan extraer información sensible de manera clandestina.

La adopción de la inteligencia artificial generativa está en constante aumento y, con ella, emergen tanto oportunidades significativas, como riesgos importantes que deben ser gestionados con cuidado.

Para evitar futuros incidentes de ciberseguridad que puedan comprometer la integridad de las operaciones y la confianza de los consumidores, en Orión señalan que la seguridad debe ser una prioridad desde las etapas más tempranas de desarrollo.

“Las empresas deben trabajar estrechamente con sus equipos de ciberseguridad para asegurarse de que las soluciones de inteligencia artificial generativa sean seguras, confiables y capaces de generar valor sostenible a lo largo del tiempo, salvaguardando así su integridad y reputación en un entorno digital cada vez más complejo y desafiante”, cierra el experto.

Ampliar
Shutterstock