PathMBA Vault

Technology and analytics

La IA añade una nueva capa al ciberriesgo

por Greg Bell, Cliff Justice, Tony Buffomante, Ken Dunbar

La IA añade una nueva capa al ciberriesgo

apr17-13-9969055

Computación cognitiva y inteligencia artificial (IA) están generando lo que muchos llaman un nuevo tipo de revolución industrial. Si bien ambas tecnologías hacen referencia al mismo proceso, cada una tiene un ligero matiz. Para ser específicos, Cognitive utiliza un conjunto de muchas tecnologías diseñadas para aumentar las capacidades cognitivas de la mente humana. Un sistema cognitivo puede percibir e inferir, razonar y aprender. Definimos la IA como un término amplio que se refiere vagamente a los ordenadores que pueden realizar tareas que antes requerían inteligencia humana. Como estos sistemas se pueden entrenar para analizar y entender el lenguaje natural, imitar los procesos de razonamiento humano y tomar decisiones, las empresas los utilizan cada vez más para automatizar las actividades rutinarias. Desde coches autónomos hasta drones y operaciones empresariales automatizadas, esta tecnología tiene el potencial de mejorar la productividad, dirigir el talento humano a temas críticos, acelerar la innovación y reducir los costes operativos.

Sin embargo, como cualquier tecnología que no se gestione y proteja adecuadamente, los sistemas cognitivos que utilizan robots y avatares humanoides —y menos mano de obra humana— también pueden representar inmensas vulnerabilidades de ciberseguridad para las empresas y comprometer sus operaciones. La clandestinidad criminal ha estado aprovechando esta capacidad durante años, utilizando el concepto de «botnets», que distribuyen pequeños fragmentos de código en miles de ordenadores programados para ejecutar tareas que imitan las acciones de decenas y cientos de miles de usuarios, lo que provoca ciberataques masivos y spam de correos electrónicos y textos, e incluso hace que los principales sitios web no estén disponibles durante largos períodos de tiempo mediante ataques de denegación de servicio.

Centro de información

  • La era de la IA

    Patrocinado por Accenture

    Cómo afectará a los negocios, la industria y la sociedad.

En un mundo digital en el que se depende cada vez más del análisis de los datos empresariales y de las interacciones electrónicas con los consumidores, la alta dirección no puede darse el lujo de ignorar los riesgos de seguridad existentes. Además, existen ciberriesgos nuevos y únicos asociados a la tecnología cognitiva y de inteligencia artificial. Las empresas deben tener en cuenta la adopción de las nuevas tecnologías de la información, el empleo de varios niveles de ciberdefensa y la planificación de la seguridad para reducir la creciente amenaza. Como ocurre con cualquier tecnología nueva e innovadora, tiene implicaciones positivas y negativas. Las empresas deben reconocer que una tecnología lo suficientemente potente como para beneficiarlas es igualmente capaz de perjudicarles.

En primer lugar, la tecnología cognitiva no garantiza la fiabilidad. Solo es tan buena como la información que se introduce en el sistema y la formación y el contexto que proporciona un experto humano. En un estado ideal, los sistemas se diseñan para simular y escalar las capacidades de razonamiento, juicio y toma de decisiones de las mentes humanas más competentes y capacitadas por expertos. Pero los malos actores humanos —por ejemplo, un empleado descontento o personas ajenas deshonestas— podrían secuestrar el sistema, introducir datos engañosos o inexactos y mantenerlos como rehenes ocultando información de misión crítica o «enseñando» al ordenador a procesar los datos de forma inapropiada.

En segundo lugar, los sistemas de inteligencia cognitiva y artificial están entrenados para imitar los procesos analíticos del cerebro humano, no siempre mediante instrucciones de programación claras y paso a paso como en un sistema tradicional, sino mediante el ejemplo, la repetición, la observación y la inferencia.

Play

Play

00:00

Play

Seek 10 seconds backwards

Seek 10 seconds forward

00:00 / 00:00

Mute

Settings

Picture in picture

Fullscreen

.video-summary-list-container { height: 100%; } .video-summary-list-container .MuiScopedCssBaseline-root { height: 100%; }

Summary & chapters

Read as overview

.chapters-list-module_intro__74vPf { padding: 16px; border-bottom: 1px solid rgba(255, 255, 255, 0.2); } .chapters-list-module_chapter__uKhQh { padding: 0 16px 16px 8px; border-bottom: 1px solid rgba(255, 255, 255, 0.2); .MuiPaper-root .MuiButtonBase-root .MuiAccordionSummary-content { margin-top: 16px; margin-bottom: 0; } .MuiPaper-root .MuiCollapse-root .MuiCollapse-wrapper .MuiAccordionDetails-root { padding-bottom: 0; } } .chapters-list-module_chapter-header__Pu4Xi { width: 100%; margin-right: 8px; } .chapters-list-module_chapter-header-content__JIOjX { flex-grow: 1; padding: 8px; border-radius: 8px; cursor: pointer; } .chapters-list-module_chapter-header-content__JIOjX:hover { background-color: rgba(0, 0, 0, .2); } .chapters-list-module_chapter-header-expand-icon__tLLZ9 { margin-top: 16px; } .chapters-list-module_chapter-header-text__bPoKD { font-size: 11px; font-weight: 400; letter-spacing: 1px; text-transform: uppercase; } .chapters-list-module_chapter-bullet-icon__kCL9n { font-size: 11px; font-weight: 400; letter-spacing: 1px; text-transform: uppercase; } .chapters-list-module_chapter-intro__H-iVR { display: flex; align-items: center; gap: 8px; margin-bottom: 2px; } .chapters-list-module_chapter-description__ziIpd { margin: 0 -16px 0 -8px; } .chapters-list-module_intro-text__Sqgju { } .chapters-list-module_chapter-description__ziIpd, .chapters-list-module_intro-text__Sqgju { font-size: 16px !important; white-space: pre-wrap; }

Pero, si el sistema es saboteado o se le da a propósito información inexacta, podría deducir una correlación incorrecta como «corregir» o «aprender» un mal comportamiento. Como la mayoría de los sistemas cognitivos están diseñados para tener libertad, al igual que los humanos, suelen utilizar contraseñas «codificadas» y que no caducan. Un hacker malintencionado puede utilizar las mismas credenciales de inicio de sesión que el bot para acceder a muchos más datos de los que se permite a una sola persona. Los sistemas de vigilancia de seguridad a veces se configuran para ignorar los registros de «acceso de bots» o «máquinas» y reducir el gran volumen de acceso sistémico. Pero esto puede permitir a un intruso malintencionado, que se hace pasar por un bot, acceder a los sistemas durante largos períodos de tiempo y pasar prácticamente desapercibido.

En algunos casos, los intentos de aprovechar la nueva tecnología pueden tener consecuencias no deseadas y toda una organización puede convertirse en víctima. En un ejemplo ya clásico, el bot de Twitter de Microsoft, Tay, que se diseñó para aprender a comunicarse de forma natural con los jóvenes en las redes sociales, se vio comprometido poco después de salir en vivo cuando los trolls de Internet descubrieron las vulnerabilidades de sus algoritmos de aprendizaje y empezaron a darle contenido racista, sexista y homófobo. El resultado fue que Tay empezó a dar respuestas y comentarios odiosos e inapropiados en las redes sociales a millones de seguidores.

Por último, contrariamente a la idea popular, los sistemas cognitivos no están protegidos contra los hackeos solo porque un proceso esté automatizado. Los chatbots son cada vez más comunes en todo tipo de entornos, incluidos los centros de llamadas empresariales y de clientes. Al recopilar información personal sobre los usuarios y responder a sus consultas, algunos bots están diseñados para seguir aprendiendo con el tiempo cómo hacer mejor su trabajo. Esto desempeña un papel fundamental a la hora de garantizar la precisión, especialmente en los sectores regulados, como la sanidad y las finanzas, que poseen un gran volumen de información confidencial sobre miembros y clientes.

Pero como cualquier tecnología, los piratas informáticos malintencionados también pueden utilizar estos chatbots automatizados para ampliar las transacciones fraudulentas, engañar a la gente, robar información de identificación personal y penetrar en los sistemas. Ya hemos visto pruebas de que se utilizan herramientas avanzadas de inteligencia artificial para penetrar en sitios web y robar información comprometedora y embarazosa sobre personas, con ejemplos destacados, como Ashley Madison, Yahoo y el DNC. A medida que los malos actores sigan desarrollando una IA avanzada con fines malintencionados, las organizaciones deberán desplegar una IA igual de avanzada para prevenir, detectar y contrarrestar estos ataques.

Pero dejando de lado los riesgos, los profesionales de la ciberseguridad tienen enormes ventajas al aprovechar la IA y las técnicas cognitivas. Las tareas rutinarias, como el análisis de grandes volúmenes de registros de eventos de seguridad, se pueden automatizar mediante el uso de mano de obra digital y el aprendizaje automático para aumentar la precisión. A medida que los sistemas son más eficaces a la hora de identificar el acceso malintencionado y no autorizado, los sistemas de ciberseguridad pueden convertirse en «autorreparables» (de hecho, actualizan los controles y los sistemas de parches en tiempo real) como resultado directo del aprendizaje y la comprensión de cómo los piratas informáticos explotan los nuevos enfoques.

Las tecnologías cognitivas y de inteligencia artificial son una certeza para nuestro futuro. Si bien tienen el poder de aportar un inmenso potencial a nuestra productividad y calidad de vida, también debemos ser conscientes de las posibles vulnerabilidades a una escala igual de grande. Con los humanos, una brecha de seguridad a menudo puede localizarse en su origen y sellarse. Con las brechas cognitivas y de la IA, el daño puede llegar a ser enorme en segundos. Equilibrar las exigencias entre la automatización y la seguridad de la información debería consistir en hacer que la ciberseguridad sea una parte integral —no una idea tardía— de la infraestructura de información de una organización.