PathMBA Vault

Cybersecurity and digital privacy

La IA es el futuro de la ciberseguridad, para bien y para mal

por Roman V. Yampolskiy

La IA es el futuro de la ciberseguridad, para bien y para mal

may17-08-128586563

En un futuro próximo, a medida que los sistemas de inteligencia artificial (IA) sean más capaces, empezaremos a ver más ataques de ingeniería social automatizados y cada vez más sofisticados. Se espera que el aumento de los ciberataques basados en la IA provoque una explosión de penetraciones en las redes, robos de datos personales y una propagación de virus informáticos inteligentes a nivel epidémico. Irónicamente, nuestra mejor esperanza de defenderse del hackeo permitido por la IA es mediante el uso de la IA. Pero es muy probable que esto lleve a una carrera armamentista de la IA, cuyas consecuencias pueden ser muy preocupantes a largo plazo, especialmente porque grandes actores gubernamentales únase a la ciberguerra.

Mi investigación se centra en la intersección de la IA y la ciberseguridad. En particular, estoy investigando cómo podemos proteger los sistemas de IA de malos actores, así como la forma en que podemos proteger a las personas de falló o IA malévola. Esta obra se inscribe en un marco más amplio de Seguridad de la IA, intenta crear una IA que sea extremadamente capaz, pero también segura y beneficioso.

Centro de información

Se ha escrito mucho sobre los problemas que pueden surgir con la llegada de la «verdadera IA», ya sea por el impacto directo de esos inventos o por un error del programador. Sin embargo, la malicia intencional en el diseño y el hackeo de la IA no se han abordado suficientemente en la literatura científica. Es justo decir que cuando se trata de los peligros derivados de una inteligencia deliberadamente poco ética, todo es posible. Según Bostrom’s tesis de ortogonalidad, un sistema de IA puede tener cualquier combinación de inteligencia y objetivos. Estos objetivos pueden introducirse mediante el diseño inicial o mediante el hackeo, o introducirse más adelante, en el caso de un software estándar: «simplemente añada sus propios objetivos». En consecuencia, según cuya oferta el sistema lo está haciendo (gobiernos, empresas, sociópatas, dictadores, complejos industriales militares, terroristas, etc.), puede intentar infligir un daño sin precedentes en la historia de la humanidad, o que quizás se inspire en acontecimientos anteriores.

Este artículo aparece también en:

Incluso hoy en día, la IA se puede utilizar para defender y para ataque ciberinfraestructura, así como para aumentar la superficie de ataque que los hackers pueden atacar, es decir, el número de formas en que los piratas informáticos pueden entrar en un sistema. En el futuro, a medida que la IA aumente su capacidad, anticipo que primero alcanzarán y, después, superarán a los humanos en todos los ámbitos del rendimiento, como ya hemos visto con juegos como ajedrez y Vaya y ahora están viendo con importantes tareas humanas, como invertir y conduciendo. Es importante que los líderes empresariales entiendan en qué se diferenciará la situación futura de nuestras preocupaciones actuales y qué hacer al respecto.

Si uno de los sistemas de ciberseguridad actuales falla, el daño puede ser desagradable, pero es tolerable en la mayoría de los casos: alguien pierde dinero o privacidad. Pero para la IA a nivel humano (o superior), las consecuencias podrían ser catastróficas. Un solo fracaso de un IA superinteligente (SAI) el sistema podría provocar un riesgo existencial evento: un suceso que puede dañar el bienestar humano a escala mundial. Los riesgos son reales, como lo demuestra el hecho de que algunas de las mentes más brillantes del mundo en tecnología y física, como Stephen Hawking, Bill Gates y Elon Musk, han expresado su preocupación sobre la posibilidad de que la IA evolucione hasta un punto en el que los humanos ya no puedan controlarla.

Play

Play

00:00

Play

Seek 10 seconds backwards

Seek 10 seconds forward

00:00 / 00:00

Mute

Picture in picture

Fullscreen

.video-summary-list-container { height: 100%; } .video-summary-list-container .MuiScopedCssBaseline-root { height: 100%; }

Summary & chapters

Read as overview

.chapters-list-module_intro__74vPf { padding: 16px; border-bottom: 1px solid rgba(255, 255, 255, 0.2); } .chapters-list-module_chapter__uKhQh { padding: 0 16px 16px 8px; border-bottom: 1px solid rgba(255, 255, 255, 0.2); .MuiPaper-root .MuiButtonBase-root .MuiAccordionSummary-content { margin-top: 16px; margin-bottom: 0; } .MuiPaper-root .MuiCollapse-root .MuiCollapse-wrapper .MuiAccordionDetails-root { padding-bottom: 0; } } .chapters-list-module_chapter-header__Pu4Xi { width: 100%; margin-right: 8px; } .chapters-list-module_chapter-header-content__JIOjX { flex-grow: 1; padding: 8px; border-radius: 8px; cursor: pointer; } .chapters-list-module_chapter-header-content__JIOjX:hover { background-color: rgba(0, 0, 0, .2); } .chapters-list-module_chapter-header-expand-icon__tLLZ9 { margin-top: 16px; } .chapters-list-module_chapter-header-text__bPoKD { font-size: 11px; font-weight: 400; letter-spacing: 1px; text-transform: uppercase; } .chapters-list-module_chapter-bullet-icon__kCL9n { font-size: 11px; font-weight: 400; letter-spacing: 1px; text-transform: uppercase; } .chapters-list-module_chapter-intro__H-iVR { display: flex; align-items: center; gap: 8px; margin-bottom: 2px; } .chapters-list-module_chapter-description__ziIpd { margin: 0 -16px 0 -8px; } .chapters-list-module_intro-text__Sqgju { } .chapters-list-module_chapter-description__ziIpd, .chapters-list-module_intro-text__Sqgju { font-size: 16px !important; white-space: pre-wrap; }

Cuando uno de los sistemas de ciberseguridad actuales falla, normalmente tiene otra oportunidad de hacerlo bien, o al menos de hacerlo mejor la próxima vez. Pero con un sistema de seguridad de la SAI, el fracaso o el éxito son una situación binaria: o tiene una SAI segura y controlada o no la tiene. El objetivo de la ciberseguridad en general es reducir el número de ataques exitosos a un sistema; el objetivo de la seguridad de la SAI, por el contrario, es garantizar que ningún ataque logre eludir los mecanismos de seguridad establecidos. El auge de las interfaces cerebro-ordenador, en particular, creará un objetivo soñado para hackers humanos y con inteligencia artificial. Y las interfaces cerebro-ordenador no son tan futuristas, son ya se utiliza en dispositivos médicos y juegos, por ejemplo. Si tienen éxito, los ataques a las interfaces cerebro-ordenador comprometerían no solo la información crítica, como los números de la seguridad social o los números de cuentas bancarias, sino también nuestros sueños, preferencias y secretos más profundos. Existe la posibilidad de crear algo sin precedentes nuevos peligros por la privacidad personal, la libertad de expresión, la igualdad de oportunidades y cualquier número de derechos humanos.

Se recomienda a los líderes empresariales que se familiaricen con la vanguardia de la investigación sobre seguridad y protección de la IA, que por el momento es lamentablemente similar al estado de la ciberseguridad en la década de 1990, y con nuestra situación actual con la falta de seguridad para el Internet de las cosas. Con más conocimientos, los líderes pueden considerar racionalmente cómo la incorporación de la IA a su producto o servicio mejorará la experiencia de los usuarios y, al mismo tiempo, sopesar los costes de someter a los usuarios a más violaciones de datos y los posibles peligros. Contratar a un dedicado Experto en seguridad de la IA puede ser un siguiente paso importante, ya que la mayoría de los expertos en ciberseguridad no están formados para anticipar o prevenir los ataques contra sistemas inteligentes. Espero que continúe investigación aportará soluciones adicionales para incorporar la IA de forma segura en el mercado.