😎 60% Descuento:  Curso de Hacking Redes Inalámbricas >> Ver Más

Esta sería la peligrosa consecuencia de usar  inteligencia artificial en una ciberguerra

El desarrollo de la inteligencia artificial completa podría significar el fin de la raza humana. Trabajaría por sí sola y se rediseñaría a un ritmo cada vez mayor. Los humanos, que están limitados por una evolución biológica lenta, no podrían competir y serían superados”.

– Stephen Hawking

La guerra cibernética es una nueva forma de guerra librada a través de computadoras , software mejorado, Internet y malware para impulsar las agendas nacionales y mejorar el juego de poder internacional.

Con la mejora de la tecnología, los medios de guerra también han cambiado con el uso de “armas” mejores y más eficientes en el ciberespacio. El último elemento en el mundo de la guerra cibernética es la Inteligencia Artificial (IA) que se suma a la eficiencia de tales ataques cibernéticos.

La IA elimina el elemento humano y permite que un sistema de alto rendimiento se ocupe de todos los detalles de los ataques en el ciberespacio.

Si bien la guerra integrada de IA tiene muchos beneficios, también debemos mantenernos informados sobre los inconvenientes de la tecnología. La IA tiene potencialmente la capacidad de derribar un fenómeno globalmente desastroso que podría destruir la economía mundial e incluso conducir a la extinción de la humanidad tal como la conocemos.

En el siguiente artículo discutiremos la guerra cibernética y la última arma en su arsenal, la inteligencia artificial. Hablaremos sobre las posibilidades de los ataques de guerra cibernética usando IA y cómo prevenir un desastre global de IA.

Guerra cibernética

Stuxnet, denominado como el precursor de la guerra cibernética moderna, fue la primera instancia de cualquier forma de malware que provocó daños físicos a través de las fronteras internacionales. Si bien hubo algunos otros casos en el pasado de ataques cibernéticos similares a través de fronteras internacionales, no se acercan al daño o la popularidad de Stuxnet.

Este malware supuestamente comenzó como una operación conjunta de Estados Unidos e Israel contra Irán. Stuxnet se centró en vulnerabilidades en las computadoras con Windows con una unidad de controlador lógico programable. El objetivo de la operación, cuyo nombre en código era “Juegos Olímpicos”, era acabar con la energía nuclear de Irán . Stuxnet logró dañar miles de centrifugadoras en la planta de enriquecimiento de uranio de Natanz.

El término guerra cibernética en sí mismo se usa para referirse a ataques similares a los mencionados anteriormente. Es decir, donde una entidad ataca a otra entidad similar para dañar la información, los recursos financieros y físicos de esta última. Por lo general, dichas entidades podrían ser estados-nación, grupos APT o incluso grupos hacktivistas.

Sin embargo, algunos escritores han definido la guerra cibernética de manera diferente:

Es cualquier acto destinado a obligar a un oponente a cumplir con nuestra voluntad nacional, ejecutado contra el software que controla los procesos dentro del sistema de un oponente.

Alford L

La guerra cibernética es el arte y la ciencia de luchar sin luchar; de derrotar a un oponente sin derramar su sangre.

Jeffrey Carr

Ambas citas analizan un aspecto diferente de la guerra cibernética, la primera el objetivo de la guerra cibernética y la última el arte de la guerra cibernética en sí.

Inteligencia artificial –  ¿una nueva arma?

Cuando escuchas el término Inteligencia Artificial o IA, lo primero que te viene a la mente es que los robots humanoides se apoderen del planeta y destruyan la raza humana tal como la conocemos. La base de muchas películas de ciencia ficción, la inteligencia artificial es un campo de la informática en rápido crecimiento. Esta intenta recrear una inteligencia similar a la humana en un sistema informático.

Definiciones históricas de IA:

  • Sistemas que piensan como humanos.

La automatización de actividades que asociamos con el pensamiento humano, actividades como la toma de decisiones, la resolución de problemas y el aprendizaje.

— Bellman, 1978
  • Sistemas que actúan como humanos .

El arte de crear máquinas que realizan funciones que requieren inteligencia cuando son realizadas por personas.

— Kurzweil, 1990
  • Sistemas que piensan racionalmente.

El estudio de los cálculos que hacen posible percibir, razonar y actuar.

—Winston, 1992
  • Sistemas que actúan racionalmente.

La rama de la informática que se ocupa de la automatización del comportamiento inteligente.

— Luger y Stubblefield, 1993

Basado en lo anterior, podemos elegir las siguientes definiciones:

  • Sistemas automatizados:“ Es un sistema físico que funciona sin (o con una participación limitada) del operador humano. Este funciona en entornos estructurados e invariables, y el rendimiento del sistema se limita al conjunto específico de acciones para las que ha sido diseñado… por lo general, estas son tareas bien definidas que tienen respuestas predeterminadas de acuerdo con prescripciones simples basadas en scripts o reglas”.
  • Autonomía: “Es la condición o cualidad de ser autónomo para lograr una tarea asignada basada en la propia conciencia situacional del sistema (detección, percepción y análisis integrados), planificación y toma de decisiones”.

Si bien las máquinas de IA no tomarán el control del planeta durante los próximos años, ya son bastante sofisticadas y avanzadas. Ya existen sistemas que pueden imitar actividades humanas tan simples como la identificación de imágenes, el reconocimiento de voz, etc., o tan complejas como el diagnóstico médico, el análisis de vulnerabilidades, etc.

Avances de la IA

Este potencial de la IA para imitar y mejorar tales actividades también ha mantenido a varios gobiernos interesados ​​en el campo, y algunos incluso han dado pasos de gigante. Por ejemplo, Irán ha estado invirtiendo en robótica e inteligencia artificial durante los últimos 10 años. Y, actualmente las está integrando con las operaciones militares iraníes haciéndolas más destructivas y eficientes.

Un ejemplo reciente de tales desarrollos sería el Loyal Wingman, un avión de combate sin piloto, que fue probado con éxito por la Royal Australian Air Force (RAAF) a principios de este año. El dron de combate está diseñado para ser semiautónomo, lo que significa que no requiere un piloto para maniobrar y puede ejecutar misiones de combate por sí solo.

El dron ha despertado el interés de los Estados Unidos y el Reino Unido, que podrían ser compradores potenciales en un futuro próximo.

Estados Unidos también ha invertido en IA militar a través de la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA) del Pentágono.  DARPA ha estado canalizando dinero a la investigación fundamental de IA.

Si bien estas aplicaciones de IA aún involucran algún tipo de guerra física, investigaciones más recientes buscan cambiar la guerra más hacia el ciberespacio. 

Al igual que la cita mencionada en la sección anterior por Jeffrey Carr, la investigación en guerra cibernética usando IA tiene como objetivo derrotar o atacar a un enemigo sin derramar sangre.

El desarrollo de la IA que puede hackear o atacar la infraestructura cibernética de un estado-nación enemigo aún no está completamente desarrollado. No obstante, existen otras aplicaciones autónomas que pueden usarse para la guerra cibernética.

Escaneo autónomo de vulnerabilidades

El escaneo de vulnerabilidades es el núcleo de toda la inteligencia de amenazas y ayuda a proteger un sistema de todas las fallas explotables por un hacker. Si puedes encontrar una vulnerabilidad en un sistema, definitivamente puede comprometerlo y causar daño o extraer información confidencial de él.

Con los últimos desarrollos en inteligencia artificial y aprendizaje automático, el proceso de escaneo de vulnerabilidades también se ha vuelto autónomo. Herramientas como SIEM o antivirus ya son semiautónomas y pueden encontrar posibles vulnerabilidades en el sistema.

Las investigaciones más recientes han profundizado en los algoritmos de aprendizaje automático. Estos algoritmos hacen posible que dichos sistemas sean completamente autónomos.

Ser capaz de encontrar vulnerabilidades en el ciberespacio enemigo es perjudicial para cualquier forma de guerra cibernética entre estados-nación. Si simplemente puedo ejecutar un sistema que escanea constantemente los recursos del gobierno de otro país en busca de vulnerabilidades, podría pasar el resto de mi tiempo desarrollando exploits o malware para su uso posterior.

Deepfakes

Los deepfakes no son precisamente una forma de ataque contra nadie. Sin embargo, pueden usarse para manipular a los funcionarios de las naciones para que tomen medidas ofensivas contra alguien u otra nación. Sí, entiendo que el resultado de una deepfake no es técnicamente una guerra CIBERNÉTICA, pero dado que se está volviendo muy popular, es importante mencionarlas.

Hace unos meses, los líderes del Reino Unido, Letonia, Estonia y Lituania fueron engañados por un par de “bromistas”. Estos utilizaron tecnología deepfake para hacerse pasar por Leonid Volkov, jefe de gabinete de la oposición rusa.

Con su broma, Kuznetsov y Stolyarov, más conocidos como Vovan y Lexus, lograron engañar para llegar a reuniones secretas, videoconferencias y, a veces, incluso llamadas telefónicas directas con bastantes políticos y celebridades occidentales.

Esta “broma” de la vida real, o como quieras llamarla, muestra cuán manipuladora puede ser la tecnología deepfake.

Imagina esto. Un buen día, aparece un video en el que Vladimir Putin, Joe Biden o Kim Jong-un amenazan con un ataque nuclear inminente. Si bien se puede probar que es falso a largo plazo, definitivamente causaría un desastre mundial hasta ese momento. Los gobiernos del mundo entrarían en pánico, y algunos incluso tomarían el asunto en sus propias manos a través de ataques preventivos.

La gente también entraría en pánico, causando reuniones masivas, disturbios y una caída total de toda la economía mundial.

Sensibilidad (sintiencia)

La base de la mayoría de las películas de ciencia ficción modernas, la inteligencia artificial consciente es el objetivo final de bastantes investigadores o “científicos locos” en el mundo.

Todo comenzó cuando Alan Turing, en su artículo académico titulado “Maquinaria computacional e inteligencia“, propuso la pregunta: “¿Pueden pensar las máquinas? Si bien ha habido nociones algo similares de computadoras inteligentes en el pasado, fue Alan Turing en “El código Enigma” que llevó la noción al siguiente nivel.

La sintiencia es básicamente la capacidad de ser consciente de los sentimientos y sensaciones/estímulos externos y responder a ellos en consecuencia. Para los humanos, los estímulos externos podrían significar uno de los 5 sentidos: ojos, oídos, nariz, lengua y piel. Un sistema que pueda hacer esto podría clasificarse como un sistema sintiente.

Capacidades más avanzadas implicarían un proceso de pensamiento bien definido, libre albedrío y la capacidad de responder a las acciones a través de la experiencia.

Cuando una computadora creada por humanos alcanza la sensibilidad, los resultados pueden ser muy desfavorables para la supervivencia de los humanos. Tales sistemas conscientes descubrirían rápidamente la teoría darwiniana de la supervivencia del más apto y eliminarían rápidamente el componente humano del juego.

Pero supongo que esto es demasiado profundo en la ciencia ficción, donde la línea entre ficción y realidad se vuelve demasiado borrosa.

Un rayo de esperanza

Sin embargo, las cosas no están tan mal como parecen con respecto a la inteligencia artificial en el ciberespacio. Algunos expertos afirman que el Pentágono de Estados Unidos y varias partes interesadas son bastante cautelosos al acercarse a la IA.

Solo aprueban ciertas cosas, como los sistemas autónomos de defensa antimisiles, pero nada tan potencialmente peligroso como la IA sensible.

El informe de Inteligencia Artificial y Seguridad Nacional del Servicio de Investigación del Congreso afirma que la familia actual de algoritmos de aprendizaje automático alcanzará su punto máximo en los próximos 10 años

El avance de la IA más allá de este punto requerirá avances significativos en la tecnología, como la computación de alta potencia y los sistemas de computación cuántica.

En el pasado, tales mesetas en el avance de la IA se conocían como ” Inviernos de IA ” cuando el desarrollo en el campo se ralentizó significativamente.

Además, la popularidad de la IA también se basa en cómo los usuarios perciben sus desventajas y cuánto confían en ella. Dado que la IA se vuelve cada vez más común en la vida diaria, la mayoría de las personas no tolerará incluso las deficiencias más simples. Esto conducirá a una pérdida de confianza en el sistema y disminuirá la disposición futura a usarlos.

La inteligencia artificial también tiene una gran cantidad de aplicaciones en el ciberespacio, como la búsqueda de amenazas, la detección de vulnerabilidades e incluso el análisis de malware. Las ventajas actuales de la IA, junto con la falta de tecnología para un sistema sofisticado, deberían garantizar cualquier forma de guerra cibernética con IA que acabaría con la población mundial o provocaría un desastre a escala global.

Conclusión

En esteartículo, analizamos el concepto de guerra cibernética, junto con la última arma en su arsenal, la Inteligencia Artificial. Analizamos cómo la IA podría conducir a un ataque o desastre de impacto mundial y también mostramos un rayo de esperanza ante este panorama lúgubre.

La IA es un campo de la ciencia en rápido crecimiento y tiene mucho que ofrecer a la humanidad. Involucrar a la IA en la guerra cibernética puede parecer una buena idea, pero debe usarse con cautela debido a todos los riesgos desastrosos que puede causar.

Deja un comentario

Adquiere tu Membresía Anual Wiser

Adquiere tu Membresía Anual Wiser y adquiere grandes beneficios

Más información