top of page

La Inteligencia Artificial... ¿Puede hackear?

Actualizado: 21 jun 2023

Puede hacer labores de poetas, escritores, artistas, matemáticos... ¿Puede hackear?


El hacking malintencionado se utiliza para obtener acceso no autorizado a sistemas o redes, para robar información confidencial, causar daños o interrumpir el funcionamiento normal de los sistemas. Los hackers malintencionados pueden tener una variedad de motivaciones, como el lucro financiero, la venganza (incluso en relaciones de pareja), la vigilancia no autorizada, el terrorismo y otros fines ilegales. Por supuesto, también existen los hackers éticos, también conocidos como "sombreros blancos", que son expertos en seguridad informática que utilizan sus habilidades para identificar y corregir vulnerabilidades en los sistemas y la red, por lo que su trabajo ayuda a prevenir los ataques malintencionados mencionados anteriormente.


La relevancia del hacking radica en su capacidad para afectar a la seguridad y la privacidad de los sistemas informáticos y de red, y su potencial para causar daño a individuos, empresas y organizaciones. Se deben comprender los riesgos y las implicaciones del hacking, y tomar medidas adecuadas para prevenir y protegerse contra los ataques malintencionados.


Con el fuerte avance de la inteligencia artificial, que asusta a toda suerte de personalidades, es coherente pensar que esta va tomar conciencia, hackear nuestros sistemas y tomar control de la humanidad. Pero, al día de hoy, ¿Qué tan posible es que se utilice para hacking una herramienta como ChatGTP? Como experimento, preguntémosle a esta misma. La respuesta fue la siguiente:


Como modelo de lenguaje de inteligencia artificial, ChatGPT es capaz de generar texto coherente y relevante en respuesta a una variedad de entradas de texto. Aunque ChatGPT no tiene la capacidad de realizar acciones en el mundo físico, su capacidad para generar texto convincente puede ser utilizada por hackers para engañar a las personas y obtener información confidencial o acceso a sistemas protegidos.


Algunos de los riesgos de que ChatGPT sea utilizado para hacking incluyen:

  • Phishing: Los hackers pueden utilizar ChatGPT para generar correos electrónicos o mensajes de texto convincentes que engañen a las personas para que revelen información confidencial, como contraseñas o información de tarjetas de crédito.

  • Ingeniería social: Los hackers pueden utilizar ChatGPT para generar perfiles de redes sociales convincentes o mensajes de chat que engañen a las personas para que revelen información personal o para que hagan clic en enlaces maliciosos.

  • Ataques de malware: Los hackers pueden utilizar ChatGPT para generar texto que parezca legítimo y que persuada a los usuarios para que descarguen y ejecuten malware en sus dispositivos.


Es importante tener en cuenta que los riesgos asociados con el uso de ChatGPT para hacking son similares a los riesgos asociados con otras formas de hacking y ataques de ingeniería social. Para reducir estos riesgos, es importante educar a los usuarios sobre cómo detectar y evitar estos tipos de ataques, y también es importante implementar medidas de seguridad sólidas, como el uso de software antivirus y el cifrado de datos confidenciales.”



Tiene toda la coherencia. A pesar de que tiene una estructura similar a muchas de sus respuestas, como escribir en su último párrafo “es importante” incluso más de una vez, efectivamente, la inteligencia artificial si puede ser utilizada para atacar sistemas, aunque los controles y contramedidas siguen siendo los mismos. Lo que sí es claro es que el costo de realizar un ataque, se puede reducir considerablemente, por lo que es razonable pensar que el número de ataques puede aumentar.



Aunque, por supuesto, filtros y herramientas hechos con inteligencia artificial, también entran a proteger las organizaciones. Sigue siendo la misma guerra, pero con diferentes armas. Lo que sí es claro, es que cada vez como ingenieros entendemos menos qué es lo que está pasando por debajo. Entonces, la guerra entre atacantes y hackers éticos, va seguir existiendo, pero puede que cada vez se entienda menos como funcionan las armas usadas.


Para entender lo anterior, la siguiente analogía: Un hacker experimentado, entiende muy bien el código máquina de un programa compilado, mientras que un programador de hoy en día solo entiende el código fuente. Sin embargo, ahora se vuelve más difícil, que un hacker benigno o maligno, por más estudioso que sea, logre entender el conjunto de valores enormes que constituye el estado de un modelo de machine learning, por lo que, con suerte, un humano solo logrará entender el código fuente de cómo se creó el modelo y qué técnicas se usaron, pero estaría lejos de entender el valor de cada parámetro después de que dicho modelo fue entrenado para alguna tarea en particular. Es posible utilizar estrategias para abstraer características de ese conjunto de valores e incluso manipularlos, pero cada vez se está más lejos de que comprendamos el detalle.


Por lo anterior, es razonable que exista temor a la inteligencia artificial, debido a que cada vez se está un poco más lejos de entender el detalle de cómo opera. Actualmente, los humanos crean el modelo que es entrenado para que aprenda lo que se requiere, pero si en algún momento, la inteligencia artificial se entrena para hacer sus propios modelos, vamos a estar mucho más lejos de entender lo que está pasando. Probablemente ya se están haciendo experimentos para esto, y va a existir una inteligencia artificial mucho más poderosa, e inteligente, que cualquier humano o conjunto de humanos. Es imposible predecir qué va a ocurrir. El futuro siempre ha sido incierto. Los escépticos de la I.A., ya tuvieron las pruebas suficientes. Cada vez avanza más rápido, lo que hace relevante la respuesta de Ray Kurzweil, investigador de Inteligencia Artificial, cuando le preguntaron:


- ¿Cree usted que Dios existe?

- No… Aún….


En el momento pareció una respuesta supersticiosa decir que la Inteligencia Artificial avanzaría tanto que sería más poderosa que el concepto de dios que muchos tienen. Sin embargo, con los avances actuales, cada vez parece más cercana a la realidad.


Hoy en día, la Inteligencia Artificial afecta el hacking, netamente en los ámbitos en que puede engañar a personas generando texto, imágenes o elementos que hagan creer a una persona información falsa.



Aún, no estamos en el punto en el que esta produzca el código de los exploits que tome ventaja de vulnerabilidades en el software. Por lo tanto, el trabajo humano sigue siendo un factor esencial para hackear sistemas. No obstante, se puede inferir, que así como la Inteligencia Artificial es experta creando poesía, pinturas, textos en prosa, ensayos, o incluso código de programación básico, es solo cuestión de tiempo para que pueda analizar el código máquina de un programa, identificar una vulnerabilidad, y generar el código de explotación.


La hipótesis de Ray Kursweil, de que la Inteligencia Artificial se pueda convertir en algo mucho más poderoso que cualquier Dios imaginado por la humanidad, hoy en día no es nada absurda y parece probable. Un tema el cual se analizará a mayor profundidad en el siguiente artículo.






Si deseas tener siempre a la mano el artículo escrito por nuestro ingeniero Samuel Sabogal, te invitamos a descargarlo, compartirlo y comentarnos qué opinas al respecto.


La_Inteligencia_Artificial_puede_hackear
.pdf
Download PDF • 572KB

96 visualizaciones0 comentarios
bottom of page