María Martínez Denia
Tecnología
La cara más peligrosa del ChatGPT: estafas, difusión de mensajes de odio y noticias falsas
Esta herramienta de IA implica grandes peligros para la seguridad
Cada vez está más extendido el uso de ChatGPT, la última novedad de la inteligencia artificial (IA) generativa que se acaba de compartir con el público. Como todo, esta herramienta tiene ventajas y riesgos muy importantes a tener en cuenta para su uso. La empresa de seguridad Prosegur ha publicado las implicaciones de ChatGPT en materia de seguridad.
A pesar de que podemos sacar provecho al nuevo sistema para acciones como la realización tareas rutinarias o establecer una conversación con un 'chatbot', también pueden usarse para difundir mensajes de odio, de carácter extremista o incluso para la práctica del 'phishing'.
Esta técnica informática denominada 'phishing', sirve para generar automáticamente correos electrónicos falsos, que suplantan y tienen apariencia de ser de compañías u organismos públicos, en el que se pide el acceso a información confidencial y puede resultar altamente peligroso. Debido a la gran tecnología en la que se basa, su estilo es de alta calidad, perfecta para no levantar sospechas. Incluso puede derivar en el 'doxing', la relevación de dicha información privada de forma pública, con su consiguiente ciberbullying
Otros de los peligros que puede generar el ChatGPT es la generación y difusión de noticias falsas, llegando a afectar a la sociedad, la democracia y la seguridad nacional, dañando la credibilidad de las organizaciones.
Además de los habituales delitos de robo de datos, estafas, fraudes y la creación de códigos maliciosos, junto a las suplantaciones de identidad a través de las 'deep fakes' para crear vídeos falsos de personas que aparentemente son reales.
Los aspectos más positivo del ChatGPT
Mencionados anteriormente, esta tecnología ofrece grandes beneficios como la automatización de tareas repetitivas y rutinarias, con el objetivo de no perder el tiempo, o una mayor interacción entre clientes y otras personas.
Este tipo de IA permite el acceso a grandes cantidades de información sobre seguridad gracias a su uso del lenguaje natural potenciando las capacidades de inteligencia de fuentes abiertas (OSINT). Para Prosegur esta herramienta es realmente positiva para el análisis de riesgos y en el ámbito del reconocimiento de anomalías y patrones.
La herramienta está capacitada para generar hipótesis, identificar tendencias y construir escenarios, aunque según la empresa de seguridad, "no sustituye de ninguna manera la labor de un analista de seguridad internacional pero apoya algunas tareas". Sin embargo, sí que pueden ayudan en el aprendizaje sobre la seguridad, las tecnologías y sus riesgos.