Transformación Digital

Las alertas de ciberseguridad que dispara el avance del ChatGPT

Expertos afirman que esta inteligencia artificial sofisticará ciberataques como phishing o jaqueos de contraseñas. También advierten que el chatbot podría ayudar a los ciberdelincuentes a “educarse”, a crear códigos maliciosos y falsos contenidos.

Por: Renato Olmos / Multimedia: María C. Arvelo | Publicado: Viernes 28 de abril de 2023 a las 04:00 hrs.
  • T+
  • T-
DATA DF
DATA DF

Compartir

El masivo uso de ChatGPT, un chatbot de inteligencia artificial (IA) creado por la startup estadounidense OpenAI, desde su lanzamiento en noviembre pasado ha batido récords y se ha robado las miradas del mundo tech. En solo cinco días superó el millón de usuarios activos y la tecnológica Microsoft le inyectó US$ 10 mil millones en enero.

Pero el avance de la herramienta de IA generativa y sus infinitas posibilidades de uso también ha despertado algunos cuestionamientos relacionados a la ciberseguridad.

A fines de marzo, en Italia, el Garante de la Protección de Datos Personales, una autoridad administrativa independiente, bloqueó temporalmente el uso de ChatGPT en su territorio y abrió una investigación por una supuesta filtración de datos de conversaciones de usuarios e información relacionada al pago de sus servicios de suscripciones.

La situación escaló y a mediados de abril el Comité Europeo de Protección de Datos lanzó un grupo de trabajo sobre ChatGPT para promover la cooperación y el intercambio de información sobre posibles iniciativas para la aplicación del reglamento europeo.

Clic en la esquina inferior derecha del interactivo para ver a pantalla completa:

En Corea, en tanto, empleados de Samsung filtraron contenido sensible de la compañía en tres ocasiones sin estar al tanto de que esos datos estaban siendo recopilados por OpenAI para el entrenamiento del chat.

Si bien la startup ha hecho esfuerzos por calmar a los usuarios, como permitir optar a las personas a no usar sus conversaciones para entrenar al chat, las empresas que utilizan esta herramienta podrían estar poniendo en riesgo información confidencial de los clientes, según un informe de la empresa de riesgo israelí, Team8, reportado por Bloomberg.

Ataques más sofisticados

En Chile, expertos advierten que con el avance de ChatGPT los ciberataques serán más complejos y que la curva de aprendizaje de hackers, que era alta, ahora está siendo menos compleja, porque esta herramienta de alguna manera los está ayudando.

El subgerente de tecnología de Fundación Chile, Iván Córdova, comenta que el principal riesgo serían los intentos de phishing -correos o mensajes maliciosos que generan una interacción con una persona para cometer fraudes- cada vez más sofisticados.

“Hay muchos hackers que usan las ventajas del chat ocupando aspectos de ingeniería social más avanzados, lo que hace más difícil para las personas detectar que al otro lado hay una IA”, dice.

Añade que, si se suma otras herramientas de ingeniería social, como la creación de perfiles falsos en redes sociales, con aplicaciones que pueden simular llamadas telefónicas y voces, el potencial de fraudes sube. “Ya está comenzando a verse y viene muy fuerte en el futuro”, comenta Córdova.

Otra tendencia es el cracking de contraseñas. Explica que esta vulneración ya se está observando y que con ChatGPT sería posible “adivinar” los algoritmos que se utilizan y vulnerar las credenciales de empresas de todo tamaño y de personas. Por ejemplo, cuenta que hackers, con ayuda de este chat, descifraron el algoritmo que crea las licencias del sistema operativo Windows XP y lograron robar licencias.

Hans Findel, chief technology officer de Acid Labs, comenta que con ChatGPT personas malintencionadas acceden a “armas” más fuertes con las que eventualmente no harán un buen uso. “Puede servir para que gente haga códigos maliciosos o virus”, dice.

Advierte que no sería raro observar un alza en la generación de noticias falsas. “Puedes decirle ‘escribe tres artículos sobre este tema’, lo arreglas un poco y lo subes a 10 sitios web y rápidamente ves popularidad y hacer contenido falso que parece verdadero”, alerta.

¿Regular o no?

Tras una carta suscrita por más de mil investigadores y grandes ejecutivos, entre ellos, Elon Musk y el cofundador de Apple, Steve Wozniak, quienes llamaron a “apretar el botón de pausa” al desarrollo de la IA, son varios los que se preguntan si es necesario regular su uso y avance.

Para la socia y líder del área tecnológica de Alessandri Abogados, Macarena Gatica, el camino de regular tecnologías como la IA sería el equivocado, pues podrían desincentivar su uso y desarrollo.

Si bien reconoce que puede faltar transparencia por parte de empresas como OpenAI sobre el uso de datos, cree que bajo la mirada legal lo importante es la gestión de los riesgos asociados a la ciberseguridad, como establecer una política y estructura que permita manejar y mitigar posibles vulneraciones.

“Mi postura es la autorregulación, no necesitamos una ley. Hay aspectos que ya están regulados en la Ley del consumidor. Tienes muchas empresas que ya han empezado a dictar lineamientos o directrices de uso de IA responsable”, enfatiza.

Por otro lado, Findel, de Acid Labs, plantea que se debe avanzar a nivel de Estado y organizaciones, en regulaciones y políticas públicas con marcos regulatorios y colaboración, pero también en educación, desarrollo y uso responsable de la IA y evaluación de riesgo.

Lo más leído