Estas últimas semanas (muchas semanas) he estado oyendo y leyendo sobre Chat GPT, y quería contarte mi experiencia con esta IA que tanto ha dado de qué hablar.
Lo primero ¿sabes en qué consiste Chat GPT (o yípiti)?
Si estás en el planeta Tierra 🌍 supongo que sí, pero por si acaso, te lo cuento:
Es un sistema de chat que ha desarrollado la empresa OpenAI y que está basado en un modelo de lenguaje por Inteligencia Artificial llamado GPT-3.
Ahora, para muggles, es un chat al que puedes preguntar y consultar sobre prácticamente cualquier tema (hasta 2021), y te da una serie de respuestas en relación con lo que solicites, como por arte de magia 🪄 (la IA vamos).
Alguna de las utilidades que puede tener y que nos facilitarán la vida son:
Respuestas a preguntas generales.
Recomendaciones de películas, series, libros, restaurantes, hoteles, lugares que visitar, recetas de platos de cocina, utensilios que comprar, ropa, etc.
Simulaciones de conversaciones en otro idioma para practicar.
Identificación de canciones o artistas.
Planificación de tareas y organización de horarios.
Todo esto son ejemplos con los que he jugado o y con los que me he divertido bastante probando, pero claro, toca centrarnos en ciberseguridad y esta tecnología, como no podía ser de otra forma, también se podría usar con fines maléficos 😈. Algunos ejemplos:
Phishing, para generar correos electrónicos, webs o mensajes de texto con los que obtener información sensible de víctimas.
Ataques de ingeniería social, para crear perfiles de usuarios falsos en redes sociales y tener conversaciones con perfiles específicos para obtener información sensible o confidencial.
Suplantación de identidad, donde podría hacerse pasar por un empleado de una empresa para obtener información confidencial.
Malware, para crear código malicioso o enviar enlaces con el que descargar malware.
Ataques de DoS, solicitando que envíe peticiones masivas a un objetivo/víctima dejándolo sin servicio e inaccesible.
Otro de los riesgos que están comenzando a aparecer es la presencia de vulnerabilidades que se pueden usar para explotar las funcionalidades de estar IAs, una de las que más se habla es del prompt injection.
¿Qué es el prompt injection?
Es una técnica basada en la inyección 💉 de instrucciones o sugerencias (lo que le decimos al chat) que se utiliza para entrenar el modelo. Estas inyecciones pueden influir en el comportamiento del chat y tratar de influenciarlo con sesgos y factores éticos que le afecten a la hora de generar texto o tomar decisiones.
Al final, lo que le pedimos al char no deja de ser una entrada de datos que la IA tiene que procesar, y si conseguimos alterar su funcionamiento normal con nuestras inyecciones se puedes conseguir comportamientos que no deberían suceder terminando por ejemplo en la exposición de información confidencial.
Pero… ¿es chat GPT vulnerable a prompt injection? Le he preguntado y esto es lo que me ha respondido:
No se moja mucho la verdad… y dice que no puede ser engañado por este tipo de técnica, pero, “sujétame el cubata…🍹”
Veamos no uno, sino dos casos reales. El primero, ha sido muy sonado hace unas semanas cuando un estudiante consiguió que Bing a través de la integración de chatGPT le desvelara contenido confidencial de la configuración interna del chat (Sydney), podéis ver el detalle en el hilo de Twitter que compartió el autor:
O este segundo ejemplo, de otro estudiante al que la propia IA considera una amenaza:
¿Qué te parece?
Como ves, la herramienta en sí es muy útil, pero una última cosa a tener en cuenta, debes tener cuidado ya que las preguntas y las consultas que realices servirán para “alimentar” más aún la inteligencia que usa, por lo que no es nada recomendable compartir información sensible, ya sea de donde trabajes o a nivel personal.
Por cierto, ¿cuál es la consulta más curiosa que le has hecho al chat GPT que se pueda contar? Te leo en los comentarios 👼
Bonus track: No te lo puedes perder
Meses de agendas ajetreadas, con tres eventos en el horizonte. Los dos primeros este fin de semana, coinciden:
MorterueloCON, un clásico de las conferencias en España, tendrá lugar el 23, 24 y 25 de febrero en Cuenca, ya van por su IX edición.
H-C0N, en La Nave, Madrid, los días 24 y 25 de febrero. Con las entradas agotadas, se ha convertido en un must del panorama de hacking de la capital.
Y por último Rooted CON, que se acerca y ya vienen los nervios, y la semana pasada tuvimos un adelanto de lo que podemos esperar por parte de los partners que hay este año en Rooted:
Nos acompañaron la gente de ProtAAPP y hacktricks, lo puedes ver aquí. También hay track de criptored que no se pudo unir.
Ah, y esta semana terminamos de anunciar ponentes, patros y ¿la agenda?