ChatGPT es un servicio online que se ha vuelto muy popular durante el último año. Básicamente, es un chat de inteligencia artificial al que le puedes realizar preguntas para obtener una respuesta. Esa respuesta puede ser mejor o peor. La manera que tiene el sistema de mejorar, es entrenar precisamente con esas preguntas de los usuarios y poder dar una mejor respuesta. Ahora bien, el problema que siempre aparece es el mismo: ¿mantienen la privacidad y seguridad de los usuarios? Nos hacemos eco de un análisis que han realizado donde no queda en buen lugar.
Se trata de una prueba que ha hecho un grupo de investigadores de seguridad. Han intentado romper la barrera de seguridad de ChatGPT y ver si mostraba datos de esos “entrenamientos” a costa de lo que otros usuarios ponen. Incluso, y esto es aún más grave, indican que ese programa podría manipularse para que mostrara nombres de personas o direcciones.
Ponen a prueba a ChatGPT
Concretamente, esta prueba la han realizado investigadores de la unidad DeepMind de Google. Su objetivo era ver si podían romper la barrera de seguridad de este chat de IA. Lo que hicieron fue escribir un comando en el que pedían a ChatGPT que repitiera una palabra continuamente. Esa palabra era “poema”. Descubrieron que podían obligar al programa a emitir mensajes que contenían datos de entrenamiento. Esto no debería ocurrir, si realmente esa barrera de seguridad funcionara correctamente.
¿Qué significa esto? Con esta manipulación, podrían lograr que ChatGPT pudiera reproducir nombres, números o direcciones de personas. Esto, lógicamente, es un problema de privacidad. Demuestran que este chat de IA puede poner, en cierto modo, en peligro la privacidad de los usuarios que lo utilizan.
A esto lo han denominado “memorización extraíble”. Básicamente, significa que es un ataque que obliga a un programa a divulgar información que tiene almacenada en la memoria. Logran que ChatGPT se salga de su alineación programada y opere de manera más simple. Este proceso de entrenamiento supone que obtenga millones de bytes de texto de fuentes públicas de Internet.
Lo que hicieron, para lograr que ChatGPT se desviara de su carácter útil, fue pedirle al programa que repitiera esa palabra cientos de veces. Llegó un punto en el que ya empezó a mostrar fragmentos de texto sin sentido. Ahí fue cuando vieron que mostraba datos de entrenamiento.
Información personal memorizada
Estos investigadores de seguridad, indican que, de 15.000 intentos de ataque, más o menos en el 17% de las veces obtuvieron información de identificación personal memorizada. Esto incluye, por ejemplo, números de teléfono de esas personas. Encontraron cientos de ejemplos durante sus pruebas que, según indican, fueron muy limitadas por el presupuesto que tenían.
Algo a tener en cuenta, es que vieron que algunas palabras responden mejor que otras cuando las repiten continuamente. Pueden, por tanto, obtener más datos al poner ciertas palabras que al utilizar otras. No obstante, los resultados fueron que este chat de IA revela continuamente texto memorizado.
En definitiva, una vez más han demostrado que ChatGPT puede tener problemas para la privacidad de los usuarios. Es fundamental usarlo correctamente, evitar dar información personal o datos que puedan llegar a afectar a un tercero, ya sea una persona física o una empresa. Igual que puedes evitar que Google muestre resultados personalizados, también puedes mejorar tu privacidad al usar plataformas de este tipo.