chatgpt

ChatGPT es una herramienta que puede mejorarnos mucho la vida. Sin embargo, no es recomendable que nos tomemos demasiadas confianzas con ella.

Y es que al final una Inteligencia Artificial no es más que una herramienta informática que puede tener sus fallos. Como el que ha detectado un usuario de Ars Technica, que asegura que ha tenido acceso filtraciones de conversaciones privadas que han tenido otros usuarios en la popular herramienta de IA. Conversaciones en las que se comparten contraseñas, con los problemas de seguridad que eso implica.

chatgpt-rx-store-details-640×595

Contraseñas, informes no publicados y códigos filtrados

El usuario que ha detectado estas filtraciones ha enviado al medio de comunicación especializado en tecnología unas capturas de pantalla en las que se pueden apreciar conversaciones con ChatGPT procedentes de un empleado de una empresa farmacéutica de la que no ha trascendido el nombre.

En estas conversaciones, como podemos ver en la imagen, se pueden ver nombres de usuario y contraseñas. Y lo que hace que resulte preocupante es que igual que este usuario ha podido acceder a estas conversaciones privadas también podrían estar accediendo a ellas otras personas que no tengan buenas intenciones y que puedan acabar vendiendo nuestros datos con finalidades poco legítimas.

Además, en las conversaciones privadas también se han encontrado nombres de informes que todavía no han sido publicados, e incluso códigos de scripts PHP. Los usuarios de las conversaciones que se han filtrado son diferentes, por lo que no parece que se trate de un problema puntual. Es probable que se hayan estado produciendo filtraciones ocasionales todo el tiempo desde que ChatGPT comenzó a generalizarse.

chatgpt-leak-paper-1440×621

No es el primer problema de seguridad de ChatGPT

Aunque siempre hemos tenido la sensación de que ChatGPT es una herramienta de Inteligencia Artificial bastante segura, la realidad es que no es la primera vez que se producen descubrimientos de usuarios que indican que podría no ser tan confiable como pensamos.

Así, el pasado mes de noviembre se publicó un informe que aseguraba que utilizando los prompts adecuados podíamos conseguir que la herramienta de IA nos diera la dirección o el número de teléfono de cualquier persona, lo que atenta directamente contra la protección de datos.

De hecho, algunas compañías entre las que se incluye Apple han restringido a sus empleados el uso de ChatGPT ante la posibilidad de que se produzcan filtraciones y problemas de seguridad importante. Los responsables de OpenAI han asegurado que van a investigar esta nueva situación, pero de momento no sabemos si van a tomar alguna medida concreta para intentar resolver esta filtración.

Entonces, ¿es seguro usar ChatGPT?

Ahora que conoces estos problemas de seguridad, es posible que te estés planteando si es realmente seguro utilizar ChatGPT. La respuesta es que hay que tener cuidado. No vas a tener ningún problema si utilizas la herramienta de Inteligencia Artificial para que te ayude a hacer un trabajo del instituto o para preguntarle una duda en lugar de buscarla en Google. Pero te recomendamos que no introduzcas en ella contraseñas de ninguna herramienta que pueda convertirse en un problema de seguridad para ti. Tampoco es recomendable que le des demasiados detalles de dónde vives, y por supuesto nunca debes introducir en esta herramienta datos bancarios.

Con el uso que damos habitualmente a esta herramienta, lo normal es que no nos encontremos con problemas de seguridad de ningún tipo. Pero a pesar de que se nos venda esta Inteligencia Artificial como algo fiable es importante que tengamos siempre un poco de cuidado.

Recibe nuestras noticias

De lunes a viernes mandamos un newsletter con los titulares del día a +4.000 suscriptores

I will never give away, trade or sell your email address. You can unsubscribe at any time.


OTROS ARTICULOS SOBRE ChatGPT