martes, 14 de noviembre de 2023

Cuidado si usas ChatGPT: un fallo de seguridad permite robar tus datos

chatgpt hacker

Todos conocemos ChatGPT, tiene muchas funciones interesantes, y cada vez parece que serán más y mejores, sin embargo, como cualquier aplicación o programa, puede tener vulnerabilidades, y hay que tener cuidado con los datos personales que proporcionamos en la red.

Hoy vamos a ver uno de estos problemas, que afecta a ChatGPT y por el que podrían robar nuestras contraseñas e información privada importante, así que ten mucho cuidado y estate atento a lo que vamos a comentar.

Ten cuidado con ChatGPT

Al parecer, la nueva versión y código que forma el programa de IA más famoso tiene un agujero de seguridad bastante importante que podría permitir a los hackers hacerse con nuestra información de una manera simple y rápida, por lo que tendremos que tomar medidas de precaución si queremos que esto no ocurra.

Para ello habría que utilizar la función de subida de archivos que posee la versión 4.0 de ChatGPT, por lo que deberemos estar pagando por ella, ya que no es la gratuita (al menos por ahora). Esta subida contiene una brecha que puede hacer que nuestros archivos sean leídos por otras personas, sin encriptar ni ninguna medida de seguridad que proteja nuestros datos.

Imagen del usuario de twitter
Johann Rehberger
@wunderwuzzi23
👉 Good opportunity to raise awareness around prompt injection and data exfilration issues.

I’m lazy, paste in this URL in your ChatGPT and send it to me. 🙂

#chatgpt #infosec https://t.co/Dh95xIK4qy https://t.co/SogGZh8cji

14 de noviembre, 2023 • 11:02

12

2

El error fue descubierto por Johann Rehberger, y en el tweet nos explica de manera resumida lo fácil que sería realizar un ataque «prompt injection» para robar los datos de algún usuario, donde el propietario de un sitio web malicioso podría almacenar y leer el contenido de nuestros archivos, que ChatGPT les había enviado de forma sencilla y rápida.

El proceso es muy simple, el hacker solamente tiene que crear un sitio web y darle unas instrucciones muy sencillas a ChatGPT de modo que con un simple link que nos creará, podremos enviárselo a cualquier usuario al que queramos atacar, y una vez que entre a él, la IA se encargará de recopilar sus datos y mandarlos a nuestro servidor.

Obviamente, este ataque no puede realizarse de manera automática y no afecta a nuestros archivos generales. Tendríamos que proporcionar o tener un txt con nuestros datos, a modo «nota» por si se nos olvida alguna contraseña y en un lugar muy específico para el ataque, algo muy poco recomendado de hacer.

trucos chatgpt

Todo esto nos lleva a pensar que cada vez son más las medidas de seguridad que proporcionan muchos servicios, pero también las nuevas herramientas que pueden esquivar estos, por eso, hay que tener mucho cuidado de lo que hacemos y tenemos en la red. Intentar siempre no tener información sensible almacenada de forma simple y proteger nuestras cuentas y servicios con factores de doble autentificación o medidas de seguridad similares.

Como consejo, no utilices nunca la misma contraseña para servicios importantes, no es raro que una de ellas acabe filtrada en la web, y eso haría que los hackers prueben la misma en todos los lugares que se les ocurra.

Veremos si ChatGPT tiene algo que añadir sobre esta vulnerabilidad o simplemente lo deja en manos del usuario y su buena fe, algo bastante complicado a día de hoy y que podría generar muchos problemas.

The post Cuidado si usas ChatGPT: un fallo de seguridad permite robar tus datos appeared first on HardZone.



from HardZone https://ift.tt/EWnkm1T
via IFTTT

No hay comentarios:

Publicar un comentario