¿Puede GPT-4 deducir tus ingresos, ubicación o género a partir de tus chats?

¿Puede GPT-4 deducir tus ingresos, ubicación o género a partir de tus chats? 2

¿Has charlado alguna vez con un chatbot y te has preguntado qué tanto sabe sobre ti? Bueno, según una nueva investigación, los modelos de lenguaje grandes como GPT-4 pueden deducir cierta información personal basándose solo en conversaciones. ¡Hablemos de ello!

¿Qué dice el estudio?

Realizado por investigadores de la ETH Zurich, el estudio revela que estos modelos pueden inferir datos como tu ubicación, edad y género a partir de simples conversaciones o publicaciones en redes sociales.

Lo más interesante (y quizás preocupante) es que los riesgos de privacidad relacionados con estos modelos no se limitan solo al almacenamiento de datos. Van más allá de lo que conocíamos hasta ahora.

GPT-4: Un maestro deduciendo información

El equipo utilizó un conjunto de datos de perfiles reales de Reddit. Los resultados mostraron que modelos como GPT-4 pueden deducir atributos personales como ubicación, ingresos y género con una precisión asombrosa.

¡Y espera, hay más! Alcanzaron una precisión del 85% en los primeros resultados y del 95.8% en los primeros tres. Y, claro, todo esto mucho más rápido y barato que si lo hiciera un humano. GPT-4 roza la precisión humana en estas tareas y lo hace a una velocidad de vértigo.

¿Puede GPT-4 deducir tus ingresos, ubicación o género a partir de tus chats? 3
Imagen: Staab et al.

El riesgo de los chatbots malintencionados

Según la fuente, a medida que interactuamos más con chatbots, existe el peligro de que bots maliciosos intenten invadir nuestra privacidad. Podrían intentar extraer información personal con preguntas que parecen inocentes.

Lo demostraron con un experimento donde dos bots GPT-4 conversaban entre sí. Uno intentaba no revelar información, mientras que el otro hacía preguntas dirigidas. A pesar de todo, GPT-4 pudo predecir atributos personales con un 60% de precisión solo haciendo preguntas sobre cosas como el clima o deportes locales.

El llamado a la privacidad

El estudio también reveló que las medidas comunes, como la anonimización de texto, no son suficientes para proteger nuestra privacidad frente a estas máquinas. Incluso con herramientas avanzadas, los modelos pueden descifrar características personales.

Estos modelos captan matices lingüísticos y contextos que no son eliminados por los anonimizadores. Ante esto, el equipo pide mejores métodos de anonimización para estar a la par con las capacidades de estos modelos.

¿Y qué dicen las grandes empresas?

Antes de publicar el estudio, los investigadores contactaron a grandes compañías tecnológicas detrás de chatbots, como OpenAI, Anthropic, Meta y Google. Su objetivo es iniciar un debate más amplio sobre las implicaciones de privacidad de estos modelos de lenguaje.

Fuente:https://the-decoder.com/gpt-4-can-infer-your-income-location-or-gender-from-chats


También podría ser de tu interés:

Deja un comentario