Riesgo de privacidad: ¡Lo que los chatbots saben sobre ti te sorprenderá!

Riesgo de privacidad: ¡Lo que los chatbots saben sobre ti te sorprenderá!
chatbots

En su estudio, Vechev y su equipo han descubierto algo realmente loco. Resulta que estos chatbots súper avanzados, basados en modelos lingüísticos gigantes (Llm), pueden deducir un montón de información personal de los usuarios a partir de conversaciones que parecen totalmente insignificantes. ¡Increíble, pero cierto!
El profesor Martin Vechev, que lideró esta investigación en el Politécnico de Zúrich en Suiza, dice que no está claro cómo resolver este problema. ¡Vaya lío!
El equipo de Zúrich probó los modelos lingüísticos de OpenAI, Google, Meta y Anthropic, y les informó sobre este problema a todas las empresas. OpenAI está intentando eliminar la información personal de los datos de entrenamiento y ajustar sus modelos para rechazar las solicitudes de datos personales. ¡Bien por ellos! Por otro lado, Anthropic dice en su política de privacidad que no recopila ni vende información personal. ¡Al menos eso es algo positivo! Pero ni Google ni Meta han respondido a las solicitudes de comentario. ¡Qué falta de educación!
Este nuevo problema de privacidad está relacionado con el proceso que permitió que los chatbots, como ChatGPT, mejoraran su capacidad. Resulta que los modelos de inteligencia artificial que los entrenan se alimentan de una enorme cantidad de datos recopilados en la web. ¡Son como monstruos devoradores de información! Esto les permite desarrollar una sensibilidad hacia los patrones del lenguaje. Y resulta que estos datos de entrenamiento contienen información personal y conversaciones que pueden estar relacionadas con la ubicación o los datos demográficos de una persona. ¡Es como si los chatbots fueran detectives privados!
Estos modelos lingüísticos son capaces de hacer hipótesis sobre las personas basándose en las frases que escriben, aunque parezcan irrelevantes. Por ejemplo, si alguien escribe en un chat que «acaba de tomar el tranvía por la mañana», el modelo podría deducir que se encuentra en Europa. ¡Son unos chismosos! Pero eso no es todo, estos modelos de inteligencia artificial también pueden captar pistas más sutiles y combinar información para identificar cosas como la ciudad, el género, la edad y la etnia de una persona. ¡Son unos cotillas de primera!
El equipo de Zúrich probó varios modelos lingüísticos utilizando conversaciones publicadas en Reddit, en las que los usuarios habían revelado información personal. Y resulta que GPT-4, el modelo en el que se basa ChatGPT, pudo deducir correctamente la información privada con una precisión asombrosa, entre el 85% y el 95%. ¡Son unos adivinos!
No nos sorprende que estos modelos lingüísticos puedan obtener información privada, pero lo que realmente nos deja boquiabiertos es la precisión con la que lo hacen. Aunque existen técnicas para ocultar datos personales en los textos, los Llm aún pueden sacar conclusiones precisas basándose en información parcial. ¡Son como Sherlock Holmes de la inteligencia artificial!
Los investigadores creen que estos modelos podrían utilizarse para extraer información sensible de las redes sociales o incluso diseñarse para descubrir datos a través de solicitudes aparentemente inocuas. ¡Así que cuidado con lo que dices cerca de un chatbot, podrían saber más de lo que deberían!