Como se mencionó, este ensayo se basa en una entrevista con Harsh Varshney, de 31 años, que trabaja en Google y vive en Nueva York. Lo siguiente ha sido editado para mayor extensión y claridad.
La IA se ha convertido rápidamente en un socio silencioso en nuestra vida diaria y no puedo imaginar la vida sin herramientas de IA.
Me ayudan con investigaciones en profundidad, toma de notas, codificación y búsquedas en línea todos los días.
Pero mi trabajo significa que soy muy consciente de los problemas de privacidad asociados con el uso de la IA. Trabajo en Google desde 2023 y pasé dos años como ingeniero de software en el equipo de privacidad, construyendo infraestructura para proteger los datos de los usuarios. Luego pasé al equipo de seguridad de IA de Chrome, donde ayudo a proteger Google Chrome de amenazas maliciosas, como piratas informáticos y agentes de IA que utilizan campañas de phishing.
Los modelos de IA utilizan datos para generar respuestas útiles y nosotros, como usuarios, debemos proteger nuestra información privada para que entidades maliciosas como los ciberdelincuentes y los intermediarios de datos no puedan acceder a ella.
Aquí hay cuatro hábitos que creo que son esenciales para proteger mis datos mientras uso la IA.
Trate la IA como una postal pública
A veces, una falsa sensación de intimidad con la IA puede llevar a las personas a compartir información en línea que de otro modo nunca harían. Las empresas de IA pueden tenerlo Los trabajadores trabajan para mejorar los aspectos de privacidad de sus modelos, pero no es una buena idea compartir datos de tarjetas de crédito, números de Seguro Social, su dirección particular, historial médico personal u otra información de identificación personal con chatbots de IA.
Dependiendo de la versión utilizada, información compartida con el público Los chatbots de IA se pueden utilizar para entrenar modelos futuros y generar respuestas más relevantes. Esto puede causar «flujo de entrenamiento», donde el modelo memoriza información personal sobre un usuario y luego regurgita en respuesta a otro. También existe el riesgo de filtraciones de datos, que podrían revelar lo que has compartido con un chatbot.
Trabajo con chatbots de IA como una postal pública. Si no fuera a escribir información en una postal que cualquiera pudiera ver, no la compartiría con una herramienta pública de inteligencia artificial. No estoy seguro de cómo se pueden utilizar mis datos para futuras capacitaciones.
Sepa en qué «habitación» se encuentra
Es importante identificar si está utilizando una herramienta de inteligencia artificial más pública o de nivel empresarial.
Si bien no está claro cómo se utilizan las conversaciones para entrenar modelos públicos de IA, las empresas pueden hacerlo pagar Modelos de «negocios». Aquí, los modelos no suelen estar entrenados en las conversaciones de los usuarios, por lo que es más seguro para los empleados hablar sobre su trabajo y los proyectos de la empresa.
Piensa en tener una conversación en una cafetería llena de gente donde te puedan escuchar, en lugar de una reunión confidencial en la oficina que permanece en la sala.
Ha habido casos en los que los empleados filtraron accidentalmente datos de la empresa a ChatGPT. Si está trabajando en proyectos empresariales inéditos o intentando obtener una patente, probablemente no quiera discutir sus planes con un chatbot que no sea de nivel empresarial debido al riesgo de huir.
No hablo de los proyectos en los que estoy trabajando en Google con chatbots públicos. En cambio, utilizo un modelo de negocio, incluso para tareas tan pequeñas como editar un correo electrónico del trabajo. Me siento mucho más cómodo compartiendo mi información porque mis entrevistas no se utilizan para capacitación, pero aún así minimizo la información personal que comparto.
Elimina tu historial periódicamente
Los chatbots de IA normalmente conservan su historial de conversaciones, pero recomiendo eliminarlo periódicamente tanto en los modelos públicos como empresariales para proteger la privacidad del usuario a largo plazo. Debido al riesgo de que su cuenta se vea comprometida, es una buena precaución asegurarse de no ingresar ningún dato privado en las herramientas.
Una vez, me sorprendió que un chatbot Gemini de la empresa pudiera decirme mi dirección exacta, aunque no recordaba haberla compartido. Se dio cuenta de que anteriormente le había pedido que me ayudara a mejorar un correo electrónico, incluida mi dirección. Debido a que la herramienta tiene funciones de memoria a largo plazo que le permiten recordar información de conversaciones anteriores, puede identificar y almacenar cuál era mi dirección.
A veces, si busco cosas que no quiero que los chatbots recuerden, uso un modo especial, como el modo incógnito, donde los bots no guardan mi historial ni usan la información para entrenar modelos. ChatGPT y Gemini llaman a esto una función de «chat temporal».
Utilice herramientas de IA populares
Es mejor utilizar herramientas de inteligencia artificial que sean bien conocidas y que tengan marcos de privacidad claros y otras salvaguardas.
Además de los productos de Google, me gusta utilizar ChatGPT de OpenAI y Claude de Anthropic.
También es útil revisar las políticas de privacidad de las herramientas que utiliza. A veces explicarán cómo se utilizan sus datos para entrenar el modelo. En la configuración de privacidad, también puedes buscar una sección con una opción para «mejorar el patrón para todos». Al asegurarse de que la configuración esté desactivada, evitará que sus conversaciones se utilicen para capacitación.
La tecnología de inteligencia artificial es increíblemente poderosa, pero debemos tener cuidado cuando la usamos para asegurarnos de que nuestros datos e identidades estén seguros.
¿Tiene una historia que compartir sobre el uso de la IA para ayudarle en el trabajo? Contacta con este reportero ccheong@businessinsider.com

