No compartas demasiado con la IA: qué NO decirle a un chatbot

Foto: NBC Washington

Puedes preguntarle cualquier cosa a los chatbots, ¿pero deberías hacerlo?

Más de 700 millones de personas usan ChatGPT cada semana. Las solicitudes de mensajes diarias superan los 3 mil millones.

Como informó recientemente News4, las personas están recurriendo a los chatbots para obtener ayuda con consejos médicos , cuestiones legales e incluso sobre sus vidas amorosas .

Pero antes de hacerle una pregunta a un chatbot, pregúntese si está bien que otros la compartan y la vean.

Foto: PSYPOST.ORG

La información que proporcionas a ChatGPT es recopilada por su propietario, OpenAI. Esto incluye:

-preguntas

-imágenes

-archivos

-audio

Dicen que utilizan los datos para mejorar y desarrollar sus servicios, cumplir con las obligaciones legales y prevenir el fraude.

La información que usted comparte no es privilegiada a menos que pague por ChatGPT Enterprise, que ofrece protección de privacidad adicional.

Entonces, ¿qué deberías evitar compartir?

Los expertos recomiendan no compartir:

-información financiera o nombres de usuario y contraseñas de cuentas

-información legal o médica

-propiedad intelectual

-datos personales como su nombre, dirección y número de teléfono

Además, piense dos veces antes de darles a los chatbots información que podría ayudar a alguien a responder preguntas de seguridad , como el nombre de su mascota o dónde nació.

Antes de iniciar cualquier chat, desactiva el historial de chat en ChatGPT. Ve a la app, haz clic en Configuración, ve a Controles de datos y desactiva Historial de chat y entrenamiento.

Escrito por Susan Hogan, periodista de investigación de consumidores de News4

 

 

 

.

 

 

.

 

 

 

 

 

 

 

 

Artículos Relacionados

  • Cómo el ICE se volvió rebelde

  • Aranceles 

  • Aerolíneas suspenden vuelos hacia y desde Cuba