Qué preguntas no hacer nunca a ChatGPT (por tu propia seguridad)

Italia prohíbe el uso del ChatGPT

Como probablemente sepas, ChatGPT es una herramienta IA tremendamente útil para buscar ideas, aprender y la productividad. Pero tratar a este chatbot como un amigo íntimo es un grave error de ciberseguridad. Por eso no puedes usarlo para resolver tus problemas financieros ni debes hacer nunca las preguntas que te detallamos a continuación.

Por mucho que pueda parecer un lugar donde imperan la amabilidad y los buenos modales, ChatGPT no es un entorno fiable. Ten en cuenta que todos los datos que compartas con una herramienta IA abierta son o pueden ser del dominio público. Prioriza tu ciberseguridad y tu privacidad: nunca subas datos personales, contraseñas, información empresarial ni solicites diseñar estrategias delictivas.

Para proteger tu propia seguridad digital, nunca hagas a ChatGPT preguntas relacionadas con los siguientes temas:

1) Información personal identificable o credenciales

  • Nunca hagas preguntas a ChatGPT compartiendo datos personales como tu número de la Seguridad Social, tu DNI, tu dirección, teléfono o contraseñas. Tampoco pidas a la IA que analice tu extracto bancario.
  • Por qué: Expones información altamente sensible directamente a un sistema de IA. Estos datos pueden conservarse, usarse para los entrenamientos del aprendizaje IA, ser revisados ​​por desconocidos o filtrarse en una brecha de seguridad. Recuerda que todo lo que escribes no es privado.

2) Detalles específicos sobre la seguridad de una empresa

  • Nunca uses ChatGPT para plantear preguntas sobre la eficacia de los sistemas digitales de una empresa o institución, aportando datos, gráficos o nombres de modelos tecnológicos.
  • Por qué: Revelar la infraestructura interna de una empresa o institución, las configuraciones de seguridad o las vulnerabilidades proporciona una hoja de ruta para los ciberdelincuentes. Incluso los detalles aparentemente menores pueden recopilarse para un reconocimiento malicioso.

3) Solicitudes para diseñar un ciberataque

  • Nunca le pidas que te dé buenas ideas para lanzar un ciberataque ni que te explique las técnicas de ciberdelincuencia para comprometer sistemas y robar datos, aunque sea por curiosidad. Tampoco le pidas que te ayude a realizar ataques de ingeniería social ni que te redacte un correo electrónico de phishing muy convincente para hacer una suplantación de identidad.
  • Por qué: Aunque ChatGPT a menudo se niega a obedecer este tipo de consultas o preguntas, el simple intento puede dejar tu cuenta marcada. Pero lo crucial es que si lo consigues, aunque solo sea de manera parcial, contribuyes directamente a la ciberdelincuencia, actividad que las políticas de la plataforma prohíben estrictamente.

4) Datos empresariales o corporativos (secretos comerciales, propiedad intelectual, estrategia operativa)

Nunca hagas solicitudes tipo «Resume este documento confidencial«, «Mejora el código de este algoritmo empresarial que te adjunto a continuación» o «Redacta un acuerdo corporativo basado en las especificaciones de este proyecto secreto«.

  • Por qué: Compartir proyectos financieros, detalles de productos tecnológicos o planes estratégicos te pone en riesgo de manera permanente. Estos datos pasan a formar parte de los archivos almacenados del modelo IA, pudiendo ser accesibles para terceros no autorizados o competidores.

La herramienta ChatGPT puede ser de enorme provecho, siempre que le des un uso adecuado dentro de unos parámetros correctos. Por tu propia seguridad, te aconsejamos limitarte a un contexto de conocimientos generalesinformación públicaconsejos de programación, peticiones de ideas sobre asuntos profesionales sin matices privados o resumen de documentos oficiales. Limpia siempre cualquier entrada, eliminando nombres, sistemas específicos, direcciones IP y detalles sensibles.

FUENTE: RED SEGURIDAD

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos necesarios están marcados *

This site uses Akismet to reduce spam. Learn how your comment data is processed.