1. Inicio
  2. / Ciencia y tecnología
  3. / Nunca digas estas cosas a ChatGPT
Tiempo de lectura 5 min de lectura Comentarios 0 comentarios

Nunca digas estas cosas a ChatGPT

Escrito por Alisson Ficher
Publicado el 06/04/2025 a las 15:54
Especialistas alertam: nunca revele dados pessoais a IAs como ChatGPT. Veja quais informações você deve manter longe dessas ferramentas digitais.
Especialistas alertam: nunca revele dados pessoais a IAs como ChatGPT. Veja quais informações você deve manter longe dessas ferramentas digitais.
Seja o primeiro a reagir!
Reagir ao artigo

Compartir datos personales con herramientas de inteligencia artificial puede parecer inofensivo, pero puede costar caro. Conoce qué información nunca debe ser divulgada en chats como ChatGPT, Claude o Gemini, según alertas de especialistas en ciberseguridad.

Los modelos de inteligencia artificial se han convertido en parte de la vida diaria de millones de personas, pero pocos usuarios conocen el riesgo real de compartir información sensible en chats como ChatGPT.

A pesar de las alertas emitidas por las propias plataformas, todavía es común que los internautas revelen más de lo que deberían durante conversaciones con estas herramientas.

Como advirtió la reportera Nicole Nguyen, del diario estadounidense Wall Street Journal, existen al menos cinco tipos de datos que jamás deberían ser compartidos con herramientas de IA.

El riesgo no está solo en la exposición individual, sino también en la forma en que las empresas utilizan esta información para entrenar modelos futuros, lo que puede incluir el intercambio con terceros.

Los Datos Personales Alimentan los Modelos

Aplicaciones como ChatGPT, Gemini (Google) y Claude (Anthropic) dejan claro en sus términos de uso que los datos proporcionados pueden ser utilizados para mejorar los sistemas.

Es decir, todo lo que el usuario escribe allí puede convertirse en parte de la base de entrenamiento de la IA.

Aunque muchas empresas alegan que el proceso es anonimizado, no hay garantías absolutas sobre la privacidad.

“No ingreses información confidencial ni ningún dato que no desearías que un revisor viera”, dice la recomendación oficial de Gemini, de Google, enfatizando los riesgos de exposición.

La situación es aún más delicada cuando se trata de plataformas de origen extranjero con poca transparencia.

Un ejemplo es DeepSeek, un chat de IA desarrollado en China, que, según especialistas en seguridad digital, almacena la información indefinidamente y puede compartirla con el gobierno chino, más específicamente con órganos vinculados al Partido Comunista Chino.

Los 5 Tipos de Información que Nunca Debes Proporcionar

Según el reportaje de Nicole Nguyen, existen cinco categorías de datos que no deben ser compartidos con inteligencia artificial, bajo ninguna circunstancia.

Información de Identidad Personal

    Evita informar número de CPF, RG, pasaporte, licencia de conducir, fecha de nacimiento, dirección completa y teléfono.

    Estos datos son considerados altamente sensibles y pueden ser utilizados en fraudes, clonación de identidad o incluso en estafas financieras.

    Jamás proporciones esta información, ni siquiera de forma parcial.

    Historial o Datos Médicos

      Conversar con IA sobre cuestiones de salud puede parecer inofensivo, pero cualquier dato médico que compartas puede ser almacenado, incluidos síntomas, diagnósticos y tratamientos.

      Además de comprometer tu privacidad, esto puede ser utilizado por empresas para segmentación de anuncios, violando el derecho a la confidencialidad médica.

      Datos Bancarios y Financieros

        No compartas números de cuentas bancarias, tarjetas de crédito, Pix o cualquier otra información financiera.

        Aunque parezca obvio, todavía hay quienes utilizan la IA para organizar finanzas personales y terminan ingresando datos privados, lo que representa un alto riesgo de robo de identidad bancaria o invasión de cuentas.

        Información Corporativa y Confidencial del Trabajo

          Muchos profesionales recurren a herramientas como ChatGPT para revisar textos, generar informes u obtener ideas para reuniones.

          Sin embargo, es esencial utilizar una cuenta empresarial separada y nunca compartir datos estratégicos de la empresa.

          Hay registros de casos en los que las empresas han perdido el control sobre datos sensibles después de usar IA para optimizar tareas internas.

          Inicios de Sesión y Contraseñas

            Jamás registres inicios de sesión o contraseñas en plataformas de IA.

            Aun cuando la conversación parezca segura, estas herramientas no fueron desarrolladas como gestores de contraseñas y no garantizan la encriptación necesaria para este tipo de datos.

            Además, los términos de uso generalmente eximen a la empresa de responsabilidad por cualquier filtración.

            ¿Existe una Manera de Borrar lo que Ya Has Enviado?

            Si te diste cuenta de que has compartido alguna información inapropiada con la IA, aún es posible minimizar los daños.

            En el caso de ChatGPT, el usuario puede borrar datos anteriores a través del panel de configuración.

            Basta con hacer clic en tu nombre en la esquina superior derecha de la pantalla, acceder a “Configuraciones”, luego “Personalización” y seleccionar “Gestionar Memorias”.

            Allí, es posible visualizar lo que se ha almacenado y borrar permanentemente haciendo clic en el ícono de la papelera.

            Para quienes desean un “nuevo comienzo”, también hay la opción de “Limpiar la memoria de ChatGPT”, lo que borra todo el historial de la herramienta.

            Brasil Aún Discute Regulación del Uso de la IA

            En Brasil, la legislación sobre inteligencia artificial aún está en desarrollo, pero el proyecto de ley que busca regular el sector ya avanza en el Congreso Nacional.

            La propuesta busca establecer reglas claras sobre el uso de datos, las responsabilidades de las empresas y los derechos de los usuarios.

            Especialistas en derecho digital advierten que la falta de una legislación robusta aumenta los riesgos a la privacidad y seguridad.

            La tendencia es que en los próximos años, con la popularización de las IAs, estos debates cobren aún más fuerza.

            Buenas Prácticas al Usar Inteligencia Artificial

            Para garantizar seguridad, los especialistas recomiendan adoptar buenas prácticas de uso consciente de la IA:

            Utiliza perfiles diferentes para uso personal y profesional.

            Evita tratar cuestiones sensibles o privadas con asistentes virtuales.

            Lee los términos de uso y entiende cómo se almacenarán tus datos.

            Utiliza IAs solo para finalidades seguras, como organización, resumen de textos o consulta de información pública.

            La Precaución Nunca es Suficiente

            El avance de la inteligencia artificial es inevitable, pero la responsabilidad por el uso consciente aún recae en el usuario.

            Comprender los límites y los riesgos involucrados es fundamental para evitar dolores de cabeza futuros.

            Después de todo, en un entorno digital donde todo puede ser almacenado, revisado y compartido, la mejor protección sigue siendo el sentido común.

            ¿Y tú, alguna vez te has sorprendido compartiendo más de lo que debías con un asistente de inteligencia artificial? ¡Comenta tu experiencia y participa en la conversación!

            Inscreva-se
            Notificar de
            guest
            0 Comentários
            Mais recente
            Mais antigos Mais votado
            Feedbacks
            Visualizar todos comentários
            Alisson Ficher

            Jornalista formado desde 2017 e atuante na área desde 2015, com seis anos de experiência em revista impressa, passagens por canais de TV aberta e mais de 12 mil publicações online. Especialista em política, empregos, economia, cursos, entre outros temas e também editor do portal CPG. Registro profissional: 0087134/SP. Se você tiver alguma dúvida, quiser reportar um erro ou sugerir uma pauta sobre os temas tratados no site, entre em contato pelo e-mail: alisson.hficher@outlook.com. Não aceitamos currículos!

            Compartir en aplicaciones
            0
            Adoraríamos sua opnião sobre esse assunto, comente!x