Sam Altman, de OpenAI, afirma que interações sensíveis com inteligência artificial não têm a mesma proteção legal de sessões com psicólogos
O CEO do ChatGPT alerta que conversas íntimas com a inteligência artificial podem ser expostas em processos judiciais. Em entrevista recente, Sam Altman chamou atenção para o uso do chatbot como terapeuta informal, alertando que la IA no garantiza confidencialidad como ocorre com profissionais de saúde mental.
É urgente establecer regras claras para proteger a privacidade dos usuários que compartilham questões sensíveis com o ChatGPT, especialmente jovens que usam a IA como coach, conselheiro ou “ouvinte” em momentos de vulnerabilidade.
Conversas com IA não têm sigilo legal garantido

Durante a entrevista, Sam Altman revelou preocupação com a maneira como adolescentes e adultos estão utilizando o ChatGPT para fines terapéuticos. Ele comparou essa prática ao atendimento com médicos ou advogados, que contam com respaldo jurídico de sigilo profissional, algo que no se aplica al ChatGPT.
-
Sistema que promete almacenar energía en colinas, usando un fluido más denso que el agua, alcanza potencia total en el Reino Unido y puede transformar antiguas áreas industriales en baterías hidroeléctricas más pequeñas, rápidas de construir y orientadas a la energía limpia.
-
Elon Musk mira a Brasil y baja el precio de Starlink, su internet: el valor en Magalu vuelve a caer en mayo y la antena portátil con Wi-Fi 5 de doble banda, tecnología 3×3 MU-MIMO y conexión vía satélite se convierte en objetivo de los brasileños en áreas sin fibra, 4G o 5G.
-
Meta acaba de alterar o que tornou famoso o Instagram: la empresa lanza este miércoles (13) un recurso que cambia la forma de compartir fotos en la aplicación y puede indicar hacia dónde va la próxima generación de las redes sociales.
-
Una explosión solar podría rozar la Tierra esta semana, causando una tormenta geomagnética y auroras boreales visibles en Canadá, el norte de los EE. UU. y el Reino Unido.
«Neste momento, se você conversar com um terapeuta, um advogado ou um médico sobre esses problemas, existe um privilégio legal para isso. Ainda não descobrimos isso para quando você fala com o ChatGPT», declarou o CEO da OpenAI.
Segundo as políticas da empresa, las interacciones con la IA pueden ser leídas por moderadores e armazenadas por até 30 dias, mesmo que o usuário delete o histórico. E mais: casos judiciais podem obrigar a OpenAI a divulgar essas conversas, inclusive chats já apagados.
Dados podem ser usados até mesmo contra o usuário
Além da retenção temporária, o conteúdo das conversas é utilizado para treinar o modelo e identificar usos indebidos de la plataforma. Isso significa que, al contrário de apps como WhatsApp ou Signal, que usam criptografia de ponta a ponta, o ChatGPT puede registrar y revisar todo lo que se dice en la conversación.
A discussão sobre privacidade se intensificou após um processo movido em junho de 2025 por veículos como The New York Times, que exigiram judicialmente a preservação de registros da OpenAI — inclusive chats excluídos. A empresa está recorrendo da decisão, que se insere em uma disputa maior sobre direitos autorais e acesso a dados de usuários.
ChatGPT é ferramenta, não substituto de terapia

A fala de Altman também serve de alerta sobre la confusión entre tecnología y cuidado emocional. Embora o ChatGPT possa oferecer suporte em linguagem clara e amigável, no reemplaza la escucha clínica de un psicólogo, nem possui obrigações legais quanto ao sigilo das conversas.
Especialistas refuerzan que, para temas sensíveis como saúde mental, traumas ou decisões pessoais delicadas, el mejor camino sigue siendo buscar ayuda profesional, onde há respaldo ético, técnico e jurídico. A IA, nesse caso, deve ser vista como um recurso complementar — nunca como substituto.
¿Has usado IA para desahogarte o pedir consejos? ¿Crees que debería ofrecer confidencialidad como los profesionales de la salud? Deja tu opinión en los comentarios.

¡Sé la primera persona en reaccionar!