1. Início
  2. / Legislación y Derecho
  3. / Caso Inédito Expone Riesgo De La Inteligencia Artificial En El Derecho: Tribunal Condena A Abogado Por Confiar Ciegamente En ChatGPT En Petición Judicial
Tempo de leitura 4 min de leitura Comentários 3 comentários

Caso Inédito Expone Riesgo De La Inteligencia Artificial En El Derecho: Tribunal Condena A Abogado Por Confiar Ciegamente En ChatGPT En Petición Judicial

Publicado em 28/09/2025 às 11:58
Caso inédito mostra riscos da inteligência artificial no Direito: tribunal condena advogado por usar ChatGPT com citações falsas e aplica multa de US$ 10 mil.
Caso inédito mostra riscos da inteligência artificial no Direito: tribunal condena advogado por usar ChatGPT com citações falsas e aplica multa de US$ 10 mil.
  • Reação
  • Reação
  • Reação
  • Reação
  • Reação
18 pessoas reagiram a isso.
Reagir ao artigo

Tribunal de California Aplicó Multa de US$ 10 Mil Tras Detectar Petición con Citaciones Falsas Creada por ChatGPT.

Un caso inédito expuso los riesgos del uso de la inteligencia artificial en el Derecho. El Tribunal de Recursos del 2º Distrito de California multó con US$ 10 mil al abogado Amir Mostafavi, quien presentó una petición llena de citas jurídicas falsas producidas por ChatGPT.

Según el Conjur, 21 de las 23 referencias incluidas en el documento eran fabricadas, lo que llevó a la corte a transformar el proceso en un ejemplo para todo el sistema judicial.

La decisión fue publicada incluso en circunstancias que normalmente no justificarían divulgación, justamente para advertir a abogados y jueces sobre los peligros de la confianza ciega en herramientas de IA.

El Caso que Encendió la Alerta

La petición de Mostafavi llamó la atención porque incluía precedentes inexistentes o incorrectos.

El tribunal destacó que las llamadas “alucinaciones” de la IA respuestas que parecen plausibles, pero no corresponden a la realidad crearon jurisprudencias que simplemente no existían.

La corte fue categórica: el abogado falló al no chequear el contenido producido por la herramienta.

Para los jueces, no hay nada de malo en usar tecnología en el proceso jurídico, pero el deber de verificación es exclusivo del profesional.

Sanciones y Efecto Pedagógico

Además de la multa de US$ 10 mil, el tribunal determinó que Mostafavi entregara copias de la decisión a su cliente y a la sección de la American Bar Association en California.

El objetivo es ampliar la discusión sobre ética profesional y producir guías de conducta enfocadas en el uso responsable de la IA en el Derecho.

De acuerdo con el Conjur, el colegiado de tres jueces dejó claro que la pena sirve como advertencia para toda la comunidad jurídica.

La publicación de la decisión fue considerada necesaria ante el aumento exponencial de casos similares en los tribunales norteamericanos.

Problema en Crecimiento

Estudios recientes apuntan que hasta tres de cada cuatro abogados ya utilizan herramientas de IA generativa en el trabajo.

El problema es que, en alrededor de un tercio de las situaciones, los modelos terminan presentando información falsa o distorsionada.

Investigadores como Damien Charlotin y Nicholas Sanctis afirman que el número de casos de este tipo está creciendo mes a mes.

Si antes se registraban pocas ocurrencias esporádicas, hoy los relatos llegan a decenas por semana, en diferentes áreas del Poder Judicial.

El Impacto para la Justicia

El tribunal resaltó que acciones frívolas oneran todo el sistema, desviando tiempo y recursos que podrían ser dedicados a litigios legítimos.

La decisión también llamó la atención para los contribuyentes, que terminan asumiendo costos adicionales cuando la Justicia necesita revisar e investigar peticiones basadas en falsedades.

Especialistas afirman que la tendencia es de agravamiento a corto plazo. Muchos modelos de lenguaje priorizan dar respuestas, incluso cuando no tienen datos confiables, lo que incrementa la probabilidad de errores.

Límites de la Tecnología en el Derecho

A pesar de los riesgos, la corte reconoció que la inteligencia artificial en el Derecho puede ser una herramienta útil, siempre que se use con responsabilidad.

Para los jueces, no corresponde a la IA sustituir el trabajo crítico de los abogados, sino solo auxiliarles en investigaciones y tareas preliminares.

El mensaje es claro: la tecnología no elimina la necesidad de lectura atenta y verificación rigurosa.

Abogados que deleguen totalmente la elaboración de argumentos jurídicos a las máquinas pueden poner en riesgo no solo a sus clientes, sino también la credibilidad de la Justicia.

El caso de Amir Mostafavi muestra cómo la dependencia ciega de la tecnología puede traer consecuencias graves, incluso para profesionales experimentados.

Al mismo tiempo, refuerza el debate sobre los límites y responsabilidades en el uso de la inteligencia artificial en el Derecho.

¿Y tú, crees que la IA debe tener mayor espacio en el sistema judicial o que su uso debe ser restringido para evitar abusos?

Deja tu opinión en los comentarios, queremos escuchar tu análisis sobre este desafío ético y tecnológico.

Inscreva-se
Notificar de
guest
3 Comentários
Mais recente
Mais antigos Mais votado
Feedbacks
Visualizar todos comentários
Rosimara Saraiva Caparroz
Rosimara Saraiva Caparroz
29/09/2025 17:05

Minha PETIÇÃO acabou de subir ao Conselho Nacional de Justiça – CNJ com o uso escancarado da AI, pois a tecnologia deve estar ao nosso serviço, inclusive o(a) ADVOGADO(A) deve falar na própria petição sobre o uso da AI, pois esta atitude demonstra superioridade à qualquer máquina!!! Nós nos tornamos superiores quando colocamos a AI no patamar de serviçal da humanidade
Link da PETIÇÃO: https://drive.google.com/file/d/1LBeMbDADyRBXl9i5nUPmBI7lUDMdQkuV/view?usp=drivesdk

Paulo Nogueira
Paulo Nogueira(@petroleo)
Admin
Active Member
Em resposta a  Rosimara Saraiva Caparroz
02/10/2025 13:06

Boa tarde, seu e-mail de cadastro de comentário aqui no blog é o que podemos entrar em contato para sabermos mais sobre a petição?

Humberto Cláudio
Humberto Cláudio
28/09/2025 22:05

Eu entendo que a IA é somente uma auxiliar, não só na justiça, como em todas as outras profissões. Mas não pode passar disso. A responsabilidade final é do ser humano, o profissional. E deve haver sempre a checagem.

Maria Heloisa Barbosa Borges

Falo sobre construção, mineração, minas brasileiras, petróleo e grandes projetos ferroviários e de engenharia civil. Diariamente escrevo sobre curiosidades do mercado brasileiro.

Compartilhar em aplicativos
3
0
Adoraríamos sua opnião sobre esse assunto, comente!x