Un abogado de inmigración podría enfrentar una investigación disciplinaria después de que un juez dictaminara que usó Herramientas de inteligencia artificial como chatgpt para preparar su investigación jurídica.
Un tribunal escuchó que un juez confundido cuando Chowdhury Rahman presentó sus presentaciones, que incluían citar casos que eran “completamente falso”O“ completamente irrelevante ”.
Un juez concluyó que Rahman también intentó “ocultar” esto cuando fue interrogado y “desperdició” el tiempo del tribunal.
El incidente ocurrió mientras Rahman representaba a dos hermanas hondureñas que solicitaban asilo en el Reino Unido porque estaban siendo atacadas por una violenta banda criminal llamada Mara Salvatrucha (MS-13).
Después de llegar al aeropuerto de Heathrow en junio de 2022, pidieron refugio y dijeron durante las entrevistas de selección que la pandilla había querido que fueran “mujeres para ellos”.
También afirmaron que los miembros de la pandilla habían amenazado con matar a sus familias y los habían estado buscando desde que abandonaron el país.
Una de las autoridades citadas para respaldar su caso ha sido utilizada incorrectamente anteriormente por ChatGpt (AP)
En noviembre de 2023, el Ministerio del Interior rechazó su solicitud de asilo y señaló que sus relatos eran “inconsistentes y no estaban respaldados por pruebas documentales”.
Apelaron el asunto ante el Tribunal de Primera Instancia, pero la solicitud fue rechazada por un juez que “no aceptó que los recurrentes fueran objeto de atención desfavorable” por parte de la MS-13.
Luego apelamos al Tribunal Superior, con el Sr. Rahman actuando como abogado. Durante la audiencia, argumentó que el juez no había evaluado suficientemente la credibilidad, había cometido un error legal al evaluar las pruebas documentales y no había considerado el impacto de la reubicación interna.
Sin embargo, estas acusaciones fueron rechazadas de manera similar por el juez Mark Blundell, quien rechazó la apelación y dictaminó “que el señor Rahman no dijo nada oralmente o por escrito que estableciera un error legal por parte del juez”.
Sin embargo, en una nota a pie de página del fallo, el juez Blundell se refirió a “problemas importantes” que habían surgido de la apelación con respecto a la investigación jurídica del Sr. Rahman.
De las 12 autoridades citadas en el recurso de apelación, el juez descubrió que algunas ni siquiera existían y otras no “apoyaban las propuestas jurídicas sobre las cuales fueron citadas”.
Después de investigar esto, descubrió que el Sr. Rahman parecía “desconocido” con los motores de búsqueda legales y “constantemente incapaz de entender” hacia dónde dirigir al juez en los casos que había citado.
Rahman dijo que había utilizado “varios sitios web” para realizar su investigación, y el juez señaló que ChatGpt había utilizado recientemente uno de los casos citados en otro caso legal.
El juez Blundell señaló que, dado que el Sr. Rahman “parecía no saber nada” de ninguna de las autoridades que había citado, algunas no existían, todas sus presentaciones eran “engañosas”.
“En mi opinión, es muy probable que el señor Rahman haya utilizado una inteligencia artificial productiva para fundamentar la apelación en este caso y que haya tratado de ocultarme ese hecho durante la audiencia”, dijo el juez Blundell.
“Ha sido llamado al colegio de abogados de Inglaterra y Gales, y simplemente no le es posible malinterpretar todas las autoridades identificadas como base de la apelación en la medida que he identificado anteriormente”.
Concluyó que ahora estaba considerando denunciar al Sr. Rahman ante la Junta de Normas del Colegio de Abogados.
















