Home Deportes Las conversaciones de chatbot de IA podrían usarse contra personas en los...

Las conversaciones de chatbot de IA podrían usarse contra personas en los tribunales, advierten abogados después de un fallo federal

6

15 de abril: a medida que la gente recurre cada vez más a la inteligencia artificial en busca de asesoramiento, algunos abogados estadounidenses les dicen a sus clientes que no traten a los chatbots de IA como confidentes confiables cuando su libertad o responsabilidad legal están en juego.

Estas advertencias se volvieron más urgentes después de que un juez federal en Nueva York él gobernó El ex director ejecutivo de una empresa de servicios financieros que quebró este año no pudo proteger sus chats de inteligencia artificial de los fiscales que perseguían valores. Acusaciones de fraude contra él.

A raíz del fallo, los abogados sugieren que las conversaciones con chatbots como Anthropics Cloud y ChatGPT de OpenAI podrían ser citadas por los fiscales en casos penales o los litigantes en casos civiles.

A medida que la gente recurre cada vez más a la inteligencia artificial en busca de asesoramiento, algunos abogados estadounidenses están diciendo a sus clientes que no traten a los chatbots de IA como confidentes confiables cuando su libertad o su responsabilidad legal están en juego. Ascannio – stock.adobe.com

“Les estamos diciendo a nuestros clientes: deben proceder con precaución”, dijo Alexandria Gutiérrez Swette, abogada del bufete de abogados Cobre & Kim, con sede en Nueva York.

Las conversaciones de las personas con sus abogados siempre se consideran confidenciales según la ley estadounidense. Pero los chatbots de IA no son abogados, y los abogados instan a sus clientes a tomar medidas para que sus interacciones con las herramientas de IA sean más privadas.

En correos electrónicos a clientes y consejos publicados en sus sitios web, una docena de importantes firmas de abogados estadounidenses describieron consejos para personas y empresas para reducir la probabilidad de chats de IA en los tribunales.

Algunas empresas también aparecen con advertencias similares en sus contratos laborales con sus clientes. Por ejemplo, la firma Sher Tremonte, con sede en Nueva York, dijo en un acuerdo reciente con un cliente que compartir los consejos o las comunicaciones de un abogado con un chatbot podría borrar las protecciones legales conocidas como privilegio abogado-cliente que normalmente protegen las comunicaciones entre los abogados y sus clientes.

decisión judicial

Un caso que contribuyó a hacer sonar las alarmas involucró a Bradley Heppner, ex presidente de la empresa de servicios financieros en quiebra GWG Holdings y fundador de una firma de activos alternativos.útil. Los fiscales federales acusaron a Heppner en noviembre pasado Valores y fraude electrónicoY no confesó.

Heppner usó la nube de chatbot de Anthropic para producir informes sobre su caso y compartirlos con su abogado, quien luego argumentó que su IA debería haber retenido el intercambio porque tenía detalles de su abogado defensor.

Los fiscales argumentaron que tenían derecho a citar el material que Hepner creó con la nube porque su abogado defensor no estuvo directamente involucrado y el privilegio abogado-cliente no se aplica a los chatbots.

El caso involucró a Bradley Heppner, ex presidente de la empresa de servicios financieros en quiebra GWG Holdings y fundador de la firma de activos alternativos Beneficiant, lo que contribuyó a hacer saltar las alarmas. Getty Images/OJO Imágenes RF

La divulgación voluntaria de información por parte de un abogado a cualquier tercero puede poner en peligro las protecciones legales tradicionales para esas comunicaciones de abogados.

El juez de distrito estadounidense con sede en Manhattan, Jed Rakoff él gobernó El chatbot Cloud de Anthropic deberá entregar en febrero 31 documentos relacionados con el caso Hepner.

No existe ninguna relación abogado-cliente “o podría existir entre un usuario de IA y una plataforma como la nube”, escribió Rakoff.

Un abogado de Hepner no respondió de inmediato a las solicitudes de comentarios. Una portavoz de la oficina del fiscal federal en Manhattan declinó hacer comentarios.

Los tribunales ya se enfrentan al uso cada vez mayor de la inteligencia artificial por parte de abogados y personas que se representan a sí mismos en casos judiciales, lo que ha dado lugar, entre otras cosas, a una documentación jurídica complicada. Casos hechos Descubierto por la IA.

La decisión de Rakoff fue una prueba temprana importante en la era de los chatbots de IA.

El mismo día del fallo de Rakoff, el juez federal Anthony Patty en Michigan dijo que una mujer que la representa en una demanda interpuesta contra su antigua empresa no tiene que entregar sus chats con ChatGPT de OpenAI sobre las reclamaciones laborales que hizo en el caso.

Patty trató los chats de IA de la mujer como parte de su propio “producto de trabajo” para el caso, en lugar de una conversación con una persona que su empleador quería usar en su defensa.

ChatGPT y otros programas productivos de IA son “herramientas, no personas”, dijo Patty Escribió en su orden.

Los términos de privacidad y uso de OpenAI y Anthropic establecen que las empresas pueden compartir datos que involucren a sus usuarios con terceros. Ambos dicen que los usuarios deberían consultar a un profesional calificado antes de confiar en sus chatbots para obtener asesoramiento legal.

Rakoff señaló en una audiencia de febrero en el caso Heppner que la nube “claramente establece que los usuarios no tienen expectativas de privacidad en sus entradas”.

Los representantes de OpenAI y Anthropic no respondieron de inmediato a las solicitudes de comentarios.

Los abogados corren a poner las barandillas

El consejo del abogado va desde decirle a los clientes que elijan cuidadosamente sus plataformas de inteligencia artificial hasta prescribir un lenguaje específico para usar en las indicaciones del chatbot.

O’Melveny & Myers, con sede en Los Ángeles, y otras firmas han dicho en asesoramiento a clientes que los sistemas de inteligencia artificial “cerrados” diseñados para uso corporativo podrían brindar protecciones más fuertes para las comunicaciones legales, aunque dijeron que aún no se ha probado en gran medida.

El consejo del abogado va desde decirle a los clientes que elijan cuidadosamente sus plataformas de inteligencia artificial hasta prescribir un lenguaje específico para usar en las indicaciones del chatbot. NurPhoto a través de Getty Images

Algunas firmas han dicho que es probable que la investigación legal de IA esté protegida por el secreto profesional entre abogado y cliente cuando se realiza bajo la dirección de un abogado. El bufete de abogados Debevoise & Plimpton, con sede en Nueva York, dijo en un aviso en su sitio web que si un abogado sugiere el uso de IA, una persona debería decirlo en un mensaje de chatbot.

“Estoy haciendo esta investigación bajo la dirección del abogado de la demanda X”, le indicó la firma a People que escribiera.

Según una revisión de Reuters de los contratos publicada en un sitio web del gobierno de EE. UU., la información sobre el uso de la IA es común en los contratos utilizados por las firmas de abogados con los clientes.

Sher Tremonte, que normalmente representa a acusados ​​de delitos de cuello blanco, dijo en un nuevo acuerdo en marzo: “Revelar comunicaciones privilegiadas a una plataforma de inteligencia artificial de terceros puede renunciar al privilegio abogado-cliente”.

Justin Ellis, del bufete de abogados MoloLamken con sede en Nueva York, y otros abogados dicen que esperan que más fallos aclaren eventualmente cuándo los chats de IA pueden usarse como evidencia.

Hasta entonces, los abogados dicen que la vieja presunción todavía se aplica: nunca hables con nadie más que con tu abogado sobre tu caso, incluida AI.

Enlace fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here