Home Economía Hiltzik: Lo que nos separa de las máquinas

Hiltzik: Lo que nos separa de las máquinas

11

Cada día que pasa es más claro que las únicas personas que realizan un serio esfuerzo por abordar las implicaciones de la inteligencia artificial para la sociedad no son los legisladores, ni los líderes empresariales ni los propios promotores de la IA. Son jueces.

De hecho, en las últimas semanas, los jueces de dos casos federales han trazado una línea que parece haber eludido a muchos otros que contemplaban la IA. Los casos se relacionan con la ley de derechos de autor y el privilegio de abogado-cliente.

En ambos casos, los jueces han declarado efectivamente que los bots de IA lo son no humana. Carecen de derechos reservados para las personas, y sus resultados no merecen ser tratados como si vinieran de inteligencia humana o tuvieran una posición especial de alta tecnología.

¿La invención debe permanecer exclusivamente humana, o los sistemas computacionales autónomos pueden originar ideas genuinamente?

– Artista e informático Stephen Thaler

Hay más en estos casos que esto. Ambos casos, incluido uno que llegó hasta el Tribunal Supremo, subrayan la determinación de los promotores y usos de la IA para infiltrar la nueva tecnología más profundamente a la sociedad.

Comience por el caso más reciente. El lunes, el Tribunal Supremo se negó a emprender una demanda en la que el artista e informático Stephen Thaler intentó proteger los derechos de autor de una obra de arte que reconoció que había sido creada por un bote de IA de su propia invención. Esto dejó en su sitio una sentencia el año pasado del Tribunal de Apelaciones del Distrito de Columbiaque sostenía que el arte creado por personas no humanas no puede tener derechos de autor.

El caso giraba en torno a una pintura de 2012 titulada “Una entrada reciente en el paraíso”, que representaba vías de tren que pasaban por debajo de un puente y desaparecen en la vegetación. Thaler escribió en su solicitud de derechos de autor que el “autor” de la obra era su “máquina de creatividad”, una herramienta de IA, y que la obra fue “creada de forma autónoma por máquina”.

La sentencia de apelación no se dedicó a la crítica artística, pero el origen artificial de la obra podría manifestarse en el ojo más exigente: su paisaje es ocupado pero indistinto, una especie de mezcla de verde y púrpura, y el encuadre no tiene ninguna lógica artística; el ojo no sabe lo que se supone que debe seguir. Pero Thaler dice que es la creación del bot de IA y que no se generó en respuesta a ninguna solicitud del usuario.

En cualquier caso, para la jueza Patricia A. Millett, quien escribió la opinión para un tribunal unánime de tres jueces, el caso no fue tan cerrado. Citó las regulaciones de larga fecha de la Oficina de Derechos de Autor que exigen que “para que una obra sea protegida por derechos de autor, debe deber su origen a un ser humano”.

Millett señaló que Thaler no se había molestado en ocultar el origen no humano de “A Recent Entrance”, y reconoció a los documentos judiciales que la pintura “carece de autoría humana”. Ella rechazó el argumento de Thaler, al igual que el juez federal que conoció el caso por primera vez, que la insistencia de la Oficina de Derechos de Autor en que el autor de una obra debe ser humano era inconstitucional. Evidentemente, el Tribunal Supremo estuvo de acuerdo.

Thaler me dijo que no veía el rechazo del Tribunal Supremo como una “derrota legal”. En una publicación de LinkedIn Sobre el caso, escribió que la decisión “representa un hito filosófico, uno que expone hasta qué punto nuestro sistema de propiedad intelectual lucha por enfrentarse a la creatividad de las máquinas autónomas”.

Tal y como esto sugiere, Thaler cree que no debemos distinguir cómo vemos las creaciones humanas de las salidas de las máquinas. “La inteligencia, la creatividad y la invención no se limitan a los productos humanos”, me dijo por correo electrónico. Los sistemas computacionales autónomos, como su programa de IA, dijo, “pueden generar estas funciones de forma independiente”.

La sentencia de Millett abrió la puerta a la admisión de la IA en el mundo de los derechos de autor, pero sólo cuando la utiliza como herramienta un autor humano. Lo que diferenció el caso de Thaler de éstos, escribió, fue su insistencia en que su bote de IA era el “sola autor de la obra” (subraya ella), “y es innegable que es una máquina, no un ser humano”.

Esto nos lleva al segundo caso, que implicaba la cuestión de si el trabajo de un bote de IA debería protegerse bajo el privilegio de abogado-cliente. El juez federal Jed S. Rakoff de Nueva York sentenció, de forma concisa, “La respuesta es no”.

Como he escrito en el pasado, Rakoff es uno de nuestros juristas más conscientes del impacto de las nuevas tecnologías en la ley. En sus ensayos ocasionales para la New York Review of Books, ha examinado cómo un algoritmo secreto de IA ha sesgado la condena de los acusados ​​penales (especialmente acusados ​​negros), como han hecho los defensores de la criptomoneda un lío de leyes existentes sobre fraudey cómo ha provocado el mal uso de la neurociencia cognitiva convicciones basadas en falsos recuerdos.

En otras palabras, Rakoff no es un juez que debería intentar nevar con flapdoodle tecnológico.

El caso implicó a un Bradley Heppner, que fue acusado por un gran jurado federal por presuntamente saqueo de 150 millones de dólares una empresa de servicios financieros que presidía. Heppner se declaró inocente y fue puesto en libertad Fianza de 25 millones de dólares. El caso está pendiente.

Según una sentencia que Rakoff emitió el 17 de febreroel tema que tenía ante sí concernía los intercambios que Heppner mantuvo con Claude, el chatbot desarrollado por la firma de IA Anthropic, cuyas versiones escritas fueron incautadas por el FBI cuando ejecutó una orden de registro de la propiedad de Heppner.

Sabiendo que una acusación estaba lista, Heppner había consultado a Claude para pedir ayuda en una estrategia de defensa. Sus abogados afirmaron que esos intercambios, que se expusieron en notas escritas, equivalían a consultas con los abogados de Heppner; por tanto, dijeron sus abogados, eran confidenciales según el privilegio de abogado-cliente y no se podían utilizar contra Heppner en los tribunales. (También citaron la doctrina relacionada con el producto de trabajo de abogado, que otorga confidencialidad a las notas de los abogados y otros materiales similares).

Era algo no trivial. Heppner había dado a Claude información que había aprendido de sus abogados y compartió las respuestas de Claude con sus abogados.

Rakoff hizo un breve trabajo de ese argumento. En primer lugar, sentenció, los documentos de IA no eran comunicaciones entre Heppner y sus abogados, puesto que Claude no es abogado. Todos estos privilegios, señaló, “requieren, entre otras cosas, ‘una relación humana de confianza'”, por ejemplo entre un cliente y un profesional con licencia sujeto a normas y deberes éticos.

“No existe, ni podría existir, esa relación entre un usuario de IA y una plataforma como Claude”, observó Rakoff.

En segundo lugar, escribió, los intercambios entre Heppner y Claude no eran confidenciales. En sus términos de uso, Anthropic reclama el derecho a recopilar tanto las consultas de un usuario como las respuestas de Claude, utilizarlas para “entrenar” a Claude y revelarlas a otras personas.

Por último, no pedía asesoramiento legal a Claude, sino información que podía transmitir a sus propios abogados, o no. De hecho, cuando los fiscales probaron a Claude preguntándole si podía dar asesoramiento legal, el bote les aconsejó que “consultaran con un abogado cualificado”.

En su sentencia, Rakoff hizo un esfuerzo por abordar las cuestiones más amplias que se enfrentan los jueces al tratar a la IA. “Sólo tres años después de su lanzamiento”, escribió, “una plataforma de IA destacada está siendo utilizada por más de 800 millones de personas en todo el mundo cada semana. Sin embargo, las implicaciones de la IA para la ley sólo comienzan a explorarse”.

Concluyó que “la inteligencia artificial generativa “presenta una nueva frontera en el diálogo en curso entre la tecnología y la ley… Pero la novedad de la IA no quiere decir que su uso no esté sujeto a principios legales de larga fecha, como los que rigen el privilegio de abogado-cliente y la doctrina del producto de trabajo”.

En este caso y en otros sitios, Rakoff ha demostrado una excelente comprensión de los problemas tecnológicos. En su ensayo de 2021 sobre el algoritmo de IA capaz de enviar a personas a prisión, puso el dedo sobre el factor que hace que el mismo término “inteligencia artificial” sea un nombre equivocado.

El término, escribió, tiende a “ocultar la importancia del diseñador humano… Es el diseñador quien determina qué tipos de datos se introducirán en el sistema y de qué fuentes se extraerán. Es el diseñador quien determina qué pesos se dará a las diferentes entradas y cómo el programa se ajustará a ellas. Y es el diseñador quien determina cómo se aplicará todo esto”.

Tiene razón. Es por eso que los jueces han tenido tantos problemas para determinar si los ingenieros de IA introducen información en los chatbots para que parezca que son “creativos” e incluso “conscientes” están infringiendo los derechos de autor de los creadores originales de esa información o creando algo nuevo.

El problema es que están haciendo la pregunta equivocada. Todo lo que emite un bote de IA es, más que un nivel fundamental, el producto de la creatividad humana. Los robots de IA son máquinas y representarlos como si estuvieran pensando en criaturas como artistas o abogados no cambia esto y no debería hacerlo.

Enlace fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here