El placer de escuchar

Las malas aplicaciones de IA están dando de qué hablar, específicamente en el ámbito legal, y está trayendo problemas graves

La IA es buena para cantidad de cosas — como engañosamente hacer ver que eres más productivo cuando no es así. Hace poco, el problema se trasladó a una cantidad de profesiones en las que pensarías que la ética de trabajo tendría que ser algo mejor de lo que parece.

La inteligencia artificial como abogado

Un ejemplo: los abogados. Parece que a los abogados les encantan los chatbots como ChatGPT porque les ayudan a redactar textos engorrosos, como las presentaciones legales. Lamentablemente, como ya casi todos sabemos, los chatbots muchas veces inventan cosas y eso lleva a que cada vez existan más errores y problemas en lo legal, con graves implicancias para todos los involucrados.

El New York Times ha publicado un nuevo artículo sobre esta lamentable tendencia, señalando que se imponen cada vez más sanciones a abogados a quienes se les verifica que han usado la IA sin cuidado (las sanciones suelen ser multas o algo de poca importancia). Parece que debido a la postura del colegio de abogados está bien que los profesionales utilicen la IA en su trabajo. Pero con la provisión de que se aseguren de que el texto que escupe el chatbot es correcto y no presenta antecedentes de casos inventados, algo que parece estar sucediendo. El Times señala lo siguiente:

«… Según registros de los tribunales y entrevistas con abogados y académicos, en la profesión legal últimamente se han encontrado cada vez más casos de errores con la IA. En algunos, es porque la gente usa chatbots en lugar de contratar a un abogado. Los chatbots, a pesar de sus fallas, pueden ayudar a los que no tienen abogado a ‘hablar en un lenguaje que entenderán los jueces’», dijo Jesse Schaefer, quien ejerce la abogacía en Carolina del Norte. Pero entre profesionales legales también aumentan los casos de errores y los tribunales han empezado a disciplinarlos con multas u otras sanciones.

Los errores comienzan a salir a la luz

Ahora algunos abogados comienzan a señalar los errores cometidos por sus colegas, y se intenta crear un sistema de seguimiento que recoja la información de casos en los que la IA se ha utilizado con resultados fallidos. El Times señala el trabajo de Damien Charlotin, abogado francés que creó una base de datos en Internet donde se registran los errores legales originados por el uso de IA. Al revisar el sitio web de Charlotin, uno se siente como aterrado porque ya hay 11 páginas con casos en los que se encontraron errores causados por la IA (dicen haber identificado 509 casos hasta ahora).

El periódico señala que “hay una red de abogados, cada vez más numerosa, que hace el seguimiento de los abusos con IA que cometen sus pares” para postearlos en línea, en lo que parece un esfuerzo por desenmascararlos y alertar a la gente sobre lo que está sucediendo. Pero no está claro si eso tiene el impacto buscado hasta ahora. “Estos casos dañan la reputación de la profesión”, le dijo al medio Stephen Gillers, profesor de ética de la Facultad de Leyes de la Universidad de Nueva York. “Los abogados de todo el mundo deberían avergonzarse ante lo que están haciendo algunos de sus colegas”.

Este artículo ha sido traducido de Gizmodo US por Romina Fabbretti. Aquí podrás encontrar la versión original.

Actualizáte