El juez golpea a las empresas por uso secreto de IA con citas falsas

Un juez de California recientemente adoptó una postura firme contra el uso no revelado de Plataformas AI por abogados en presentaciones legales. El juez Michael Wilner descubrió un breve breve complementario plagado de citas y citas legales fabricadas. Su respuesta? Las sanciones de $ 31,000 recaudaron contra las dos firmas de abogados involucradas.

El juez Wilner expresó su preocupación con respecto a tales prácticas. Dijo que confiar en la IA para la investigación y la escritura legal sin supervisión adecuada es un error significativo para cualquier abogado competente. Los expertos legales Eric Goldman y Blake Reid también destacaron el problema en Bluesky.

El juez relató su experienciaseñalando que los casos citados inicialmente parecían persuasivos, lo que lo llevó a investigar más. Fue entonces cuando tomó estas decisiones simplemente no existían. Hizo hincapié en el peligro potencial, explicando cuán fácilmente esa información falsa podría haber llegado a una orden judicial.

Básicamente, este es otro caso en el que las «alucinaciones de IA» revelan el uso de chatbots. Una situación similar ocurrió a fines de 2024 En un caso antidemánico y anti-AI.

El situación desplegada Cuando el equipo legal de un demandante usó AI para redactar un esquema para un breve contra State Farm. Este esquema, que contiene lo que el juez denominado «Investigación generada por la IA falsa«, Luego se transmitió a otra empresa, K&L Gates, que lo incorporó al resumen final. Sorprendentemente, ninguna de las empresas aparentemente verificó la información generada por AI antes de enviarla al tribunal.

El juez identificó alucinaciones de IA gracias a su experiencia

Tras la revisión, el juez Wilner identificó al menos dos autoridades legales completamente inexistentes. Cuando solicitó una aclaración de K&L Gates, el informe revisado que presentaron contenía citas y citas aún más fabricadas. Esto llevó al juez a emitir una orden que exige a los abogados que expliquen sus acciones bajo juramento. Esto finalmente confirmó el uso de IA. El abogado que creó el esquema inicial admitido al usar Google Géminis y las herramientas de investigación legal de IA dentro de Westlaw Precision con Cocounsel.

El juez Wilner concluyó que el uso inicial y no revelado de IA para redactar el informe fue fundamentalmente incorrecto. Además, enfatizó el riesgo involucrado en pasar material generado por IA sin revelar su origen, potencialmente engañar a otros profesionales legales.

Fuente: Android Headlines

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *