
Los errores generados por la IA provocaron un retraso de 24 horas en la resolución de un caso que Elliott esperaba concluir el miércoles.
Un abogado de alto rango en Australia se disculpó con un juez por presentar argumentos en un caso de asesinato que incluyeron citas falsas y sentencias inexistentes generadas por inteligencia artificial.
El error en la Corte Suprema del estado de Victoria es otro de una letanía de desastres que la IA ha causado en los sistemas judiciales de todo el mundo.
El abogado defensor Rishi Nathwani, quien ostenta el prestigioso título legal de Consejero del Rey, asumió la “plena responsabilidad” por presentar información incorrecta en los alegatos en el caso de un adolescente acusado de asesinato, según documentos judiciales vistos por The Associated Press el viernes.
"Estamos profundamente arrepentidos y avergonzados por lo ocurrido", dijo Nathwani al juez James Elliott el miércoles, en nombre del equipo de defensa.
Los errores generados por la IA provocaron un retraso de 24 horas en la resolución de un caso que Elliott esperaba concluir el miércoles. Elliott dictaminó el jueves que el cliente de Nathwani, cuya identidad no se puede identificar por ser menor de edad, no era culpable de asesinato debido a su discapacidad mental.
“A riesgo de quedarme corto, la manera en que se desarrollaron estos acontecimientos es insatisfactoria”, dijo Elliott a los abogados el jueves.
“La capacidad del tribunal de confiar en la exactitud de las presentaciones realizadas por los abogados es fundamental para la debida administración de justicia”, añadió Elliott.
Las presentaciones falsas incluían citas inventadas de un discurso ante la legislatura estatal y citas de casos inexistentes supuestamente de la Corte Suprema.
Los errores fueron descubiertos por los asociados de Elliott, quienes no pudieron encontrar los casos y solicitaron que los abogados defensores proporcionaran copias.