Un tribunal federal de apelaciones de Nueva Orleans está estudiando una propuesta que obligaría a los abogados a confirmar si utilizaron programas de inteligencia artificial (IA) para redactar sus escritos, afirmando o bien la revisión humana independiente de la exactitud del texto generado por IA o la no utilización de IA en sus presentaciones ante el tribunal.

En un anuncio publicado el 21 de noviembre, el Quinto Tribunal de Apelación de los EE.UU. reveló lo que parece ser la primera propuesta de norma entre los 13 tribunales federales de apelación del país, centrada en regular la utilización de herramientas de IA generativa, incluido ChatGPT de OpenAI, por parte de los abogados que se presentan ante el tribunal.

Captura de pantalla de la norma del Quinto Tribunal de Apelación. Fuente: Tribunal de Apelación del Quinto Circuito

El reglamento sugerido se aplicaría a los abogados y litigantes sin representación legal que comparezcan ante el tribunal, obligándoles a confirmar que, si se empleó un programa de IA para producir una presentación, se evaluó la precisión tanto de las citas como del análisis jurídico. Se anularán las presentaciones de los abogados que proporcionen información inexacta sobre su adhesión a la norma, y se les podrían imponer sanciones, como se indica en la norma propuesta. El Quinto Tribunal de Apelación está abierto a los comentarios del público sobre la propuesta hasta el 4 de enero.

La introducción de la norma propuesta coincidió con la rápida proliferación de programas de inteligencia artificial generativa, como ChatGPT, a la que se enfrentan los jueces de todo el país. Están examinando la necesidad de salvaguardias para incorporar esta tecnología en evolución a los tribunales. Los retos asociados a los abogados que utilizan IA adquirieron relevancia en junio, cuando dos abogados de Nueva York se enfrentaron a sanciones por presentar un documento jurídico que contenía seis citas de casos fabricados por ChatGPT.

En octubre, el Tribunal de Distrito de EE.UU. para el Distrito Este de Texas introdujo una norma, en vigor desde el 1 de diciembre, que obliga a los abogados que utilizan programas de IA a "evaluar y autenticar cualquier contenido generado por ordenador".

Según las declaraciones que acompañan a la modificación de la norma, el tribunal subrayó que "con frecuencia, el resultado de tales herramientas puede ser incorrecto desde el punto de vista fáctico o jurídico" y destacó que la tecnología de IA "nunca debe sustituir el pensamiento abstracto y la capacidad de resolución de problemas de los abogados."

Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión