En una columna pasada titulada ‘Abogadasauria’ reflexionaba acerca de los riesgos que conllevaría la abrupta e irresponsable incorporación de las tecnologías a la labor jurídica en todas sus áreas. Renovaba públicamente mi confianza en que los juristas –seres humanos– lo harían mucho mejor que los –futuristas juristas robóticos– a los que aspiran algunos sectores. Sin embargo, lo que realmente han dejado al descubierto las tecnologías es una falta de ética profesional del jurista que traspasa las fronteras. Amparados en la falta de tiempo, exceso de trabajo o cualquier cantidad de excusas han dejado en manos de la IA la argumentación de sus demandas o sentencias, con resultados nefastos.

En Cartagena se dictó el primer fallo en Colombia en el cual el juez argumentó con ChatGPT. Un fallo qué, en mi sentir, afortunadamente se ajustaba a derecho; pero con una argumentación jurídica tan precaria que desdice de la función judicial. Seguimos a la espera de que la Corte Constitucional, en sede de revisión, establezca límites y alcances para su uso por los operadores judiciales. En USA un abogado utilizó la IA para redactar una demanda en contra de Avianca, en la que resultó que las decisiones judiciales incluidas habían sido inventadas. En Brasil un juez federal, con ayuda de IA, fundamentó una sentencia con antecedentes procesales falsos, atribuidos al Supremo Tribunal de Justicia (STJ). En Reino Unido un juez afirmó que utilizó el chatbot de OpenAI, para resumir teorías jurídicas con las que no estaba familiarizado y que hizo un ‘corta y pega’ en una resolución oficial. En dicho país ahora se aceptan estas prácticas siempre y cuando se constate la información, por cuanto señala el documento Guía Judicial1, es bien sabido que la IA: ¡inventa casos, citas, o hace referencia a legislación, artículos o textos legales que no existen, proporciona información incorrecta o engañosa sobre la ley o cómo podría aplicarse! Le pregunté a ChatGPT ¿si puede dar información falsa? Y respondió “Es importante tener en cuenta que ChatGPT no tiene la capacidad de verificar la veracidad de la información o discernir entre hechos y opiniones, de la misma manera en que lo haría una persona. Además, no tiene acceso a información en tiempo real y su conocimiento se basa en datos recopilados hasta mi última actualización en enero de 2022”. Entonces, ¿qué están haciendo los abogados en el mundo usando ChatGPT, además de ser irresponsables y perezosos? Y tú... ¿creerías en una justicia donde el juez busca la respuesta a tu caso en un aparato que le resuma las teorías, normas y jurisprudencias que debería conocer?

https://www.judiciary.uk/wp-content/uploads/2023/12/AI-Judicial-Guidance.pdf

*Abogada con Especialización en Derecho Constitucional y magíster en Derecho con énfasis en Derecho Empresarial y Contractual.

QOSHE - Sigo siendo abogadasauria - María Carolina Cárdenas R
menu_open
Columnists Actual . Favourites . Archive
We use cookies to provide some features and experiences in QOSHE

More information  .  Close
Aa Aa Aa
- A +

Sigo siendo abogadasauria

14 0
17.02.2024

En una columna pasada titulada ‘Abogadasauria’ reflexionaba acerca de los riesgos que conllevaría la abrupta e irresponsable incorporación de las tecnologías a la labor jurídica en todas sus áreas. Renovaba públicamente mi confianza en que los juristas –seres humanos– lo harían mucho mejor que los –futuristas juristas robóticos– a los que aspiran algunos sectores. Sin embargo, lo que realmente han dejado al descubierto las tecnologías es una falta de ética profesional del jurista que traspasa las fronteras. Amparados en la falta de tiempo, exceso de trabajo o cualquier cantidad de excusas han dejado en manos de la IA la argumentación de sus demandas o sentencias, con resultados nefastos.

En........

© El Universal


Get it on Google Play