Un juez federal adscrito a las cortes del estado brasileño de Acre deberá explicar ante el Consejo Nacional de Justicia (CNJ) –un órgano contralor del sistema judicial– la publicación de una decisión en la que fueron detectados múltiples errores y que aparentemente habría sido elaborada con el apoyo de la herramienta de inteligencia artificial ChatGPT.
Con referencia a documentos judiciales, AFP recoge que el juez Jefferson Rodrigues "basó su sentencia en expedientes procesales" falsamente atribuidos al Tribunal Superior de Justicia de Brasil.
Sin asumir la responsabilidad
Al ser increpado, Rodrigues aseguró que el dictamen objeto de controversia fue preparado por un "asesor de confianza" con ayuda de ChatGPT y descargó la responsabilidad sobre su subordinado. También restó importancia a lo sucedido, al alegar que fue "un simple error" derivado de "la sobrecarga de trabajo que enfrentan los jueces".
"Las inconformidades (…) resultaron del uso, por parte de la consultora, de alguna herramienta virtual de búsqueda de jurisprudencia que resultó inadecuada", apuntó el magistrado.
En la misma línea sostuvo que el autor del equívoco era un asesor "experimentado" adscrito a su despacho, circunstancia que le permitía prescindir de "revisar" en detalle los documentos que se producen en su oficina.
Aclaratorias
Rodrigues dispondrá de 15 días, contados a partir del 15 de noviembre, para ampliar estas explicaciones ante el CNJ que, por su lado, dijo a la AFP que "se trata del primer caso" de este tipo en Brasil y admitió que el uso de herramientas basadas en inteligencia artificial (IA) es una tendencia creciente en el sistema de justicia del país, que aún no legisla sobre el tema.
Antes de que se conociera la decisión del ente contralor judicial, una instancia regional concluyó que la investigación debía archivarse porque no se pudo comprobar que Rodrigues o su asistente cometieran ninguna "infracción disciplinaria", aunque advirtió acerca de los "daños que puede causar el uso inadecuado de herramientas de inteligencia artificial" en la búsqueda de antecedentes para fundamentar causas judiciales.
No es la primera vez
Pese a las advertencias sobre los errores en los que pueden incurrir 'chatbots' como ChatGPT en asuntos altamente especializados como las sentencias judiciales, Jefferson Rodrigues no es el primer juez que se arriesgó a utilizarlo.
En febrero de 2023, el juez colombiano Juan Manuel Padilla García confesó que había consultado con la herramienta para resolver una acción de tutela en favor de un menor dentro del espectro autista cuyos padres solicitaban la exoneración de los pagos asociados a la consulta, terapias y traslados hacia centros asistenciales relacionados con su condición de salud.
"Mi decisión es completamente personal, privada y autónoma, pero la inteligencia artificial ayuda a construir una cadena de textos que ayuda a sacar la sentencia y a tomar la decisión", defendió Padilla, al ser cuestionado por la metodología que siguió para fundamentar su dictamen.
Con peor suerte corrieron los abogados estadounidenses Steven Schwartz y Peter LoDuca, quienes fueron condenados por el juez Kevin Castel a pagar una multa de 5.000 dólares.
Castel los señaló de haber actuado "de mala fe" y "ofrecer declaraciones engañosas al tribunal" en una demanda que contenía "decisiones judiciales falsas con citas falsas y citaciones internas falsas" obtenidas a través de una consulta a ChatGPT.
Si te ha gustado, ¡compártelo con tus amigos!