La Corte Suprema de la India ha amenazado con consecuencias legales después de que se descubriera que un juez había fallado sobre una disputa de propiedad utilizando sentencias falsas generadas por inteligencia artificial.
El tribunal superior, que estaba respondiendo a una apelación de los acusados, examinará ahora el fallo dictado por el tribunal inferior en el estado sureño de Andhra Pradesh.
La Corte Suprema calificó el caso como un asunto de «preocupación institucional» y dijo que las sentencias falsas generadas por inteligencia artificial tenían «una relación directa con la integridad del proceso judicial».
El incidente ha sido noticia y se ha convertido en el último de una serie de casos en los que AI ha interrumpido los procedimientos judiciales en India y en otras partes del mundo.
Los problemas en el caso de Andhra Pradesh surgieron en agosto del año pasado cuando un juez civil junior en el tribunal de primera instancia de la ciudad de Vijaywada dictó una orden en un caso sobre una propiedad en disputa.
El tribunal había asignado previamente a un funcionario para que inspeccionara la propiedad y presentara un informe, al que los acusados se opusieron. El juez desestimó su objeción, citando cuatro sentencias judiciales anteriores, todas las cuales posteriormente se determinó que estaban generadas por IA.
Los programas de IA han simplificado enormemente las tareas en el lugar de trabajo, pero los sistemas de IA generativos son conocidos por su capacidad de «alucinar» y afirmar falsedades como hechos, a veces incluso inventando fuentes para la información inexacta.
Los acusados impugnaron la orden ante el Tribunal Superior del estado, señalando que las órdenes citadas eran falsas. El Tribunal Superior lo reconoció, pero aceptó que el juez civil subalterno había cometido el error de buena fe y, de todos modos, coincidió con la decisión del tribunal de primera instancia.
En su orden, el Tribunal Superior dijo que «las citas pueden ser inexistentes, pero si el tribunal de primera instancia ha considerado los principios correctos del derecho y su aplicación a los hechos del caso también es correcta, la mera mención de fallos o citas incorrectos o inexistentes en la orden no puede ser motivo para dejar sin efecto la orden».
El Tribunal Superior también solicitó un informe a la jueza de menor rango que utilizó las sentencias generadas por IA. Esta declaró ante el tribunal que era la primera vez que utilizaba una herramienta de IA y que creía que las citas eran «genuinas». No tenía intención de citar incorrectamente ni tergiversar las sentencias y que «el error se debió únicamente a la dependencia de una fuente automática», escribió el Tribunal Superior.
El Tribunal Supremo también abogó por el «ejercicio de la inteligencia real sobre la inteligencia artificial».
Después de esto, los acusados apelaron nuevamente y llevaron el asunto ante la Corte Suprema, que fue menos indulgente con el impacto de la IA.
El viernes pasado, el Tribunal Supremo, en una dura crítica a las sentencias falsas, suspendió la orden del tribunal inferior sobre la disputa de propiedad. Afirmó que el uso de IA para emitir sentencias no era simplemente un error en la toma de decisiones, sino una conducta indebida.
«Este caso supone una considerable preocupación institucional, no por la decisión que se tomó sobre el fondo del caso, sino por el proceso de adjudicación y determinación», dijo el tribunal superior.
El tribunal dijo que examinaría el caso con más detalle y emitió avisos al Fiscal y Procurador General del país, así como al Consejo de Abogados de la India.
En otro caso el mes pasado, la Corte Suprema expresó su preocupación por la tendencia de los abogados a utilizar herramientas de IA para redactar peticiones. «Es absolutamente injustificado», declaró el tribunal, según el sitio web de noticias jurídicas LiveLaw.
La India no es el único país que debe lidiar con los efectos de la IA en los tribunales.
En octubre, dos jueces federales estadounidenses fueron denunciados por el uso de herramientas de IA, lo que provocó errores en sus fallos. En junio de 2025, el Tribunal Superior de Inglaterra y Gales advirtió a los abogados que no utilizaran material generado por IA tras una serie de casos que citaban fallos ficticios o parcialmente inventados.
Las instituciones jurídicas de la India están luchando junto con otras de todo el mundo para encontrar la manera de regular y supervisar el uso de la IA en los tribunales.
El año pasado, la Corte Suprema publicó un libro blanco sobre la IA en el poder judicial de la India, en el que enumeraba las mejores prácticas y directrices para el uso de la IA por parte de instituciones judiciales, abogados y empleados.
El tribunal destacó la necesidad de supervisión humana y la importancia de mantener las salvaguardias institucionales «firmemente establecidas».