La IA nos obliga a detectar la esencia de lo humano
Un experimento reciente ha establecido el prestigioso Jessup Moot Court, la mayor competencia universitaria de derecho internacional en el planeta. Cada año, miles de estudiantes de más de cien países se preparan durante meses para escribir acusaciones legales y defenderlas ante jueces reales en … Una simulación de la Corte Internacional de Justicia. La prueba es tan rigurosa que muchos participantes abandonan allí directamente contratados por las firmas de abogados de élite. Este año, sin que los jueces sepan, diez de los textos evaluados no fueron escritos por humanos, sino por inteligencia artificial (IA). Y no solo pasaron desapercibidos: algunos obtuvieron notas casi perfectas.
Los autores del estudio, académicos de Ha París y King’s College, utilizaron modelos avanzados como GPT-4O (de OpenAI) y Gemini 2.0 (de Google) para generar los llamados ‘resúmenes’ del caso ficticio planteado por el Jessup. Con solo un toque en el formato, para hacer citas directas, acentos raros, las marcas de las entregas fueron enviadas y juzgadas como si fueran producto del talento humano. Resultado: varios grados recibidos por encima de 95 de cada 100. Un juez vino a escribir: «De todo lo que leí, este fue el mejor».
El estudio, que se puede encontrar en SSRN con el título ‘Genai como abogado internacional’, no es solo una curiosidad académica. Es una señal de que algo profundo está cambiando. La IA no solo sugiere frases o corrige errores: escribe, argumenta y convence. Es capaz de elaborar textos legales complejos que, al menos se ajustan, rivalizan con los de los estudiantes de alto nivel. Y lo hace en unos minutos.
Esta no es una anécdota aislada. En 2023, GPT-4 aprobó el examen de la Asociación de Abogados de los Estados Unidos. En tareas médicas, como la detección de retinopatías o el análisis de resonancia, la IA supera al radiólogo promedio en precisión. Y en obras creativas, desde escribir poemas para generar memes, hay estudios que indican que el público prefiere, sin saberlo, creaciones sintéticas. La IA también supera a los humanos que pilotan drones, es capaz de diseñar algoritmos más efectivos y es mejor con ciertos juegos desde el ajedrez hasta StarCraft II. Aprender más rápido, comprende mejor (supera a los humanos en la lectura y la comprensión matemática), aunque en tareas mixtas que implican decisión e interpretación, produce menos que un humano.
Lo inquietante es que cuanto más humana parece la IA, más mediocre parecemos. El estudio de ‘La Jessup’, que es cómo se conoce popularmente esta competencia, también demuestra que los estudiantes más ricos mejoran mucho si usan IA, mientras que los brillantes empeoran si se limitan a copiar lo que dice la máquina. En otras palabras: la IA puede ser una muleta o una trampa, dependiendo de quién y cómo lo use.
Tienes que tener cuidado. Estos modelos no entienden el derecho, ni la moral, ni el contexto político. Lo que hacen es predecir, con una eficiencia estadística sorprendente, qué palabra viene a continuación. Y si son legales, es necesario citar un precedente que no existe, lo inventan. La ‘alucinación’ es el término técnico, y es el gran punto débil de esta tecnología. Ha habido casos reales en los que los abogados han presentado documentos con jurisprudencia ficticia creada por ChatGPT. Y si lo que está en juego es una vida, una empresa o un país, no podemos permitirnos errores tan costosos. De hecho, es cada vez más difícil verificar que parte de lo que circula en línea no ha sido inventado por AI.
Los organizadores de ‘La Jessup’ y otras competiciones similares están comenzando a regular el uso de la IA, conscientes de que ya no pueden detectarlo fácilmente. Algunos, como el Vienna VIS, permiten su uso para tareas de investigación o traducción, pero prohíben expresamente el envío de textos generados por AI. Y en el fondo, el problema es que las herramientas de detección de contenido artificial tampoco funcionan bien. Incluso tienden a penalizar a los estudiantes que no son angloplantes, como si su estilo más sobrio fuera «sospechoso de ser una máquina».
La pregunta es qué hacemos con esta nueva capacidad. Si una máquina puede escribir argumentos legales tan buenos como los humanos, ¿para qué es un abogado junior? ¿Y un periodista? ¿O un asesor parlamentario? ¿Vamos a limitar la IA por razones morales o corporativas? ¿O vamos a integrarlo como lo hicimos con la calculadora, con Internet o con traductores automáticos?
El estudio concluye con una idea inquietante pero poderosa: la función humana cambiará. No será tan escribiendo desde cero como guiar, corregir, supervisar y dar el «toque ético» a lo que la máquina propone. Para eso, será necesario comprender el derecho … y comprender cómo funciona la máquina. ‘Ingeniería rápida’. Un nuevo tipo de alfabetización. La pregunta no es si IA nos superará. La pregunta es si vamos a seguir aprendiendo a pensar con él, si detectamos la singularidad humana o si preferimos delegar ese esfuerzo.
Puedes consultar la fuente de este artículo aquí