IA y redacción regulatoria: Promesa de eficiencia y peligro de inexactitud

Autor

Renny Reyes

Tiempo de lectura

5 minutos

Estado

Publicado 18 Ago, 2025

IA y redacción regulatoria: Promesa de eficiencia y peligro de inexactitud

El auge de la inteligencia artificial (IA) ya no es una fantasía futurista, sino una realidad actual que está transformando sectores como el legal y el regulatorio. Una conversación reciente con un colega me llevó a plantearme una pregunta importante con la que sé que muchos nos debatimos: ¿hasta qué punto sustituirá la IA a los seres humanos en tareas complejas como la redacción de regulaciones? Aunque la reacción inicial podría ser descartar la idea de que una máquina redacte nuestras regulaciones, hay un panorama más matizado, prometedor, pero sobre todo, lleno de retos.

El inevitable auge de la IA en la redacción de normativas

La idea de que la IA no sustituirá a los seres humanos en la redacción de regulaciones, al menos a corto plazo, puede ser para algunos reconfortante. Sin embargo, hay indicios de que nos encontramos en la antesala de un cambio significativo. No es cuestión de si la IA comenzará a desempeñar un papel más importante, sino de cuándo lo hará. El potencial de la IA para analizar grandes cantidades de datos, identificar patrones e incluso generar borradores de cláusulas y textos es innegable. Esto podría conducir a un futuro en el que los seres humanos y la IA trabajen juntos, con la IA encargándose de los aspectos más rutinarios de la redacción, mientras nosotros aportamos el pensamiento crítico, consideraciones éticas y, en mi opinión lo de más importancia, comprensión multi-contextual que, por ahora, están fuera del alcance de las máquinas.

El obstáculo de la precisión

Sin embargo, antes de poder adoptar plenamente la IA en un campo tan delicado, debemos reconocer su limitación más importante: la precisión. La generación actual de modelos de IA, aunque impresionante por su capacidad para generar textos muy similar a lo que nosotros escribiríamos, es muy propensa a las imprecisiones. Pueden «alucinar» con la información, mezclar y combinar creativamente datos de diferentes fuentes y presentarlos como  ciertos con una confianza tal que puede ser peligrosamente engañosa hasta para los más cuidadosos. No se trata de un simple fallo técnico, sino de un problema fundamental que obstaculiza la adopción responsable de la IA.

La barrera del idioma

Este problema de precisión se agrava aún más cuando salimos del mundo angloparlante. Los modelos de IA se entrenan con muchos conjuntos de datos de texto y código, y la mayoría de estos datos están en inglés. Esto significa que la IA suele ser menos precisa y confiable cuando trabaja en otros idiomas, donde tiene menos «fuentes de inspiración». Esto crea una brecha digital, en la que los beneficios de la IA no se distribuyen de forma equitativa y los riesgos son desproporcionadamente mayores para los hablantes no nativos de inglés particularmente cuando pretendemos generara textos regulatorios en español, por ejemplo.

El camino doble a seguir

Entonces, ¿cuál es la solución? No se trata de una solución única, sino de un camino doble que debe seguirse con rigor: un entrenamiento cuidadoso y la garantía de que siempre haya un humano en el proceso.

En primer lugar, debemos reconocer la absoluta necesidad de entrenar la AI. Para que la IA sea una herramienta confiable en un campo tan crítico como la redacción de regulaciones, no puede ser la misma solución para todos. Debe entrenarse cuidadosamente documentos específicos y relevantes, y ser corregida continuamente por expertos. No se trata solo de una recomendación, es una responsabilidad. Tenemos la responsabilidad de garantizar que cualquier sistema de IA utilizado con este fin sea preciso, imparcial y acorde con nuestros principios legales y éticos.

En segundo lugar, y no menos importante, es establecer el papel innegociable del ser humano en el proceso. La IA puede ser una ayuda incluso esencial para la investigación y la redacción, pero no puede ser el árbitro final. La supervisión humana debe ser un elemento permanente en el proceso, aportando entendimiento contextual, juicio ético e interpretación matizada de lo que carecen actualmente estas tecnologías. La decisión final y, lo que es más importante, la responsabilidad de esa decisión, debe recaer siempre en un experto humano. Y me atrevería a decir que no se trata de una medida temporal mientras la tecnología madura, sino de una garantía fundamental para mantener la integridad y la responsabilidad de nuestros sistemas regulatorios.

Conclusión

El camino hacia la integración de la IA en la regulación solo está comenzando. Aunque el potencial de aumento de la eficiencia es tentador, debemos ser cuidadosos. La promesa de la IA solo podrá hacerse realidad si enfrentamos sus limitaciones actuales. Invirtiendo en entrenamientos, promoviendo la transparencia y fomentando una cultura de evaluación crítica, podremos sacar provecho el poder de la IA para mejorar nuestros sistemas regulatorios, en lugar de perjudicarlos. El futuro de la regulación probablemente será colaborativo, pero es un futuro que debemos construir con una comprensión clara tanto del potencial como de los peligros de esta tecnología disruptiva y transformadora.

Renny Reyes

Dra. Renny Reyes

Fundadora de PAARS

Con más de 15 años de experiencia en política regulatoria y gobernanza pública, me apasiona diseñar marcos regulatorios y regulaciones más eficientes, transparentes y que estén alineados con las necesidades reales de los gobiernos, ya sea mediante el trabajo directo en una reforma o mediante contribuciones académicas.

¿Está buscando mejorar su marco regulatorio?

Trabajemos juntos para cerrar la brecha entre la estrategia y la implementación.