La irrupción de la inteligencia artificial generativa, personificada por herramientas como ChatGPT, ha marcado un antes y un después en casi todos los ámbitos de la actividad humana. En Colombia, el sector público no ha sido ajeno a esta revolución. De hecho, en muchas oficinas gubernamentales, desde las más centrales hasta las más descentralizadas, ChatGPT se ha convertido, de manera casi silenciosa, en un aliado insustituible. Ha facilitado la redacción de informes, la síntesis de documentos extensos, la elaboración de comunicaciones y, en general, ha prometido un aumento significativo de la productividad en un entorno que a menudo se percibe como burocrático y lento. Sin embargo, esta adopción masiva y entusiasta oculta una preocupación creciente: la falta de un marco regulatorio claro y específico que oriente su uso. Los funcionarios colombianos están interactuando con una de las tecnologías más poderosas de nuestro tiempo sin una brújula ética o de seguridad, lo que plantea serios interrogantes sobre la privacidad de los datos, la precisión de la información oficial y la transparencia en la toma de decisiones. Es una paradoja de la modernidad: abrazamos la eficiencia, pero a menudo ignoramos los riesgos intrínsecos hasta que es demasiado tarde.
La dualidad de ChatGPT en el sector público colombiano
La relación entre ChatGPT y el funcionariado colombiano es compleja, tejiéndose entre la promesa de eficiencia y la sombra de riesgos aún no dimensionados. Esta herramienta ha demostrado ser un catalizador formidable para la productividad, pero su implementación sin control genera una serie de desafíos que demandan atención urgente.
El aliado silencioso: beneficios y eficiencias
No es difícil entender por qué ChatGPT ha sido recibido con los brazos abiertos en las oficinas públicas de Colombia. La carga administrativa, los plazos ajustados y la necesidad de procesar grandes volúmenes de información son constantes. En este escenario, la inteligencia artificial generativa se presenta como una solución atractiva.
Una de las ventajas más evidentes es la automatización de tareas rutinarias. La redacción de correos electrónicos estandarizados, la elaboración de borradores para comunicados internos o externos, la creación de resúmenes ejecutivos de extensos informes y la preparación de agendas para reuniones son actividades que, consumiendo un tiempo considerable, ahora pueden ser delegadas parcial o totalmente a ChatGPT. Esto libera a los funcionarios para concentrarse en labores que requieren un mayor juicio humano, análisis crítico o interacción directa con la ciudadanía.
Además, su capacidad para sintetizar y recuperar información es invaluable. Un funcionario que necesita acceder rápidamente a datos sobre una ley específica, un precedente judicial o una política pública puede obtener un resumen conciso y relevante en cuestión de segundos, ahorrando horas de búsqueda manual en bases de datos o archivos. Esta agilidad se traduce directamente en una mayor capacidad de respuesta y en la posibilidad de fundamentar decisiones con mayor celeridad.
La accesibilidad de ChatGPT también juega un papel crucial. No requiere una infraestructura tecnológica compleja ni una formación especializada prolongada para su uso básico. Su interfaz intuitiva permite que cualquier funcionario con acceso a internet pueda empezar a utilizarla casi de inmediato, democratizando el acceso a capacidades avanzadas de procesamiento de lenguaje natural. Esto es particularmente relevante en un país con brechas tecnológicas significativas entre diferentes regiones y entidades.
En mi opinión, es comprensible que los servidores públicos, bajo la constante presión de mejorar la eficiencia y la calidad de los servicios con recursos a menudo limitados, hayan encontrado en herramientas como ChatGPT un alivio y un potenciador de su capacidad de trabajo. La necesidad de ser más efectivos con menos recursos humanos y materiales es una constante en la administración pública, y cualquier herramienta que prometa mitigar esa presión será bienvenida.
El riesgo inminente: desafíos éticos y de seguridad
A pesar de sus innegables beneficios, el uso de ChatGPT en el sector público sin un marco regulatorio trae consigo una serie de riesgos que no pueden ser ignorados.
El principal es la privacidad y la seguridad de los datos. Al interactuar con ChatGPT, los funcionarios a menudo introducen información que puede ser sensible, confidencial o, incluso, datos personales de ciudadanos. ¿Dónde se almacenan estos datos? ¿Quién tiene acceso a ellos? ¿Cómo se garantiza que no serán utilizados para otros fines o expuestos a terceros? La Ley 1581 de 2012 de Colombia sobre protección de datos personales es clara, pero su aplicación a un escenario donde los datos se suben a plataformas de terceros no controladas por el Estado presenta un vacío normativo crítico. Una infracción de seguridad podría tener consecuencias devastadoras para la confianza ciudadana y para el cumplimiento legal.
Otro desafío fundamental es la precisión y la veracidad de la información generada por la IA. Los modelos de lenguaje como ChatGPT son conocidos por su capacidad de "alucinar", es decir, de generar respuestas coherentes pero completamente falsas o imprecisas. Si un funcionario utiliza estas respuestas para elaborar documentos oficiales, informes técnicos o incluso para fundamentar decisiones que afectarán a la ciudadanía, el riesgo de difundir información errónea o tomar decisiones equivocadas es alarmante. La credibilidad de las instituciones públicas está en juego.
La ética y la transparencia también son puntos críticos. ¿Se le debe informar a la ciudadanía cuándo una respuesta a una solicitud o una decisión administrativa ha sido asistida por IA? La opacidad en este aspecto podría erosionar la confianza pública. Además, la IA puede perpetuar o incluso amplificar sesgos existentes en los datos con los que fue entrenada. Si un algoritmo discrimina sutilmente en la forma en que procesa ciertas solicitudes o perfiles, ¿quién asume la responsabilidad y cómo se garantiza la equidad en el trato a todos los ciudadanos?
Finalmente, la rendición de cuentas se vuelve difusa. Si una decisión asistida por IA resulta en un error o una injusticia, ¿quién es el responsable? ¿El funcionario que usó la herramienta, la entidad pública o la empresa desarrolladora de la IA? Sin una política clara, la cadena de responsabilidad se rompe, dejando a los ciudadanos desamparados ante posibles errores algorítmicos.
Un vacío regulatorio preocupante
La rápida adopción de tecnologías como ChatGPT en la administración pública colombiana choca con la lentitud inherente a los procesos legislativos y regulatorios. Este desajuste genera un vacío que es, a todas luces, preocupante.
El panorama actual en Colombia
A la fecha, Colombia carece de un marco normativo específico que regule el uso de la inteligencia artificial generativa en el sector público. Si bien existen esfuerzos y documentos de política pública relacionados con la transformación digital y la ética de la IA, como la Política Nacional de Explotación de Datos (CONPES 3920 de 2018) y el documento “Lineamientos y recomendaciones para la ética de la inteligencia artificial en Colombia” del Ministerio de Tecnologías de la Información y las Comunicaciones (MinTIC), estos son de carácter general y no abordan la especificidad y los riesgos inherentes a modelos como ChatGPT en el contexto de la administración.
La Ley 1581 de 2012, que establece el Régimen General de Protección de Datos Personales, es la principal herramienta legal para salvaguardar la información personal. Sin embargo, su diseño no anticipó la complejidad de los servicios de IA generativa, donde los datos son procesados por terceros fuera del control directo de la entidad pública y pueden ser utilizados para reentrenar modelos. La interpretación y aplicación de esta ley a las nuevas realidades de la IA generativa es un desafío legal que requiere claridad urgente.
A diferencia de otras jurisdicciones, como la Unión Europea con su ambiciosa Ley de Inteligencia Artificial (EU AI Act), o incluso algunas agencias federales en Estados Unidos que han comenzado a emitir directrices internas, Colombia se encuentra en una fase incipiente. Los documentos existentes son, en su mayoría, recomendaciones éticas o estratégicas, pero no tienen el carácter vinculante ni la especificidad que se requiere para mitigar los riesgos operativos y legales del uso de ChatGPT por parte de miles de funcionarios. Para más información sobre las iniciativas del gobierno colombiano en este ámbito, se puede consultar el sitio web del Ministerio de Tecnologías de la Información y las Comunicaciones.
¿Por qué la lentitud en la regulación?
Existen múltiples factores que contribuyen a la lentitud en la creación de un marco regulatorio adecuado para la IA en el sector público:
Primero, la velocidad vertiginosa del avance tecnológico. Para cuando los legisladores y reguladores comienzan a comprender una tecnología y sus implicaciones, esta ya ha evolucionado o ha sido superada por una nueva iteración. Es un desafío constante tratar de legislar sobre un objetivo en movimiento.
Segundo, la complejidad técnica de la IA. Entender cómo funcionan los modelos generativos, sus limitaciones, sus sesgos y sus implicaciones a largo plazo requiere un conocimiento especializado que a menudo no está presente en los cuerpos legislativos o en las entidades encargadas de la regulación. Esto dificulta la formulación de normas precisas y efectivas.
Tercero, la falta de priorización y voluntad política. En un país con múltiples desafíos sociales, económicos y de seguridad, la regulación de la inteligencia artificial puede no ser percibida como una prioridad urgente en la agenda política. Sin un impulso decidido desde los más altos niveles del gobierno, los procesos regulatorios pueden estancarse o avanzar lentamente.
Por último, la ausencia de un consenso sobre el alcance de la regulación. Existe un debate global sobre si se debe regular la tecnología en sí misma, sus aplicaciones, o solo los riesgos que genera. Esta falta de consenso puede paralizar los esfuerzos regulatorios, ya que cada enfoque tiene sus defensores y detractores.
Consecuencias de la falta de regulación
La ausencia de un marco regulatorio claro para el uso de ChatGPT y otras herramientas de IA en la administración pública colombiana no es un asunto menor; sus consecuencias pueden ser profundas y de largo alcance, afectando la gobernanza, la ciudadanía y la soberanía del país.
Riesgos para la ciudadanía y la gobernanza
El riesgo más inmediato y tangible es el compromiso de la integridad de los datos públicos y personales. Si los funcionarios, en su afán por la eficiencia, introducen información sensible o personal de los ciudadanos en plataformas de IA generativa sin control, se abre la puerta a filtraciones, uso indebido o explotación por parte de terceros. Esto no solo constituye una violación de la privacidad, sino que también puede tener implicaciones en la seguridad financiera y personal de los individuos, erosionando la confianza en las instituciones que supuestamente deben protegerlos. La Superintendencia de Industria y Comercio (SIC) es la autoridad encargada de velar por el cumplimiento de la protección de datos en Colombia, y su rol sería clave en un escenario de incidentes relacionados con IA.
Otro punto crítico son las decisiones sesgadas o erróneas. Si la IA se utiliza para asistir en la toma de decisiones que afectan a los ciudadanos –por ejemplo, en la asignación de subsidios, la evaluación de solicitudes o la formulación de políticas– y esta IA opera con sesgos inherentes en sus datos de entrenamiento o produce "alucinaciones", el resultado pueden ser decisiones injustas, discriminatorias o simplemente incorrectas. Esto podría llevar a ciudadanos siendo tratados de manera desigual o negándoles derechos fundamentales sin una justificación válida, lo que socava los principios de equidad y justicia en la administración pública.
La pérdida de confianza en las instituciones es una consecuencia directa de los puntos anteriores. Si los ciudadanos perciben que sus datos no están seguros, que las decisiones se toman sin transparencia o que la IA es una fuente de errores, la legitimidad y credibilidad de los organismos públicos se verán seriamente afectadas. En un entorno donde la confianza ya es un activo frágil, esto representa un riesgo significativo para la estabilidad democrática y la gobernanza efectiva.
Además, la adopción descontrolada de estas tecnologías puede exacerbar la brecha digital y la desigualdad. Mientras algunos funcionarios y entidades pueden beneficiarse de las eficiencias de la IA, otros, con menos recursos o capacitación, podrían quedar rezagados, creando una disparidad en la calidad de los servicios públicos ofrecidos.
Implicaciones para la seguridad nacional y la soberanía tecnológica
Más allá de los riesgos inmediatos para la ciudadanía, la falta de regulación tiene implicaciones estratégicas importantes. La dependencia de herramientas externas y no transparentes para funciones críticas de la administración pública representa un desafío a la soberanía tecnológica. Si un país depende de empresas extranjeras para el funcionamiento de sus sistemas de gobernanza, pierde control sobre la infraestructura, los datos y, en última instancia, sobre sus propias decisiones. ¿Qué sucede si el proveedor cambia sus términos de servicio, eleva drásticamente los costos o decide retirar el servicio?
La exposición a ciberataques y manipulación también es una preocupación de seguridad nacional. Los modelos de IA son objetivos atractivos para actores maliciosos. Si la información sensible del gobierno o los datos de ciudadanos son procesados por sistemas de IA con vulnerabilidades, o si estos sistemas pueden ser manipulados para generar desinformación o influir en procesos críticos, las consecuencias podrían ser catastróficas. La manipulación de la opinión pública o la filtración de información estratégica podrían desestabilizar la nación.
Es mi convicción que, en un mundo cada vez más interconectado y tecnológicamente avanzado, la regulación de la IA no es un lujo, sino una necesidad estratégica para proteger los intereses nacionales y garantizar la seguridad del Estado.
Hacia un marco de uso responsable de la IA en el sector público
La situación actual en Colombia, caracterizada por la adopción entusiasta de ChatGPT sin un marco regulatorio, no es sostenible a largo plazo. Es imperativo transitar hacia un modelo de uso responsable que maximice los beneficios de la IA al tiempo que mitiga sus riesgos. Esto exige un enfoque proactivo y multifacético.
Propuestas y recomendaciones
El camino hacia una regulación efectiva y un uso responsable de la IA en el sector público colombiano pasa por la implementación de una serie de medidas concretas:
En primer lugar, es crucial el desarrollo de políticas claras y códigos de conducta específicos para el uso de la IA generativa en la administración pública. Estos documentos deben detallar qué tipo de información puede o no puede ser ingresada en estas herramientas, cómo deben ser verificados los resultados generados por la IA, y bajo qué circunstancias se debe divulgar el uso de asistencia de IA. Estas políticas deben ser de cumplimiento obligatorio y estar respaldadas por sanciones claras en caso de incumplimiento. Para un ejemplo de buenas prácticas internacionales, se pueden revisar los principios éticos de la IA propuestos por la UNESCO.
En segundo lugar, la capacitación y sensibilización del personal son fundamentales. No basta con prohibir o regular; los funcionarios deben entender los principios básicos de funcionamiento de la IA, sus capacidades y, sobre todo, sus limitaciones y riesgos. Es vital fomentar una cultura de pensamiento crítico que reconozca que la IA es una herramienta de apoyo y no un sustituto del juicio humano o de la responsabilidad profesional. Programas de formación continuos son esenciales para mantener a los funcionarios actualizados sobre las mejores prácticas y los desarrollos tecnológicos.
En tercer lugar, la auditoría y supervisión constante del uso de la IA. Las entidades públicas deberían establecer mecanismos para monitorear cómo se están utilizando estas herramientas, qué tipo de datos se están procesando y cuáles son los resultados. Esto incluye la implementación de herramientas de auditoría de IA que puedan detectar sesgos o errores, y la realización de evaluaciones de impacto algorítmico antes de implementar sistemas de IA en procesos críticos.
En cuarto lugar, se debe fomentar la colaboración público-privada y con la academia. El gobierno no puede abordar este desafío de forma aislada. La experiencia de las empresas desarrolladoras de IA, la investigación de las universidades y la perspectiva de la sociedad civil son indispensables para construir un marco robusto y adaptado a las realidades tecnológicas y sociales. La creación de foros de diálogo y grupos de trabajo intersectoriales sería un paso importante.
Finalmente, considero que la creación de un comité interinstitucional de IA podría ser una solución estructural. Este comité, compuesto por expertos técnicos, juristas, éticos y representantes de las distintas ramas del poder público, tendría la tarea de diseñar, implementar y actualizar continuamente las políticas y regulaciones sobre IA, asegurando una visión holística y coherente. El documento de política de la OCDE sobre inteligencia artificial podría servir como una guía valiosa para la discusión de este comité.
Ejemplos de buenas prácticas
Otros países y organizaciones ya han avanzado en la creación de marcos para el uso de la IA en el sector público. Por ejemplo, la ya mencionada Ley de IA de la Unión Europea busca establecer un marco regulatorio integral basado en el riesgo, clasificando los sistemas de IA según su potencial de daño y estableciendo requisitos proporcionales. Otro ejemplo es el Marco Nacional de Gestión de Riesgos de IA (AI RMF) del Instituto Nacional de Estándares y Tecnología de EE. UU. (NIST), que ofrece un enfoque voluntario para ayudar a las organizaciones a gestionar los riesgos asociados con la IA. Estas iniciativas, aunque no directamente replicables, pueden ofrecer modelos y principios que Colombia podría adaptar a su propio contexto, especialmente en lo que respecta a la categorización de riesgos y la exigencia de transparencia y rendición de cuentas. Por ejemplo, los principios de IA del Gobierno del Reino Unido tamb