MI CONFERENCIA: «!Sobre la necesidad de incorporar el enfoque étnico-diferencial en la construcción de políticas públicas digitales»
Por Dr. Antonio Tejeda Encinas | Presidente del Comité Euroamericano de Derecho Digital – CEA Digital LAW
El pasado 30 de octubre tuve el extraordinario honor de participar en un evento que trasciende lo académico para convertirse en historia: el VI Congreso Afrocolombiano de Estudios Interdisciplinarios en San Andrés de Tumaco. No estábamos allí solo para debatir, sino para ser testigos y partícipes de un diálogo fundacional, el que dará a luz a la nueva Universidad Afrocolombiana.
En ese contexto de inmensa responsabilidad, mi ponencia no fue una charla teórica más. Llevaba por título, y por intención, una declaración de principios y una advertencia urgente: «Necesidad de incorporar el enfoque étnico-diferencial en la construcción de políticas públicas digitales».
Mi mensaje central fue directo: el territorio del siglo XXI ya no se mide solo en hectáreas; se mide, y se disputa, en terabytes. La soberanía ya no se defiende únicamente en las fronteras físicas; se defiende en las redes, en los servidores y, de forma crítica, en los algoritmos que comienzan a mediar nuestra realidad, nuestros derechos y nuestras oportunidades.
Estamos en una encrucijada. Corremos el riesgo real e inminente de un nuevo colonialismo digital. Un colonialismo más sutil, pero no menos devastador, donde las comunidades que han sido históricamente marginadas en el mundo análogo, vean ahora cómo su cultura, su identidad, su conocimiento ancestral y sus propios datos son extraídos, procesados y monetizados sin su consentimiento, sin su control y, trágicamente, sin ningún retorno de valor.
Si la nueva Universidad Afrocolombiana nace para romper los ciclos de exclusión, debe nacer con un ADN digital soberano.
Mi «Pitch» Central: Fusionar el Alma de Colombia con las Herramientas de Europa
Mi trabajo al frente del Comité Euroamericano de Derecho Digital me sitúa en una posición única para observar dos realidades que se necesitan mutuamente.
Por un lado, tenemos a la Unión Europea, que está construyendo el «arsenal» regulatorio más avanzado del planeta. Con el Reglamento General de Protección de Datos (GDPR), el rompedor Reglamento de Inteligencia Artificial (AI Act), el Data Act y las directivas de ciberseguridad (NIS 2, CRA), Europa está forjando las herramientas para gobernar la era digital. Ha creado un blindaje sofisticado para el individuo.
Por otro lado, tenemos a Colombia. Un país que, gracias a su Constitución de 1991, a la visionaria Ley 70 y al Convenio 169 de la OIT, posee algo que Europa apenas empieza a debatir: un profundo y robusto reconocimiento de los derechos colectivos y un enfoque étnico-diferencial como pilar del Estado.
Mi propuesta en Tumaco no fue copiar el modelo europeo. Fue una fusión estratégica: Europa aporta el método; Colombia, la razón de ser. La idea es utilizar las herramientas técnicas y los principios de gobernanza europeos, pero no para proteger simplemente al «individuo» (como hace Bruselas), sino para blindar al «sujeto colectivo étnico» (como ordena la Constitución colombiana).
El Peligro del Algoritmo «Neutral»: La Automatización del Racismo
La necesidad de este enfoque es urgente. La gran mentira de nuestra era es la supuesta «neutralidad» de la tecnología. Un algoritmo no es una entidad divina; es un espejo que refleja, amplifica y automatiza los datos y los sesgos de quienes lo entrenaron.
Si alimentamos un sistema de IA con décadas de datos históricos sesgados —datos donde a las comunidades afro se les negó el acceso a créditos, a la justicia o a la educación—, la IA no «corregirá» mágicamente esa injusticia. Aprenderá de ella y la convertirá en política operativa. Un algoritmo entrenado con datos sesgados no es una herramienta de progreso; es la automatización del racismo a escala industrial.
Un sistema de reconocimiento facial que falla más con pieles oscuras no es un «error técnico»; es una exclusión digital programada. Un modelo de lenguaje que penaliza o no entiende las variantes lingüísticas del Pacífico no es «neutral»; es una herramienta de asimilación cultural forzosa.
Por esto, mi argumento central fue contundente: en el siglo XXI, cualquier política pública digital que no sea explícitamente étnico-diferencial, será, por omisión, una política de exclusión. No basta con que la tecnología «no sea racista»; debemos exigir que sea activamente antirracista y diferencial en su propio código.
Mis Propuestas para la Acción
Para pasar de la denuncia a la acción, presenté un conjunto de conceptos clave, herramientas conceptuales y prácticas diseñadas específicamente para esta nueva universidad.
1. El Habeas Data Étnico Operativo
Este fue, quizás, el concepto central. Todos conocemos el habeas data individual: el derecho a conocer, actualizar y rectificar nuestros datos personales. Pero, ¿qué pasa con los datos que no le pertenecen a un individuo, sino a la comunidad entera?
¿De quién es la propiedad de una base de datos de conocimiento ancestral sobre plantas medicinales? ¿A quién pertenece la data lingüística del creole palenquero? ¿Quién controla los datos genómicos de la población del Chocó?
Aquí es donde acuñé el término «Habeas Data Étnico Operativo»: No es solo un derecho declarativo; es un derecho de agencia. Es la potestad real y legal de la comunidad afrocolombiana, como sujeto colectivo de derechos (reconocido por la Ley 70), de ejercer el control, la auditoría, la portabilidad, la gestión y el derecho al olvido sobre su patrimonio de datos colectivos. Es el derecho a preguntar: «¿Qué datos tienen de mi comunidad?», «¿Para qué los usan?» y, sobre todo, «¿Qué valor retorna a mi comunidad por su uso?».
2. La «Consulta Previa Digital»
¿Cómo hacemos «operativo» ese Habeas Data Étnico? No tenemos que inventar la rueda. Debemos adaptar la herramienta más poderosa que Colombia ya posee: la Consulta Previa.
Propuse la creación de un protocolo de «Consulta Previa Digital». Bajo este marco, cualquier proyecto (público o privado) que pretenda desplegar IA, recolectar datos masivos o implementar tecnologías en territorios colectivos o que afecten a la identidad étnica, debe someterse a esta consulta. Pero no a una consulta cosmética, sino a una donde la comunidad, asesorada por su propia universidad, pueda:
-
Auditar los datos de entrenamiento del algoritmo.
-
Exigir la corrección de sesgos antes del despliegue.
-
Definir los términos de propiedad intelectual del modelo resultante.
-
Establecer mecanismos claros de retorno de valor (económico, académico, social) a la comunidad.
3. El «Airbag Digital» (Gobernanza de la IA)
El riesgo de que la IA genere discursos de odio o discriminación es real. Pero no podemos simplemente «apagarla». Propuse un concepto de gobernanza activa que llamé el «Airbag Digital».
Un airbag en un coche no evita el accidente (el intento de chocar), pero se despliega en milisegundos para evitar el impacto (el daño). De igual manera, una IA ética-diferencial debe tener un «airbag» algorítmico. Cuando el sistema detecte, ya sea por el prompt del usuario (la orden) o por el resultado que está a punto de generar, que se está cruzando una línea roja (racismo, odio, desinformación), el «airbag» se dispara.
¿Qué significa esto en la práctica? El sistema no entrega la respuesta dañina. En su lugar, la bloquea y activa una revisión humana obligatoria e inmediata. Esto cumple una doble función: protege al usuario del daño y, a la vez, genera un registro de intentos de abuso, permitiendo que el sistema aprenda y se fortalezca de forma supervisada.
El diálogo de la audiencia: cuando las Preguntas Confirman la Tesis
La verdadera prueba de fuego de estas ideas no fue mi exposición, sino el vibrante diálogo que le siguió. Las preguntas de la audiencia, llenas de agudeza, me permitieron demostrar cómo este marco no era teórico, sino una solución práctica e inmediata.
Una abogada del público me lanzó un reto directo y pragmático: «Doctor, todo eso suena excelente. Pero usted habla de reglamentos europeos que tardaron años. Aquí en Colombia no tenemos esa legislación específica de IA. ¿Cómo podemos, en la Universidad Afrocolombiana, empezar a trabajar en soberanía digital mañana?»
Agradecí la pregunta, porque me permitió ir al núcleo de mi argumento. Mi respuesta fue contundente: «No tenemos que esperar». La solución no es esperar una nueva ley de IA que copie a Europa. La solución es tomar las leyes que Colombia ya tiene y que Europa envidiaría. La Ley 70 y el Convenio 169 ya les otorgan el derecho a la consulta y la protección de la identidad colectiva.
Mi propuesta del Habeas Data Étnico Operativo y la Consulta Previa Digital no es una fantasía legal; es la implementación directa de la Ley 70 en el siglo XXI. La Universidad Afrocolombiana no debe esperar permiso para innovar; debe, desde mañana, empezar a diseñar esos protocolos y convertirse en la entidad que audite y certifique que cualquier tecnología desplegada en sus comunidades cumple con este estándar.
Inmediatamente después, un estudiante con una admirable visión técnica profundizó aún más: «Entendido, pero ¿cómo protegemos a la IA ‘por dentro’? ¿Cómo evitamos que sea entrenada para el mal, o que genere discursos de odio, incluso si está programada para ‘no mostrarlos’? ¿Cómo controlamos ese entrenamiento?»
Esta pregunta fue la culminación perfecta. Me permitió explicar el marco de gobernanza en tres fases que había esbozado.
«Tu pregunta», le dije, «es la clave de todo». Y procedí a articular la respuesta:
Uno (Antes del Despliegue): La protección no empieza cuando el usuario escribe. Empieza en el entrenamiento. Y aquí, la Universidad Afrocolombiana tiene una misión: crear sus propios datasets. Datos curados, verificados, des-sesgados. Y el Comité Ético Comunitario que propongo debe tener poder de veto real. Si los datos de entrenamiento no son representativos, el modelo no se publica. Punto.
Dos (Durante el Uso): Aquí es donde expliqué a fondo mi concepto de «Airbag Digital». No basta con programar a la IA para «ser buena». Hay que programarla para que sepa qué hacer cuando se encuentra con la «maldad». El airbag detiene el golpe (la respuesta de odio) y llama al supervisor humano.
Tres (Después del Fallo): Y aquí es donde lancé mi «bomba» conceptual más importante, la frase que resume toda mi filosofía sobre esta tecnología:
«La Inteligencia Artificial no tiene culpa. La Inteligencia Artificial no es responsable. La Inteligencia Artificial tiene autores, configuradores y supervisores.»
La era de esconderse detrás de la «caja negra» del algoritmo se terminó. Exigimos trazabilidad total. Si un algoritmo discrimina, debemos poder «rebobinar» la cinta, ver qué datos usó, qué ponderación les dio y quién configuró ese sistema. La responsabilidad es, y debe ser siempre, humana.
El Manifiesto del Faro de Tumaco
Mi visita a Tumaco me deja una convicción inquebrantable. La Universidad Afrocolombiana no nace para ser una mera usuaria de tecnología creada en Silicon Valley o en Pekín. Nace, en este momento histórico, con la oportunidad de convertirse en una gobernante de la tecnología, de fusionar el alma legal de Colombia con las herramientas más avanzadas del derecho digital.
El reto que esta nueva universidad asume es monumental, porque, como sostuve, el territorio ya no se mide en hectáreas, sino en terabytes. En esta nueva geografía digital donde se disputará el poder del siglo XXI, la primera ley debe ser clara e inmutable: no hay soberanía digital sin identidad. Es la identidad étnica y colectiva el ancla que debe asegurar todo el andamiaje tecnológico.
El camino no debe recorrerse a ciegas, ni inventarlo todo desde cero. Aquí radica la belleza de la fusión estratégica que propuse: Europa aporta el método; Colombia, la razón de ser. El pueblo afrocolombiano tiene hoy la ventaja del que aprende de ensayos ajenos; podemos observar los aciertos y, más importante, los vacíos legales de Europa para construir un modelo superador, uno que no solo proteja al individuo, sino a la comunidad.
Un modelo que no se quede en la retórica, sino que se materialice en herramientas jurídicas y técnicas. La herramienta legal clave que acuñamos, el «Habeas data étnico operativo», es el escudo. La herramienta técnica que debemos exigir sin concesiones, la «rendición de cuentas algorítmica», es la espada que garantiza la transparencia.
Armados con este escudo y esta espada, podemos por fin cumplir la misión fundamental de nuestro tiempo: lograr que el derecho no siga a la tecnología, sino la guíe. El trabajo histórico que comienza ahora en Tumaco es la prueba viviente de que la soberanía digital no es un sueño: es un proyecto legislativo, académico y, sobre todo, un proyecto de dignidad comunitaria.


