Ni ‘woke’, ni tecno-naïf, ni tecnoescéptico: Dignidad digital frente al poder invisible – Hacia una reconstrucción ética del poder algorítmico
Las posturas polarizadas —woke, tecno-naïf, tecnoescéptico— no logran enfrentar el poder invisible del tecnoautoritarismo, que se manifiesta desde moratorias federales en EE. UU. que concentran el control de la IA hasta la opacidad algorítmica que alarma a artistas como Paul McCartney y Dua Lipa en el Reino Unido. En paralelo, Europa sigue atrapada entre directivas que prometen ética y prácticas empresariales que normalizan la extracción silenciosa de datos a escala masiva. Todo sucede al mismo tiempo. Todo parece inevitable. Todo parece “normal”.
Pero no lo es. En esta era de algoritarismo, la dignidad digital está en disputa.
Lo que estamos viviendo no es solo una transición tecnológica. Es una mutación del poder. Ya no hace falta imponer ni prohibir: basta con calcular, predecir y clasificar. No se necesita una ideología explícita para controlar, basta un sistema automatizado sin rostro que decide sin rendir cuentas. Ese nuevo poder no tiene nombre en los marcos clásicos, pero necesita uno urgente. Lo llamaremos tecnoautoritarismo.
No es un régimen. Es una lógica. Un sistema que no se presenta como opresivo, sino como eficiente; que no elimina derechos, sino que los sustituye por términos de servicio. Su forma más avanzada: el algoritarismo, donde la dominación ya no se ejerce por la fuerza, sino por la invisibilidad.
Y frente a este nuevo poder, emergen las tres posturas que ya conocemos (el tecno-woke, el tecno-naïf y el tecnoescéptico), y una cuarta, cada vez más influyente y peligrosa, que merece ser nombrada: la del tecnoautoritarismo pragmático, una visión dominante en ciertos sectores de la nueva derecha global, donde el algoritmo es un instrumento de orden, exclusión y vigilancia. Esta postura no cree en derechos, cree en rendimiento. No exige garantías, exige obediencia optimizada. Y no discute con argumentos, sino con puntuaciones invisibles que te dejan fuera del sistema sin que se note.
Entre el ruido de unos y la ingenuidad de otros, el riesgo es claro: la dignidad humana puede volverse irrelevante si no se defiende desde el principio. Aquí no sirve el debate ideológico ni las consignas. Hace falta reconstruir la ética del sistema: exigir transparencia, trazabilidad y justicia en lo digital, y entender que la cuestión ya no es solo digitalización, sino democracia y poder real. No se trata de lanzar otra proclama, sino de defender lo que aún queda antes de que desaparezca.
El falso dilema
Hablar hoy de derechos digitales se ha convertido en una acción de alto riesgo comunicativo. Según quién te escuche, te encasillan en un extremo u otro del espectro cultural: si denuncias los abusos de los algoritmos, eres “progre”; si cuestionas la narrativa identitaria, te tachan de reaccionario. Si hablas de ética digital, te miran como un “woke”; si mencionas regulación, te acusan de frenar la innovación. Este es el falso dilema que paraliza el pensamiento y esteriliza el debate.
La lógica binaria impuesta por la polarización cultural ha colonizado incluso el ámbito más estructural de nuestra época: el poder automatizado. No importa el contenido de lo que defiendes, sino la caja simbólica en la que te colocan. Y esa caja lo devora todo. Así se disuelven las preguntas importantes: ¿quién decide cómo funciona la tecnología que gobierna nuestras vidas? ¿Quién controla a los que controlan los sistemas? ¿Y quién protege a quienes ni siquiera están conectados o alfabetizados digitalmente?
Este dilema es doblemente peligroso porque oculta la verdadera disputa: ya no es entre ideologías, sino entre formas de gobierno —unas visibles, otras invisibles. El problema no es que haya un bando equivocado, sino que el verdadero poder está operando fuera del campo de batalla simbólico, sin oposición real. Bajo esa niebla semántica, el tecnoautoritarismo avanza. Se disfraza de neutralidad técnica. De eficiencia. De solución inevitable. Pero es otra cosa: una forma de control que no necesita represión, porque le basta con la omisión, la clasificación, el silenciamiento por omisión algorítmica.
Y en medio de todo eso, la ciudadanía queda atrapada entre dos espejismos: el de la ideología que promete protección sin estructura, y el de la tecnología que promete orden sin derechos. Pero nosotros no estamos aquí para elegir entre bandos. Estamos aquí para señalar que el dilema es falso, y que la dignidad digital necesita ser defendida desde otro lugar: más allá del marketing moral, y más allá del fatalismo tecnológico.
La verdadera agenda: proteger al ser humano, no etiquetarlo
La verdadera agenda no tiene himno, ni color político, ni hashtag. No se expresa con consignas ni se mide en trending topics. La verdadera agenda es la de los derechos humanos reprogramados para sobrevivir al siglo XXI. Y esa agenda, por incómodo que resulte, está siendo abandonada a su suerte mientras discutimos símbolos.
Hemos confundido la defensa de la dignidad humana con una marca ideológica. Pedir transparencia algorítmica parece ser una postura política, cuando debería ser una exigencia básica de justicia. Reclamar control sobre los datos personales se interpreta como un capricho progresista, cuando en realidad es una cuestión de soberanía individual. Y denunciar la discriminación automatizada se caricaturiza como parte de una agenda “woke”, cuando en realidad es una advertencia sistémica sobre el futuro de la igualdad.
Pero esta confusión no es accidental. Forma parte del diseño de la polarización algorítmica: Una lógica que etiqueta al ciudadano antes de escucharlo, y clasifica sus demandas según patrones ideológicos predefinidos. Es más fácil desactivar una idea si la reduces a un estereotipo. Por eso, en vez de discutir qué modelo de sociedad queremos en un entorno digitalizado, nos limitamos a señalar quién dice qué y desde qué bando.
Frente a eso, la prioridad es proteger a quienes están en riesgo, no alimentar discursos de minorías ni relatos de identidad. No se trata de adornar la realidad con emociones, sino de poner freno real —jurídico y político— al poder digital que nos clasifica y excluye en silencio.
Y sobre todo, no es momento de resignarse ni de perder el tiempo en debates ideológicos. Lo que importa es poner en pie una agenda práctica: mínimos claros y exigibles —acceso, control, protección, transparencia, justicia—. A la gente no la protegen los discursos, la protegen las leyes y los controles efectivos.
El error de convertir la tecnología en campo de batalla cultural
Uno de los grandes fracasos de nuestro tiempo ha sido permitir que la tecnología se convierta en terreno de guerra cultural, cuando lo que realmente está en juego es la arquitectura del poder en el siglo XXI. En lugar de hablar de transparencia, regulación, garantías y control ciudadano, el debate público se ha transformado en un cruce de insultos entre etiquetas: “progres digitales”, “reaccionarios analógicos”, “tecno-wokes”, “conspiranoicos de la privacidad”. El resultado: nadie habla del fondo, y mientras tanto, el poder automatizado se consolida sin freno.
La tecnología no debería tener ideología, pero tiene consecuencias políticas. Lo que hoy discutimos no es si la IA “nos hará la vida más fácil”, sino quién decide sobre nuestros datos, nuestras decisiones, nuestros cuerpos y nuestros derechos cuando todo pasa por sistemas que no podemos auditar ni comprender. Convertir esta disputa estructural en una batalla simbólica solo beneficia a quienes necesitan que no miremos demasiado de cerca.
Reducirlo todo a emociones identitarias es el error de siempre. Criticas el sesgo algorítmico: te acusan de censura. Señalas el monopolio digital: te llaman anticapitalista. Exiges reglas éticas: te tachan de enemigo de la innovación. Así funciona el teatro: etiquetas, polarización y ruido. Y, mientras tanto, el poder real actúa en la sombra.
Pero el problema es aún más profundo. No es solo que el debate esté distorsionado. Es que la propia arquitectura algorítmica alimenta esa distorsión. Las redes sociales y plataformas digitales no están diseñadas para el pensamiento complejo, sino para la indignación. Para la segmentación emocional. Así, incluso quienes quieren construir una reflexión crítica se ven arrastrados a un terreno que impide cualquier matiz.
Frente a eso, hay que reapropiarse del lenguaje, del marco y de la agenda. No para imponer una verdad, sino para recuperar la capacidad de pensar con autonomía en un entorno digital diseñado para fragmentarnos. Porque mientras discutimos si la tecnología es “buena o mala”, el algoritarismo ya está diseñando un mundo donde ni siquiera podremos hacernos esa pregunta.
¿Qué sí defendemos?: derechos digitales sin dogmas
Lo que defendemos no es una posición ideológica ni una identidad cultural. Lo que defendemos es un principio fundacional de cualquier sociedad civilizada: que ningún sistema de poder —humano o automatizado— debe operar sin responsabilidad, sin transparencia, y sin límites. Esa defensa no es progresista ni conservadora. Es simplemente ética. Es política en el sentido más elemental: quién decide, con qué legitimidad, y para beneficio de quién.
Por eso hablamos de derechos digitales. No como un decorado simbólico, sino como una infraestructura fundamental que debe garantizar:
Lo que defendemos no es una posición ideológica ni una identidad cultural, sino principios básicos: la autodeterminación informativa (saber qué se sabe sobre ti y decidir quién accede a esa información), la trazabilidad algorítmica (posibilidad de auditar y explicar los sistemas que afectan tu vida), la igualdad estructural en entornos digitales (sin sesgos, exclusiones automáticas ni discriminación silenciosa) y el derecho a una identidad que no quede reducida a patrones predictivos.
Estas demandas no son aspiraciones utópicas, ni banderas ideológicas. Son el mínimo exigible para no quedar atrapados en una civilización automatizada sin ciudadanía. Sin embargo, la mera enunciación de estos derechos no garantiza su cumplimiento; se requieren mecanismos que permitan su verificación y exigibilidad en la práctica.
Desde mi experiencia como consultor ético en gobernanza algorítmica, lo afirmo con rotundidad: no existe legitimidad tecnológica sin responsabilidad verificable. No basta con que un algoritmo funcione. Tiene que poder explicar lo que hace, por qué lo hace y bajo qué valores lo hace. Y quienes lo utilizan deben estar dispuestos a rendir cuentas por ello.
Frente al tecnoautoritarismo, que opera desde la opacidad, y frente a los discursos polarizados que discuten sin construir, lo que defendemos es una tercera vía crítica digital, ética y estructural. No queremos plataformas que digan ser justas. Queremos estructuras que no puedan dejar de serlo.
Hacia una nueva frontera para los derechos humanos.
Lo que vivimos no es una simple transición tecnológica: es una mutación profunda del poder. Ahora, la arquitectura del control no se construye con discursos explícitos, sino con sistemas que calculan, predicen y deciden antes de que podamos intervenir. La amenaza real no es solo que se vulneren derechos, sino que se redefinan fuera de nuestro alcance. O peor aún: que dejen de tener sentido.
La dignidad humana, lejos de ser una abstracción, se juega hoy en cada decisión automatizada. No es cuestión de un régimen o una ideología, sino del avance silencioso de sistemas que reducen a las personas a datos y a la política a simples puntuaciones. El verdadero riesgo ya no es la censura ni la represión abierta, sino la invisibilidad algorítmica, la neutralización del debate y la educación de una ciudadanía que acepta lo digital como algo inevitable y natural.
La única respuesta válida es dar forma a una gramática política realista: capaz de anticipar, transformar y garantizar derechos, no de conformarse con la retórica o con el simple diseño de experiencias. Ya no basta con reaccionar ni con representar; toca transformar.
Esa es la frontera que nos toca habitar: la del poder sin rostro, pero con consecuencias. Y si no somos capaces de anticipar sus formas, acabaremos legitimándolo por omisión.
No se trata de resistir el futuro. Se trata de no renunciar al presente. Porque todavía hay algo que podemos hacer: nombrar el problema antes de que desaparezca de la conversación pública. Defender lo humano antes de que se vuelva obsoleto. Y trazar las líneas rojas antes de que alguien decida que ya es demasiado tarde.
Antonio Tejeda Encinas es doctor en Derecho y consultor ético en gobernanza algorítmica. Actualmente es investigador en ética digital y regulación tecnológica en la Europa-Universität Viadrina Frankfurt (Oder), y presidente del Comité Euroamericano de Derecho Digital – CEA Digital Law. Su trabajo articula una visión crítica y estructural sobre el poder automatizado, y busca reconstruir los fundamentos éticos de la ciudadanía en entornos algorítmicos complejos.
Referencias
Propuesta de Ley de Derechos Civiles de la Inteligencia Artificial (EE. UU., 2024)
Senador Edward J. Markey, Artificial Intelligence Civil Rights Act of 2024, S.5152, 118º Congreso de EE. UU., presentado el 24 de septiembre de 2024.
Carta abierta de artistas británicos sobre transparencia en IA (Reino Unido, 2025)
Paul McCartney, Dua Lipa y otros, Carta abierta al Primer Ministro Keir Starmer, mayo de 2025.
Reglamento Europeo de Inteligencia Artificial (UE, 2024)
Parlamento Europeo y Consejo de la Unión Europea, Reglamento (UE) 2024/1689, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial.
Grupo de Expertos de Alto Nivel sobre IA, “Directrices Éticas para una Inteligencia Artificial Fiable”, Comisión Europea, 8 de abril de 2019.