
ISSN-e: 2737-6419
Período: enero-marzo de 2026
Revista Athenea
Vol.7, Número 23, (pp. 41Ű53)
I. INTRODUCCIÓN
En la última década, la inteligencia artiĄcial (IA) dejó de ser un Şsistema expertoŤ conĄnado a lab-
oratorios o a nichos industriales para convertirse en una infraestructura cotidiana: motores de recomen-
dación que curan lo que vemos y escuchamos, sistemas de ranking que ordenan información ŞrelevanteŤ,
modelos predictivos que sugieren rutas, productos, amistades, noticias, e incluso patrones de conducta
ŞesperablesŤ. Esta expansión no solo incrementó la eĄciencia en la gestión de grandes volúmenes de
datos; también transformó el modo en que las personas perciben opciones, anticipan consecuencias
y justiĄcan decisiones. En términos aplicados, la vida diaria se volvió un entorno de micro-decisiones
mediadas por algoritmos, donde la optimización computacional (clics, tiempo de permanencia, conver-
sión, retención) convive Ůa veces en tensiónŮ con la experiencia subjetiva de autonomía, preferencia
y sentido.
Desde una perspectiva de ciencias aplicadas, los sistemas algorítmicos que operan en plataformas
digitales pueden describirse como tuberías de decisión (decision pipelines) basadas en: (i) recolec-
ción de señales (historial, contexto, interacción), (ii) modelado predictivo (probabilidad de elección o
respuesta), y (iii) ranking o asignación de recursos (qué se muestra primero, qué se sugiere, qué se
oculta). El resultado práctico es una Şarquitectura de elecciónŤ dinámica que se actualiza en tiempo
real. En este marco, la inĆuencia algorítmica no requiere coerción explícita; basta con alterar el orden,
la disponibilidad o la saliencia de las alternativas. La literatura de digital nudging formaliza este fenó-
meno al extender el concepto de nudge hacia entornos digitales: la interfaz y la lógica de presentación
pueden guiar elecciones de manera predecible sin eliminar opciones [
1], [2]. Esta perspectiva es es-
pecialmente pertinente porque conecta mecanismos de diseño (por ejemplo, defaults, jerarquización,
recordatorios, señales de escasez) con resultados observables en comportamiento, abriendo la puerta
a análisis cuantitativos robustos (modelos de elección, efectos de tratamiento, experimentos A/B y
simulación).
Sin embargo, la relevancia social del problema emerge cuando se recono ce que estos sistemas no
solo ŞasistenŤ decisiones: reconĄguran el marco cognitivo desde el cual las personas deciden. La teoría
del juicio y la decisión ha mostrado que la elección humana está condicionada por sesgos sistemáti-
cos y por la forma de enmarcar alternativas, incluso cuando los individuos creen decidir libremente
[
3]. En contextos mediado-algorítmicos, el ŞmarcoŤ ya no es e stable: es personalizable, adaptativo y
opaco. Así, la subjetividad social Ůentendida como construcción de preferencias, valores, identidades
y expectativas en interacción con el entornoŮ se ve atravesada por recomendaciones y rankings que
actúan como Ąltros de realidad: determinan qué información se vuelve accesible y qué contenidos se
vuelven ŞnormalesŤ o ŞdeseablesŤ. Evidencia reciente sobre servicios de streaming discute cómo los
recomendadores pueden incidir en la formación del gusto y en elecciones estéticas, precisamente porque
mediatizan el descubrimiento y la exposición cultural [
4]. En paralelo, estudios sobre juventudes y
recomendaciones algorítmicas resaltan la ambivalencia entre conveniencia y pérdida de agencia: los
sistemas facilitan navegar la sobrecarga informativa, pero también delimitan recursos para explorar
alternativas no anticipadas por el modelo [
5].
La noción de agencia humana adquiere aquí un rol central. En ámbitos laborales, por ejemplo, la
Şgestión algorítmicaŤ (asignación de tareas, evaluación, planiĄcación) ha motivado marcos conceptuales
que analizan riesgos y oportunidades para la autonomía cuando decisiones relevantes pasan por modelos
de predicción y optimización [
6]. Aunque el entorno laboral tiene especiĄcidades, su lógica se asemeja
a la vida cotidiana digital: el algoritmo no reemplaza necesariamente la voluntad individual, pero puede
estrechar el espacio de deliberación al imponer métricas, prioridades y rutas de acción ŞeĄcientesŤ. En el
consumo de contenidos, esto se observa con especial fuerza: un trabajo reciente sobre recomendaciones
personalizadas en una gran plataforma de streaming propone un modelo de elección discreta para
estimar efectos incrementales de la recomendación sobre el comportamiento de consumo y la diversidad,
mostrando cómo el diseño del recomendador puede modiĄcar patrones de elección y engagement [
7].
Estos resultados, aun cuando se centran en métricas de plataforma, son cruciales para ciencias aplicadas
porque evidencian que la recomendación no es un Şdetalle de interfazŤ: es un mecanismo causal
potencialmente medible que altera la conducta.
La expansión de la IA cotidiana también intensiĄca desafíos clásicos de equidad, sesgo y respon-
sabilidad. Modelos entrenados con datos históricos pueden reproducir desigualdades preexistentes o
ampliĄcarlas, especialmente cuando se usan como apoyo o sustituto de decisiones humanas en ámbitos
sensibles (crédito, seguros, empleo, visibilidad en mercados digitales). Un referente clave en este debate
Calizaya J. et al. Algoritmos cotidianos y subjetividad social
42