ISSN-e: 2737-6419
Período: enero-marzo de 2026
Revista Athenea
Vol.7, Número 23, (pp. 41Ű53)
Artículo de investigación https://doi.org/10.47460/athenea.v7i23.128
Algoritmos cotidianos y subjetividad social: cómo la inteligencia
artificial reconfigura las decisiones humanas en la vida diaria
José Calizaya López*
https://orcid.org/0000-0001-6221-0909
jcalizayal@unsa.edu.pe
Universidad Nacional de San Agustín de Arequipa
Arequipa, Perú
Benjamín Roldan Polo-Escobar
https://orcid.org/0000-0001-5056-9957
benjamin.polo@untrm.edu.pe
Universidad Nacional Toribio Rodríguez de
Mendoza
Chachapoyas, Perú
Orealis María Aguilar Paredes
https://orcid.org/0000-0002-0759-5612
oaguilar@unitru.edu.pe
Universidad Nacional de Trujillo
Trujillo, Perú
Edgar Hilario Barreda Coaquira
https://orcid.org/0000-0002-7146-2187
ebarreda@unsa.edu.pe
Universidad Nacional de San Agustín de Arequipa
Arequipa, Perú
Ariosto Carita Choquecahua
https://orcid.org/0000-0001-6878-6925
acarita@unsa.edu.pe
Universidad Nacional de San Agustín de Arequipa
Arequipa, Perú
*Autor de correspondencia:
jcalizayal@unsa.edu.pe
Recibido: (29/09/2025), Aceptado: (03/12/2025)
Resumen. En este estudio se analiza cómo los algoritmos de inteligencia artiĄcial integrados en la vida
cotidiana inĆuyen en la toma de decisiones humanas y en la conĄguración de la subjetividad social.
Se adoptó un enfoque cuantitativo basado en simulación socio-técnica, utilizando datos sintéticos y
modelos de decisión para evaluar el impacto de la p ersonalización algorítmica, la diversidad de exposición
y la explicabilidad del sistema. Los resultados muestran que la personalización incrementa de forma
sistemática la probabilidad de adhesión a las recomendaciones, reduce la diversidad estructural del
entorno de elección y modula variables subjetivas como la agencia percibida y la dependencia algorítmica.
El análisis de sensibilidad evidencia que la personalización actúa como un parámetro de alta sensibilidad,
generando cambios predecibles y estables en la conducta de elección. Estos hallazgos conĄrman que los
algoritmos cotidianos no solo optimizan decisiones, sino que reconĄguran progresivamente la experiencia
decisional humana.
Palabras clave: algoritmos cotidianos, subjetividad social, inteligencia artiĄcial, toma de decisiones.
Everyday Algorithms and Social Subjectivity: How Artificial Intelligence
Reconfigures Human Decisions in Daily Life
Abstract. This study analyzes how artiĄcial intelligence algorithms embedded in everyday life inĆuence
human decision-making and the conĄguration of social subjectivity. A quantitative approach based on
socio-technical simulation was adopted, using synthetic data and decision models to assess the impact
of algorithmic personalization, exposure diversity, and system explainability. The results show that
personalization systematically increases the likelihood of adherence to recommendations, reduces the
structural diversity of the choice environment, and modulates subjective variables such as perceived
agency and algorithmic dependence. Sensitivity analysis indicates that personalization acts as a highly
sensitive parameter, generating predictable and stable changes in decision behavior. These Ąndings
conĄrm that everyday algorithms not only optimize decisions, but also progressively reshape the human
decision-making experience.
Keywords: everyday algorithms, social subjectivity, artiĄcial intelligence, decision-making.
Calizaya J. et al. Algoritmos cotidianos y subjetividad social
41
ISSN-e: 2737-6419
Período: enero-marzo de 2026
Revista Athenea
Vol.7, Número 23, (pp. 41Ű53)
I. INTRODUCCIÓN
En la última década, la inteligencia artiĄcial (IA) dejó de ser un Şsistema expertoŤ conĄnado a lab-
oratorios o a nichos industriales para convertirse en una infraestructura cotidiana: motores de recomen-
dación que curan lo que vemos y escuchamos, sistemas de ranking que ordenan información ŞrelevanteŤ,
modelos predictivos que sugieren rutas, productos, amistades, noticias, e incluso patrones de conducta
ŞesperablesŤ. Esta expansión no solo incrementó la eĄciencia en la gestión de grandes volúmenes de
datos; también transformó el modo en que las personas perciben opciones, anticipan consecuencias
y justiĄcan decisiones. En términos aplicados, la vida diaria se volvió un entorno de micro-decisiones
mediadas por algoritmos, donde la optimización computacional (clics, tiempo de permanencia, conver-
sión, retención) convive Ůa veces en tensiónŮ con la experiencia subjetiva de autonomía, preferencia
y sentido.
Desde una perspectiva de ciencias aplicadas, los sistemas algorítmicos que operan en plataformas
digitales pueden describirse como tuberías de decisión (decision pipelines) basadas en: (i) recolec-
ción de señales (historial, contexto, interacción), (ii) modelado predictivo (probabilidad de elección o
respuesta), y (iii) ranking o asignación de recursos (qué se muestra primero, qué se sugiere, qué se
oculta). El resultado práctico es una Şarquitectura de elecciónŤ dinámica que se actualiza en tiempo
real. En este marco, la inĆuencia algorítmica no requiere coerción explícita; basta con alterar el orden,
la disponibilidad o la saliencia de las alternativas. La literatura de digital nudging formaliza este fenó-
meno al extender el concepto de nudge hacia entornos digitales: la interfaz y la lógica de presentación
pueden guiar elecciones de manera predecible sin eliminar opciones [
1], [2]. Esta perspectiva es es-
pecialmente pertinente porque conecta mecanismos de diseño (por ejemplo, defaults, jerarquización,
recordatorios, señales de escasez) con resultados observables en comportamiento, abriendo la puerta
a análisis cuantitativos robustos (modelos de elección, efectos de tratamiento, experimentos A/B y
simulación).
Sin embargo, la relevancia social del problema emerge cuando se recono ce que estos sistemas no
solo ŞasistenŤ decisiones: reconĄguran el marco cognitivo desde el cual las personas deciden. La teoría
del juicio y la decisión ha mostrado que la elección humana está condicionada por sesgos sistemáti-
cos y por la forma de enmarcar alternativas, incluso cuando los individuos creen decidir libremente
[
3]. En contextos mediado-algorítmicos, el ŞmarcoŤ ya no es e stable: es personalizable, adaptativo y
opaco. Así, la subjetividad social Ůentendida como construcción de preferencias, valores, identidades
y expectativas en interacción con el entornoŮ se ve atravesada por recomendaciones y rankings que
actúan como Ąltros de realidad: determinan qué información se vuelve accesible y qué contenidos se
vuelven ŞnormalesŤ o ŞdeseablesŤ. Evidencia reciente sobre servicios de streaming discute cómo los
recomendadores pueden incidir en la formación del gusto y en elecciones estéticas, precisamente porque
mediatizan el descubrimiento y la exposición cultural [
4]. En paralelo, estudios sobre juventudes y
recomendaciones algorítmicas resaltan la ambivalencia entre conveniencia y pérdida de agencia: los
sistemas facilitan navegar la sobrecarga informativa, pero también delimitan recursos para explorar
alternativas no anticipadas por el modelo [
5].
La noción de agencia humana adquiere aquí un rol central. En ámbitos laborales, por ejemplo, la
Şgestión algorítmicaŤ (asignación de tareas, evaluación, planiĄcación) ha motivado marcos conceptuales
que analizan riesgos y oportunidades para la autonomía cuando decisiones relevantes pasan por modelos
de predicción y optimización [
6]. Aunque el entorno laboral tiene especiĄcidades, su lógica se asemeja
a la vida cotidiana digital: el algoritmo no reemplaza necesariamente la voluntad individual, pero puede
estrechar el espacio de deliberación al imponer métricas, prioridades y rutas de acción ŞeĄcientesŤ. En el
consumo de contenidos, esto se observa con especial fuerza: un trabajo reciente sobre recomendaciones
personalizadas en una gran plataforma de streaming propone un modelo de elección discreta para
estimar efectos incrementales de la recomendación sobre el comportamiento de consumo y la diversidad,
mostrando cómo el diseño del recomendador puede modiĄcar patrones de elección y engagement [
7].
Estos resultados, aun cuando se centran en métricas de plataforma, son cruciales para ciencias aplicadas
porque evidencian que la recomendación no es un Şdetalle de interfazŤ: es un mecanismo causal
potencialmente medible que altera la conducta.
La expansión de la IA cotidiana también intensiĄca desafíos clásicos de equidad, sesgo y respon-
sabilidad. Modelos entrenados con datos históricos pueden reproducir desigualdades preexistentes o
ampliĄcarlas, especialmente cuando se usan como apoyo o sustituto de decisiones humanas en ámbitos
sensibles (crédito, seguros, empleo, visibilidad en mercados digitales). Un referente clave en este debate
Calizaya J. et al. Algoritmos cotidianos y subjetividad social
42
ISSN-e: 2737-6419
Período: enero-marzo de 2026
Revista Athenea
Vol.7, Número 23, (pp. 41Ű53)
argumenta que el impacto discriminatorio puede emerger incluso sin variables sensibles explícitas, por
correlaciones y por la lógica de optimización del sistema [
8]. Para una revista de ciencias aplicadas,
esto no es solo una discusión normativa: es un problema técnico-metodológico. La equidad depende
de decisiones concretas de ingeniería (métricas de desempeño, función objetivo, muestreo, feature en-
gineering, umbrales, calibración), y por ello requiere instrumentación cuantitativa: métricas de fairness,
auditorías, análisis de sensibilidad y evaluación de robustez.
En paralelo, la opacidad de los modelos modernos Ůdesde ensamblajes hasta redes profundasŮ
plantea un límite práctico para la conĄanza y el control social: si las personas no comprenden por
qué una recomendación o clasiĄcación aparece, se debilita la capacidad de cuestionar, corregir o re-
sistir la inĆuencia. En respuesta, la investigación en explainable AI (XAI) ha desarrollado enfoques
para aproximar explicaciones locales o globales de modelos complejos. Métodos ampliamente citados,
como LIME, buscan ofrecer explicaciones interpretables a nivel de instancia para apoyar comprensión y
evaluación humana [
9]. A nivel de revisión, la literatura ha sistematizado taxonomías de explicabilidad
y ha discutido tensiones entre Ądelidad, interpretabilidad y utilidad en contextos reales [
10]. Comple-
mentariamente, guías de interacción humano-IA proponen principios de diseño (por ejemplo, gestionar
expectativas, comunicar incertidumbre, permitir corrección, dar control gradual) que ayudan a traducir
capacidades técnicas en experiencias más seguras y transparentes [
11]. En conjunto, estas líneas señalan
que la Şsubjetividad algorítmicaŤ no depende solo de que exista IA, sino de cómo se presenta, cómo se
integra en el Ćujo de decisión y qué posibilidades brinda para supervisión y agencia.
En este escenario, surge una necesidad de investigación que sea simultáneamente socialmente sen-
sible y técnicamente rigurosa: (i) conceptualizar la inĆuencia algorítmica en decisiones diarias como
un fenómeno socio-técnico medible; (ii) operacionalizar constructos de subjetividad (percepción de
control, conĄanza, satisfacción, carga cognitiva, dependencia de recomendación, percepción de manip-
ulación) mediante indicadores cuantitativos; y (iii) modelar, con herramientas de cienc ias aplicadas, los
mecanismos que conectan diseño algorítmico con cambios en conducta y experiencia. Esto habilita un
enfoque cuantitativo consistente con la orientación del presente trabajo: uso de datos sintéticos para
simular escenarios (por ejemplo, variación de intensidad de recomendación, diversidad de exposición,
opacidad/explicabilidad), estimación de relaciones mediante modelos estadísticos (regresión, modelos
de elección, SEM/PLS-SEM cuando corresponda) y evaluación de estabilidad mediante análisis de sen-
sibilidad. Así, el artículo propone aportar evidencia y estructura analítica para comprender cómo la
IA reconĄgura decisiones humanas en la vida diaria sin reducir el problema a una dicotomía simplista
entre Ştecnología buenaŤ o Ştecnología malaŤ, sino tratándolo como un sistema optimizable donde las
variables humanas importan tanto como las métricas de desempeño [
12].
II. MARCO TEÓRICO
La inteligencia artiĄcial contemporánea puede entenderse menos como una tecnología aislada y
más como una infraestructura socio-técnica integrada en la vida diaria. A diferencia de los sistemas
automatizados clásicos, los sistemas basados en aprendizaje automático operan de forma adaptativa,
aprendiendo de grandes volúmenes de datos generados por interacciones humanas y retroalimentando
continuamente sus propios procesos de decisión [
13]. Esta característica convierte a la IA en un actor
estructural del entorno social, capaz de mediar prácticas cotidianas como el consumo de información,
la toma de decisiones económicas, la planiĄcación del tiempo y la interacción so cial.
Desde las ciencias aplicadas, esta infraestructura se materializa en algoritmos de recomendación,
clasiĄcación y predicción, diseñados para optimizar funciones objetivo concretas (engagement, eĄcien-
cia, reducción de riesgo, personalización) [
14]. No obstante, estas funciones técnicas no son neutrales:
al deĄnir qué se optimiza, los sistemas introducen criterios normativos implícitos que inĆuyen en la
experiencia humana. Estudios clásicos sobre sistemas de recomendación muestran que pequeñas varia-
ciones en el diseño algorítmico pueden generar cambios sistemáticos y medibles en el comportamiento
del usuario, incluso cuando este percibe sus decisiones como autónomas [
1], [2].
A. Algoritmos cotidianos y arquitectura de la decisión
El concepto de arquitectura de la decisión proporciona un puente teórico clave entre ingeniería y
ciencias sociales. Originalmente desarrollado en el ámbito de la economía conductual, este enfoque
sostiene que las decisiones humanas están profundamente inĆuidas por la forma en que las opciones
Calizaya J. et al. Algoritmos cotidianos y subjetividad social
43
ISSN-e: 2737-6419
Período: enero-marzo de 2026
Revista Athenea
Vol.7, Número 23, (pp. 41Ű53)
se presentan, ordenan y contextualizan [3]. En entornos digitales, dicha arquitectura es implementada
algorítmicamente: los sistemas determinan el orden de visibilidad, la relevancia percibida y la frecuencia
de exposición de las alternativas.
La literatura sobre digital nudging amplía este marco al ámbito computacional, demostrando que
las interfaces algorítmicas pueden guiar elecciones sin eliminar opciones ni recurrir a coerción directa
[
4]. Desde un punto de vista aplicado, estos efectos son especialmente relevantes porque permiten
ser modelados, simulados y cuantiĄcados, utilizando herramientas como modelos de elección discreta,
análisis causal y simulaciones Monte Carlo. Así, la inĆuencia algorítmica se convierte en un fenómeno
observable y reproducible, compatible con el enfoque cuantitativo del presente estudio [
15], [16].
B. Subjetividad social en entornos algorítmicos
La subjetividad social se reĄere al proceso mediante el cual los individuos construyen percepciones,
preferencias, identidades y expectativas en interacción con su entorno social y simbólico. En contex-
tos mediados por algoritmos, este entorno ya no es exclusivamente humano ni estable: es dinámico,
personalizado y parcialmente opaco. Los algoritmos actúan como Ąltros de realidad, determinando qué
información se vuelve accesible y qué alternativas permanecen invisibles [
16].
Investigaciones recientes señalan que los sistemas algorítmicos no solo responden a preferencias
preexistentes, sino que pueden moldear activamente dichas preferencias a través de mecanismos de
exposición repetida, refuerzo selectivo y reducción de diversidad [
5]. Desde esta perspectiva, la subje-
tividad no se ve anulada, pero reconĄgurada: las decisiones individuales emergen de una interacción
continua entre cognición humana y optimización algorítmica [17]. Este proceso es especialmente rele-
vante en la vida cotidiana, donde la repetición de micro-decisiones mediadas por IA puede consolidar
patrones estables de comportamiento y percepción.
C. Agencia humana y gestión algorítmica
El concepto de agencia humana resulta central para analizar la relación entre individuos y sistemas
inteligentes. La agencia no implica control absoluto, sino la capacidad percibida y efectiva de inĆuir
en las propias acciones y resultados. En entornos algorítmicos, la agencia se ve tensionada por la
delegación progresiva de decisiones a sistemas automáticos, fenómeno ampliamente documentado en
estudios sobre gestión algorítmica [
6].
Desde una óptica aplicada, la pérdida o transformación de la agencia no es un efecto abstracto,
sino un resultado emergente del diseño técnico: nivel de automatización, posibilidad de intervención
humana, transparencia del modelo y mecanismos de retroalimentación. Estos elementos pueden opera-
cionalizarse mediante variables cuantiĄcables como percepción de control, dependencia de la recomen-
dación, conĄanza en el sistema y aceptación de decisiones automatizadas, todas ellas susceptibles de
análisis estadístico y simulación con datos sintéticos.
D. Sesgo, equidad y responsabilidad algorítmica
Otro pilar teórico fundamental es el estudio del sesgo algorítmico y su impacto social [
18], [19].
La literatura ha demostrado que los modelos predictivos pueden reproducir de sigualdades estructurales
incluso sin incorporar variables sensibles explícitas, debido a correlaciones latentes en los datos y a la
lógica de optimización utilizada [
7]. Este fenómeno tiene implicaciones directas en la vida diaria, donde
rankings y recomendaciones pueden favorecer sistemáticamente ciertos perĄles, contenidos o decisiones.
Desde las ciencias aplicadas, el sesgo no constituye únicamente un problema ético, sino un desafío
técnico: depende de elecciones concretas en la construcción del modelo, como la selección de variables,
el balance de datos y la función objetivo [
20]. Por ello, la evaluación de equidad, robustez y sensibilidad
del sistema se convierte en un componente esencial del análisis cuantitativo, alineado con el enfoque
metodológico del presente trabajo.
E. Explicabilidad y percepción de legitimidad algorítmica
La explicabilidad de los modelos de IA desempeña un rol clave en la relación entre sistemas in-
teligentes y subjetividad social. Cuando las decisiones algorítmicas resultan opacas, los individuos
Calizaya J. et al. Algoritmos cotidianos y subjetividad social
44
ISSN-e: 2737-6419
Período: enero-marzo de 2026
Revista Athenea
Vol.7, Número 23, (pp. 41Ű53)
tienden a aceptar o rechazar recomendaciones sin comprender sus fundamentos, lo que afecta la conĄ-
anza y la percepción de legitimidad. La investigación propone métodos para traducir modelos complejos
en explicaciones comprensibles, permitiendo una supervisión humana más informada [8], [9].
Desde un enfoque aplicado, la explicabilidad puede analizarse como una variable moderadora que
inĆuye en la aceptación del sistema, la percepción de justicia y la agencia percibida. Esto refuerza
la pertinencia de incorporar indicadores cuantitativos relacionados con transparencia y comprensión
algorítmica en estudios que buscan evaluar el impacto social de la IA en decisiones cotidianas.
III. METODOLOGÍA
El enfoque de este trabajo fue cuantitativo, explicativo-predictivo, con énfasis en modelado y simu-
lación computacional, bajo un diseño no experimental de tipo simulación-basada con múltiples escenarios
(Monte Carlo) y contrastes e ntre condiciones. La unidad de análisis fueron episodios de decisión cotidi-
ana mediada por IA (p. ej., ele cción de contenido, ruta, compra, interacción o consumo de información).
Se utilizó un gemelo digital socio-técnico (socio-technical digital twin) que integra: (i) un modelo
algorítmico (ingeniería) que m odiĄca el entorno de elección, y (ii) un modelo conductual/psicométrico
(ciencias sociales) que genera decisiones y percepciones. Este enfoque p erm ite responder de manera
cuantiĄcable qué cambia en la conducta y qué cambia en la subjetividad cuando el entorno decisional
está mediado por IA.
A. Modelo conceptual integrador: sistema socio-técnico de decisión
Se planteó un sistema compuesto por tres capas cuantiĄcables:
1. Capa A Ð Entorno algorítmico (Ingeniería)
Esta capa representa las condiciones técnicas del sistema inteligente que modiĄcan la arquitectura
de elección y estructuran la exposición del usuario a alternativas.
Intensidad de personalización: baja, media o alta.
Diversidad de exposición: baja o alta.
Opacidad vs. explicabilidad: sin explicación o con explicación.
Objetivo de optimización: engagement, bienestar o equilibrio.
Sesgo inducido del sistema: controlado por parámetros de entrenamiento y distribución de datos.
2. Capa B Ð Procesamiento humano (Social-cognitivo)
Esta capa integra variables latentes vinculadas a percep c ión, evaluación y respuesta psicológica del
individuo frente a sistemas algorítmicos.
Agencia percibida.
ConĄanza algorítmica.
Carga cognitiva (fatiga decisional).
Susceptibilidad a la recomendación.
Percep c ión de justicia/legitimidad.
3. Capa C Ð Resultados observables (conducta + subjetividad)
Esta capa corresponde a indicadores conductuales y subjetivos medibles que emergen de la inter-
acción entre el agente y el sistema algorítmico.
Elección Ąnal: categorías o probabilidad de selección.
Tiempo de decisión / tasa de cambio de opción.
Diversidad real de elecciones: índices de diversidad.
Calizaya J. et al. Algoritmos cotidianos y subjetividad social
45
ISSN-e: 2737-6419
Período: enero-marzo de 2026
Revista Athenea
Vol.7, Número 23, (pp. 41Ű53)
Dependencia del recomendador.
Cambios en preferencia (drift) entre rondas.
B. Variables del estudio y operacionalización cuantitativa
Las variables del estudio se deĄnieron y operacionalizaron en tres categorías: independientes, me-
diadoras y dependientes.
1. Variables independientes (ingeniería; controladas por diseño)
Personalización (PERS): parámetro continuo 0Ű1 (o tres niveles).
Diversidad de exposición (DIVEXP): parámetro 0Ű1 (control del ranking).
Explicabilidad (XAI): 0 = sin explicación, 1 = con explicación.
Sesgo de entrenamiento (BIAS): parámetro 0Ű1 que altera distribución de datos y/o pesos.
Objetivo de optimización (OBJ): variable categórica (ENG/BIEN/DUAL).
2. Variables mediadoras (ciencias sociales; latentes psicométricas)
Agencia percibida (AG): escala Likert 1Ű5 ( 5 ítems).
ConĄanza en la IA (TRUST): Likert 1Ű5 ( 5 ítems).
Carga cognitiva (CL): Likert 1Ű5 ( 4 ítems).
Percep ción de manipulac ión (MANIP): Likert 1Ű5 ( 4 ítems).
Legitimidad/justicia (LEGIT): Likert 1Ű5 ( 4 ítems).
3. Variables dependientes (aplicadas/observables)
Probabilidad de elección recomendada: P (Rec ).
Tiempo de decisión: segundos (variable continua).
Diversidad conductual: entropía de Shannon o índice de Gini.
Dependencia del recomendador: porcentaje de decisiones alineadas al top-k.
Deriva de preferencias (preference drift): distancia entre vectores de preferencia por rondas.
C. Generación de datos
Se trabajó con una población simulada basada en agentes (N = 500), cuyos atributos se deĄnieron
como variables distribucionales.
Alfabetización digital, impulsividad/auto-control, necesidad de cognición y tolerancia a incer-
tidumbre.
Orientación social: conformidad o exploración.
Preferencias iniciales: vector de gustos por categorías.
Sensibilidad a nudges: parámetro individual.
Cada atributo se modeló mediante distribuciones (normal, beta y multinomial), incorporando cor-
relaciones entre rasgos. Cada decisión se representó como una utilidad descrita en la Ecuación (1):
U
i,j,t
= β
0
+ β
1
· F itP ref
i,j,t
+ β
2
· Rank
j,t
+ β
3
· Expl
t
+ β
4
· SocialSignal
j,t
+ ε. (1)
donde:
F itP ref : ajuste a preferencia individual.
Calizaya J. et al. Algoritmos cotidianos y subjetividad social
46
ISSN-e: 2737-6419
Período: enero-marzo de 2026
Revista Athenea
Vol.7, Número 23, (pp. 41Ű53)
Rank: posición en ranking (arquitectura algorítmica).
Expl: presencia de explicación (XAI).
SocialSignal: señal social (likes/valoraciones, controlada).
La elección y
i,t
se obtuvo mediante softmax (logit multinomial).
1. Modelo de recomendación y retroalimentación
Se simuló un recomendador en tres niveles crecientes para análisis comparativo:
Nivel 1 (baseline): popularidad + Ąltrado por contenido (simple, replicable).
Nivel 2: Ąltrado colaborativo (matriz usuarioŰítem, regularización).
Nivel 3: modelo híbrido con objetivo conĄgurable (ENG/BIEN/DUAL) y control de diversidad.
El ranking Ąnal se construyó como top-k con penalización por homogeneidad cuando DIVEXP
fue alta. El sesgo (BIAS) se introdujo como distorsión en el conjunto de entrenamiento y/o como
sobre-representación sistemática de ciertos ítems o atributos.
Se implementó un mecanismo de retroalimentación, donde tras cada ronda se actualizaron:
Preferencias del agente: refuerzo por exposición y satisfacción.
ConĄanza y agencia percibida: función de opacidad y resultado.
Modelo recomendador: re-entrenamiento o ajuste de pesos con nuevas interacciones.
Esto permitió medir cómo se reconĄguran la subjetividad y la conducta con el tiempo, no solo en
una decisión aislada.
2. Escenarios factoriales y grupos de trabajo
Se deĄnieron escenarios factoriales variando los niveles de personalización, explicabilidad y diversi-
dad, complementados con variaciones de sesgo y objetivo de optimización.
Personalización: baja, media y alta.
Explicabilidad: no / sí.
Diversidad de exposición: baja / alta.
Sesgo (BIAS): 0Ű1.
Objetivo (OBJ): ENG/BIEN/DUAL.
Los grupos de trabajo fueron:
Grupo de control: personalización baja + diversidad alta + explicabilidad activa.
Grupo de tratamiento: combinaciones donde la IA incrementa el ranking-power y reduce
diversidad.
Para cada ronda se generaron respuestas tipo Likert como Şsensores socialesŤ. Las variables AG,
TRUST, CL, MANIP y LEGIT se modelaron con ecuaciones estructurales latentes (medición), aplicando
controles de calidad asociados a respuestas inconsistentes, aquiescencia y fatiga.
Calizaya J. et al. Algoritmos cotidianos y subjetividad social
47
ISSN-e: 2737-6419
Período: enero-marzo de 2026
Revista Athenea
Vol.7, Número 23, (pp. 41Ű53)
D. Análisis estadístico
Se consideró el α de Cronbach y de McDonald para consistencia, la validez convergente (AVE)
y análisis factorial conĄrmatorio (CFA). Mientras que, el modelado causal y predictivo consistió en:
modelos de regresión/multinivel: decisiones repetidas por individuo, modelos de elección discreta (logit
multinomial) para resultados conductuales, SEM para rutas: IA (AG, TRUST, CL) conducta,
análisis de mediación moderada: XAI moderando el efecto de personalización sobre agencia.
Asimismo, las métricas de ingeniería del sistema fueron la precisión top-k, diversidad y novedad
del recomendador, desigualdad de exposición, estabilidad del sistema (deriva temporal de preferen-
cias y del modelo), auditoría de sesgo: disparidades entre subgrupos sintéticos (diferencias de ex-
posición/resultado). De manera que, la sensibilidad y robustez se realizaron con Monte Carlo con
1,000Ű10,000 corridas, análisis de sensibilidad global (variación de parámetros clave), intervalos de
conĄanza por bootstrapping para estimaciones principales. Se tomaron en cuenta todos los aspectos
éticos asociados, el objetivo fue comprender y mitigar riesgos de mediación algorítmica, no optimizar
manipulación.
IV. RESULTADOS
Antes de estimar los modelos explicativos, se evaluó la consistencia interna de los constructos
psicosociales generados en la p oblación sintética. La Tabla
1 presenta los estadísticos descriptivos y
los coeĄcientes de Ąabilidad obtenidos para cada variable latente, evidenciando niveles adecuados de
consistencia interna.
Tabla 1. Estadísticos descriptivos y Ąabilidad de los constructos
Constructo Media DE α de Cronbach
Agencia percibida (AG) 3.42 0.71 0.82
ConĄanza algorítmica (TRUST) 3.58 0.68 0.85
Carga cognitiva (CL) 2.91 0.74 0.79
Percepción de manipulación (MANIP) 3.12 0.77 0.81
Legitimidad percibida (LEGIT) 3.46 0.69 0.84
Fuente: Tratamiento de datos en Microsoft Excel.
Se estimó un modelo de elección discreta (logit multinomial) para evaluar el efecto de la mediación
algorítmica sobre la probabilidad de selección de la alternativa recomendada (Tabla
2).
Tabla 2. Resultados del modelo de elección discreta.
Variable β EE z p
Personalización (PERS) 0.84 0.09 9.33 < 0.001
Diversidad de exposición (DIVEXP) -0.47 0.08 -5.88 < 0.001
Explicabilidad (XAI) -0.29 0.07 -4.14 < 0.001
Seijal social 0.31 0.06 5.17 < 0.001
Fuente: Tratamiento de datos en Microsoft Excel.
Se pudo conĄrmar que la personalización incrementa signiĄcativamente la adhesión a la recomen-
dación, la diversidad y la explicabilidad reducen la dependencia algorítmica y el ranking actúa como un
mecanismo causal cuantiĄcable.
La Figura
1 muestra la probabilidad predicha de selección de la alternativa recomendada en función
del nivel de personalización del sistema, comparando escenarios con y sin mecanismos de explicabilidad.
Se observa un incremento progresivo de la probabilidad de elección a medida que aumenta la personal-
ización algorítmica, efecto que se atenúa cuando el sistema incorpora explicaciones, evidenciando una
reducción en la dependencia automática del ranking.
Calizaya J. et al. Algoritmos cotidianos y subjetividad social
48
ISSN-e: 2737-6419
Período: enero-marzo de 2026
Revista Athenea
Vol.7, Número 23, (pp. 41Ű53)
Fig. 1. Probabilidad predicha de selección de la alternativa recomendada en función del nivel de
personalización del sistema.
La Tabla
3 presenta los efectos directos e indirectos estimados mediante el modelo de ecuaciones
estructurales, evaluando las relaciones entre los parámetros algorítmicos, los constructos psicosociales
y la conducta de elección. Los resultados permiten identiĄcar tanto la inĆuencia directa de la per-
sonalización sobre la decisión Ąnal como los efectos mediadores ejercidos por la agencia percibida,
evidenciando el carácter socio-técnico del proceso decisional y la interacción entre diseño algorítmico y
experiencia subjetiva.
Tabla 3. Efectos estimados.
Relación Efecto β est. p
PERS Elección Directo 0.52 < 0.001
PERS AG Directo -0.41 < 0.001
AG Elección Directo 0.36 < 0.001
PERS AG Elección Indirecto -0.15 < 0.01
La Tabla 4 resume las principales métricas de desempeño del sistema algorítmico bajo los distintos
escenarios de mediación evaluados. Estas métricas permiten comparar la precisión del recomendador,
la diversidad conductual y el nivel de dependencia del sistema, proporcionando una evaluación integral
del comportamiento técnico del algoritmo y de sus efectos estructurales sobre el entorno de elección.
Tabla 4. Métricas del sistema.
Escenario Precisión Top-k Entropía Dependencia
Control 0.61 1.92 0.44
Alta personalización 0.78 1.21 0.73
Personalización + XAI 0.74 1.56 0.58
La Figura 2 compara los valores medios de agencia percibida, dependencia algorítmica y carga
cognitiva bajo distintos escenarios socio-técnicos. Los resultados indican que la alta personalización se
asocia con una disminución de la agencia y un aumento de la dependencia del sistema, mientras que
la incorporación de mecanismos de explicabilidad contribuye a mitigar parcialmente estos efectos sin
eliminar la inĆuencia algorítmica.
Calizaya J. et al. Algoritmos cotidianos y subjetividad social
49
ISSN-e: 2737-6419
Período: enero-marzo de 2026
Revista Athenea
Vol.7, Número 23, (pp. 41Ű53)
Fig. 2. Comparación de escenarios socio-técnicos (agencia, dependencia, carga).
La Figura
3 presenta la relación entre la agencia percibida y la dependencia del sistema algorítmico
mediante un diagrama de dispersión con línea de tendencia. Se evidencia una relación inversa entre
ambas variables, conĄrmando que menores niveles de agencia se asocian con una mayor adhesión a las
recomendaciones del sistema, lo que refuerza el rol mediador de la agencia en la toma de decisiones
humanas.
Fig. 3. Relación entre agencia percibida y dependencia del sistema algorítmico.
La Figura
4 evidencia una diferencia estructural en la distribución de la exposición algorítmica en-
tre los escenarios analizados. En el escenario de control, la exposición se mantiene en niveles bajos y
relativamente homogéneos, lo que sugiere un entorno de elección con mayor diversidad y menor con-
centración de visibilidad. En contraste, el escenario de alta personalización presenta un desplazamiento
signiĄcativo de la mediana y un aumento del rango intercuartílico, indicando una mayor concentración
de exposición en un subconjunto reducido de alternativas.
Este patrón reĆeja un efecto directo del ranking algorítmico sobre la arquitectura de elección,
donde la optimización basada en personalización incrementa la desigualdad de exposición y reduce la
diversidad estructural del entorno decisional. Desde una perspectiva aplicada, estos resultados conĄrman
que decisiones técnicas en el diseño del sistema producen efectos medibles sobre la conĄguración del
espacio de opciones disponible para el usuario.
Calizaya J. et al. Algoritmos cotidianos y subjetividad social
50
ISSN-e: 2737-6419
Período: enero-marzo de 2026
Revista Athenea
Vol.7, Número 23, (pp. 41Ű53)
Fig. 4. Distribución de la exposición algorítmica bajo distintos escenarios.
La Figura
5 presenta el análisis de sensibilidad del modelo socio-técnico ante variaciones contro-
ladas en el nivel de personalización algorítmica. Los resultados muestran una relación monotónica y
aproximadamente lineal entre la perturbación del parámetro de personalización y la probabilidad de se-
lección de la alternativa recomendada, lo que indica una respuesta estable del sistema frente a cambios
paramétricos moderados. Esta regularidad sugiere que el comportamiento del mo delo no está dominado
por umbrales críticos ni discontinuidades abruptas, sino por un mecanismo de inĆuencia progresiva del
ranking algorítmico sobre la toma de decisiones.
Desde una perspectiva aplicada, la pendiente observada permite interpretar la personalización como
un parámetro de alta sensibilidad: incrementos relativamente pequeños en su intensidad generan varia-
ciones sistemáticas y predecibles en la conducta de elección. Al mis mo tiempo, la ausencia de oscila-
ciones o efectos no lineales refuerza la robustez del modelo y sugiere que los resultados no dependen
de conĄguraciones extremas del sistema. En conjunto, este análisis conĄrma que la personalización
algorítmica actúa como un regulador continuo del entorno decisional, cuyo impacto puede ser cuantiĄ-
cado y gestionado mediante ajustes técnicos especíĄcos, lo que resulta especialmente relevante para el
diseño responsable de sistemas de recomendación en contextos cotidianos.
Fig. 5. Sensibilidad de la probabilidad de elección ante variaciones en la p ersonalización
algorítmica.
CONCLUSIONES
Los resultados de este estudio conĄrman que los algoritmos que operan en la vida cotidiana no
actúan únicamente como herramientas técnicas de apoyo, sino como mecanismos activos de conĄgu-
ración del entorno decisional humano. La inteligencia artiĄcial, a través de procesos de personalización,
ranking y optimización, introduce una arquitectura de elección que modiĄca de manera sistemática
la probabilidad de seleccionar determinadas alternativas, incluso cuando los individuos mantienen la
percepción de estar decidiendo de forma autónoma.
Desde una perspectiva socio-técnica, la subjetividad social se ve reconĄgurada no por la sustitución
Calizaya J. et al. Algoritmos cotidianos y subjetividad social
51
ISSN-e: 2737-6419
Período: enero-marzo de 2026
Revista Athenea
Vol.7, Número 23, (pp. 41Ű53)
directa de la decisión humana, sino por la modulación progresiva de la agencia, la conĄanza y la
dependencia frente al sistema algorítmico. Los análisis muestran que mayores niveles de personalización
incrementan la adhesión a las recomendaciones, reducen la diversidad estructural del entorno de elección
y desplazan el centro de la decisión desde la deliberación individual hacia la lógica de optimización del
sistema.
El análisis de sensibilidad aporta evidencia clave para comprender este fenómeno: la personalización
algorítmica se comporta como un parámetro de alta sensibilidad, donde variaciones moderadas gen-
eran cambios predecibles y acumulativos en la conducta de elección. Este comportamiento estable y
monotónico indica que la inĆuencia algorítmica no es un efecto puntual o excepcional, sino un proceso
continuo que, en contextos cotidianos, puede consolidar patrones de decisión y moldear preferencias a
lo largo del tiempo.
Los hallazgos refuerzan la idea central del título: los algoritmos cotidianos no solo asisten decisiones,
sino que reconĄguran la forma en que las personas evalúan opciones, perciben control y construyen
sentido en la vida diaria. Desde las ciencias aplicadas, esto subraya la necesidad de concebir el dis-
eño algorítmico como un problema socio-técnico medible y gestionable, donde parámetros técnicos
aparentemente neutros tienen consecuencias directas sobre la experiencia humana y la construcción de
subjetividad en entornos digitales contemporáneos.
REFERENCIAS
[1] M. Weinmann, C. Schneider, and J. von Brocke, ŞDigital nudging,Ť Business & Informa-
tion Systems Engineering, vol. 58, pp. 433Ű436, 2016, doi: 10.1007/s12599-016-0453-1.
[2] M. Jesse and D. Jannach, ŞDigital nudging with recommender systems: Survey and
future directions,Ť Computers in Human Behavior Reports, vol. 3, p. 100052, 2021, doi:
10.1016/j.chbr.2020.100052.
[3] D. Kahneman and A. Tversky, ŞProspect theory: An analysis of decision under risk,Ť
Econometrica, vol. 47, no. 2, pp. 263Ű291, 1979, doi: 10.2307/1914185.
[4] H. E. Chapman and A. Abraham, ŞBecause you watched: How do streaming servicesŠ
recommender systems inĆuence aesthetic choice?Ť Behavioral Sciences, vol. 15, no. 11,
p. 1544, 2025, doi: 10.3390/bs15111544.
[5] V. Jylhä, N. Hirvonen, and J. Haider, ŞAlgorithmic recommendations in the everyday life
of young people: Imaginaries of agency and resources,Ť Information, Communication &
Society, 2025, doi: 10.1080/1369118X.2025.2470227.
[6] C. F. Unruh et al., ŞHuman autonomy in algorithmic management,Ť in Proceed-
ings of the 2022 AAAI/ACM Conference on AI, Ethics, and Society, 2022, doi:
10.1145/3514094.3534168.
[7] K. Zielnicki, G. Aridor, A. Bibaut, A. Tran, W. Chou, and N. Kallus, ŞThe
value of personalized recommendations: Evidence from netĆix,Ť arXiv, 2025, doi:
10.48550/arXiv.2511.07280.
[8] S. Barocas and A. D. Selbst, ŞBig dataŠs disparate impact,Ť California Law Review, vol.
104, pp. 671Ű732, 2016, doi: 10.15779/Z38BG31.
[9] M. T. Ribeiro, S. Singh, and C. Guestrin, ŞWhy should I trust you?: Explaining the predic-
tions of any classiĄer,Ť in Proceedings of the 22nd ACM SIGKDD International Conference
on Knowledge Discovery and Data Mining, 2016, doi: 10.1145/2939672.2939778.
[10] R. Guidotti et al., ŞA survey of methods for explaining black box models,Ť arXiv, 2018,
doi: 10.1145/3236009.
Calizaya J. et al. Algoritmos cotidianos y subjetividad social
52
ISSN-e: 2737-6419
Período: enero-marzo de 2026
Revista Athenea
Vol.7, Número 23, (pp. 41Ű53)
[11] S. Amershi et al., ŞGuidelines for human-AI interaction,Ť in Proceedings of the
2019 CHI Conference on Human Factors in Computing Systems, 2019, doi:
10.1145/3290605.3300233.
[12] M. De-Arteaga, R. Fogliato, and A. Chouldechova, ŞA case for humans-in-the-loop:
Decisions in the presence of erroneous algorithmic scores,Ť in Proceedings of the
2020 CHI Conference on Hum an Factors in Computing Systems, 2020, pp. 1Ű12, doi:
10.1145/3313831.3376638.
[13] E. K. Lee, M. R. Shaffer, and J. A. Konstan, ŞAlgorithmic mediation and human decision-
making: A systematic review,Ť ACM Computing Surveys, vol. 55, no. 7, pp. 1Ű36, 2023,
doi: 10.1145/3565967.
[14] F. Ricci, L. Rokach, and B. Shapira, Recommender Systems Handbook, 3rd ed. New
York, NY, USA: Springer, 2022, doi: 10.1007/978-1-0716-2197-4.
[15] C. Castelluccia and D. Le Métayer, ŞUnderstanding algorithmic decision-making: Oppor-
tunities and risks,Ť Philosophical Transactions of the Royal Society A, vol. 376, no. 2133,
p. 20180092, 2018.
[16] J. Grgić-Hlača, M. Redmiles, K. P. Gummadi, and A. Weller, ŞHuman perceptions of
fairness in algorithmic decision making,Ť in Proceedings of the 2018 World Wide Web
Conference, 2018, pp. 903Ű912, doi: 10.1145/3178876.3186138.
[17] R. Parasuraman and V. Riley, ŞHumans and automation: Use, misuse, disuse, abuse,Ť
Human Factors, vol. 39, no. 2, pp. 230Ű253, 1997, doi: 10.1518/001872097778543886.
[18] T. Miller, ŞExplanation in artiĄcial intelligence: Insights from the social sciences,Ť ArtiĄ-
cial Intelligence, vol. 267, pp. 1Ű38, 2019, doi: 10.1016/j.artint.2018.07.007.
[19] J. W. Brehmer, ŞDynamic decision making: Human control of complex systems,Ť Acta
Psychologica, vol. 81, no. 3, pp. 211Ű241, 1992, doi: 10.1016/0001-6918(92)90019-A.
[20] P. Mohri, A. Rostamizadeh, and A. Talwalkar, Foundations of Machine Learning, 2nd ed.
Cambridge, MA, USA: MIT Press, 2018.
Calizaya J. et al. Algoritmos cotidianos y subjetividad social
53