InteligenciaPublicaciones

LA TRAMPA DE LA PLAUSIBILIDAD

Por el Lic. Martín Salmerón – Miembro del Instituto Académico de Inteligencia de #ELANALISTA

Sesgos y estándares de análisis en inteligencia en la era de la IA generativa

En este trabajo tomo como punto de partida un debate actual sobre cómo sostener la calidad del oficio analítico en inteligencia en la era de la hiperconectividad, la infoxicación y la IA generativa. En la era de la inmediatez predomina una tentación: suponer que más datos y mejores herramientas implican mejores decisiones. Sin embargo, la evidencia sobre fallos estratégicos y la psicología del análisis sugieren que la relación no es lineal: el problema rara vez es solo la falta de información, sino la calidad del juicio bajo presión, sobrecarga y ambigüedad (Heuer, 1999). En ese contexto, la IA generativa añade velocidad y verosimilitud y, sin controles, puede reforzar un riesgo clásico: confundir coherencia con verdad y “respuesta” con “análisis”. El NIST incorpora este riesgo en su AI RMF: sin gobernanza, validación y supervisión humana, los sistemas pueden producir resultados persuasivos pero frágiles (National Institute of Standards and Technology, 2024). Invito al lector a acompañar la construcción de este razonamiento a medida que avanzamos.

Alcance y enfoque.

Este texto es un aporte de divulgación doctrinaria: no presenta resultados empíricos propios ni compara modelos o herramientas de IA. Propone un marco de control de calidad analítica aplicable a productos de inteligencia, con énfasis en trazabilidad, contraste de hipótesis y explicitación del nivel de confianza, en línea con la Directiva 203 de la Comunidad de Inteligencia (Intelligence Community Directive 203, ICD-203) y con prácticas de tradecraft de la Agencia Central de Inteligencia (Central Intelligence Agency, CIA) y la Agencia de Inteligencia de la Defensa (Defense Intelligence Agency, DIA). Sobre esa base, se incorpora la perspectiva de prospectiva regional Transnoia (Centro de Estudios Prospectivos de Cuyo [CEP Cuyo], 2025; Ragno, 2025) como lente de encuadre para abrir preguntas, revisar supuestos y sostener originalidad analítica en contextos saturados. Invito al lector al desafío intelectual de acompañar la construcción del artículo a medida que avanzamos

El nudo: cuando más información no mejora la decisión.

En inteligencia, la premisa “más información = mejor decisión” parece razonable porque traduce la incertidumbre en un problema técnico: recolectar más y desplegar mejores herramientas. Sin embargo, la historia de errores estratégicos y la doctrina de análisis muestran un patrón distinto: con frecuencia no falla la recolección, sino el juicio. Bajo presión temporal y sobrecarga informativa, el procesamiento cognitivo se degrada, y esa degradación puede ser tan decisiva como cualquier brecha de datos (Heuer, 1999; Wohlstetter, 1962).

Cuando el volumen, la velocidad y la ambigüedad exceden nuestra capacidad de procesar, emergen dos fallas recurrentes: cierre prematuro (adoptar una hipótesis “que cierra” y reinterpretar lo demás para confirmarla) y parálisis analítica (intentar abarcarlo todo, sin priorizar, hasta perder juicio accionable). En ambos casos el problema es de proceso, no de acceso a información (Heuer, 1999).

La IA generativa no elimina estas fallas y, en ciertos contextos, puede acelerarlas. Su fluidez y coherencia aumentan el riesgo de confundir forma con verdad. Si no existe un proceso que obligue a contrastar hipótesis, explicitar supuestos y verificar fuentes, la herramienta puede inducir una ilusión de certeza que favorezca el cierre prematuro. En otras palabras: la IA no corrige por sí sola un mal encuadre; sin contraste y verificación, puede reforzarlo y amplificarlo (National Institute of Standards and Technology, 2024; Palacio, n.d.)

El escotoma: del punto ciego del analista al punto ciego de la máquina.

El término escotoma proviene de la oftalmología y designa un punto ciego en el campo visual. Como metáfora, describe un fenómeno crítico en análisis de inteligencia: no es solo “falta de información”, sino la incapacidad —individual y a veces organizacional— de registrar, integrar o aceptar evidencia que contradice el marco mental dominante. En debates recientes sobre tradecraft y sesgos en la región se volvió a señalar este tipo de puntos ciegos como explicación plausible de fallos de comprensión, tanto en dominios estratégicos como en seguridad (Glavinich, 2026). En términos cognitivos, el mecanismo más asociado es el sesgo de confirmación: tendemos a buscar e interpretar información de modo consistente con creencias previas (Nickerson, 1998).

El escotoma analítico suele operar en silencio: una hipótesis inicial se vuelve referencia, la referencia se cristaliza como “concepto” y el concepto deriva en axioma. Desde allí, lo disonante se filtra —se reinterpreta, se desestima o queda fuera de foco—. El problema deja de ser solo individual y puede volverse institucional: un marco compartido organiza qué se considera señal y qué se descarta como ruido (Heuer, 1999; Wohlstetter, 1962).

¿Tiene sentido hablar de un “escotoma” en la IA generativa? No en sentido psicológico —el modelo no cree ni desea—, pero sí como metáfora funcional. Ante vacíos, ambigüedad o instrucciones incompletas, estos sistemas tienden a completar: producen salidas plausibles aun sin sustento en evidencia disponible. En marcos de gestión de riesgo se describe este comportamiento como confabulación (a veces denominada “alucinación”): contenido con apariencia de certeza que puede ser erróneo, engañoso o no respaldado por información verificable (National Institute of Standards and Technology, 2024).

Si aceptamos la metáfora, el objetivo operativo es diseñar un proceso que detecte cuándo el punto ciego —humano o algorítmico— está guiando el análisis, y obligue a reabrir hipótesis, supuestos y fuentes antes de fijar un juicio.

Qué nos propone la doctrina.

La doctrina aporta valor cuando se traduce en estándares de trabajo. Un marco mínimo —pero robusto— son los estándares analíticos formales. La Intelligence Community Directive 203 (ICD-203), emitida por la ODNI, exige objetividad, independencia, rigor y, sobre todo, transparencia: distinguir hechos de juicios, explicitar supuestos y mostrar la base (fuentes y razonamiento) de cada evaluación (Office of the Director of National Intelligence, 2015). En la era de la IA, esta exigencia es decisiva: si no podemos reconstruir por qué creemos lo que creemos, el producto se desliza de inteligencia hacia narrativa.

En el plano del tradecraft, la doctrina recomienda Structured Analytic Techniques (SAT) como “barandas” cognitivas: fuerzan la comparación de hipótesis, la revisión de supuestos y el registro de evidencia a favor y en contra, institucionalizando la crítica. El Tradecraft Primer del CSI sintetiza técnicas como Key Assumptions Check, Devil’s Advocate y Analysis of Competing Hypotheses (ACH), una matriz que asigna evidencia a hipótesis rivales y obliga a someterlas a refutación (Central Intelligence Agency, 2009). Su aporte es metodológico: no reemplaza el criterio; lo disciplina.

De forma complementaria, la DIA enfatiza rutinas de control de calidad que suelen marcar diferencia en la práctica: el quality-of-information check (completitud, consistencia y relevancia) y los source checks (confiabilidad, acceso y sesgos de origen) (Defense Intelligence Agency, 2008). En tiempos de IA generativa, estas rutinas operan como antídotos contra la fluidez: obligan a separar “texto plausible” de “evidencia verificable” y a explicitar qué parte del juicio descansa en datos, cuál en inferencia y cuál en supuestos.

La psicología del análisis añade un punto incómodo pero necesario: conocer sesgos ofrece protección limitada; la mitigación real proviene de procesos y culturas que hagan rutinarios el pensamiento crítico, la disidencia fundada y la revisión (Heuer, 1999; Pronin et al., 2002; West et al., 2012)

Esfuerzo analítico y story points: una analogía útil.

En software, las metodologías ágiles separaron la estimación del rendimiento mecánico: en lugar de adivinar horas, usan métricas de esfuerzo relativo —como story points— para capturar complejidad, incertidumbre y riesgo, es decir, aquello que vuelve difícil una tarea aunque su ejecución pueda ser rápida (Atlassian, n.d.). Trasladada al análisis de inteligencia, la analogía sugiere una idea central: el valor del analista no es “escribir”, sino reducir incertidumbre de forma responsable.

Desde esa perspectiva, el esfuerzo analítico crece cuando aumentan la incertidumbre del entorno, la ambigüedad del problema, las consecuencias del error y la urgencia de la decisión. Por eso, un producto breve puede exigir más trabajo que uno extenso si el costo de equivocarse es alto; y un informe largo puede ser mero “ruido” si no mejora la discriminación entre hipótesis.

En la misma línea, la DIA observa que parte sustantiva del oficio es sifting through overwhelming data: tamizar datos abrumadores para separar lo pertinente de lo accesorio, reconocer patrones sin caer en correlaciones espurias y decidir qué merece atención bajo restricciones de tiempo (Defense Intelligence Agency, 2018). El esfuerzo, entonces, no se agota en reunir información: se concentra en filtrar, priorizar y convertir datos dispersos en juicio comunicable.

En este marco, la IA generativa puede reducir esfuerzo en tareas de bajo valor analítico (resúmenes preliminares, ordenamiento, borradores, matrices), pero no abarata el trabajo “caro”: encuadrar, construir hipótesis competitivas, evaluar evidencia y explicitar incertidumbre. Ese núcleo sigue siendo el oficio (Marrin, 2007).

Iteración: del ciclo de inteligencia al sprint.

La doctrina de inteligencia es iterativa por diseño —requerimientos, colección, procesamiento, análisis, difusión y retroalimentación—. El riesgo aparece cuando tratamos el producto como “pieza final” en un entorno que cambia más rápido que nuestros supuestos. Las prácticas ágiles ofrecen un lenguaje útil para recuperar la iteración como ventaja: trabajar en incrementos, inspeccionar, ajustar y hacer retrospectivas (Agile Manifesto, 2001).

Un enfoque iterativo no implica publicar borradores irresponsables, sino producir versiones tempranas con nivel de confianza, actualizar hipótesis ante nueva evidencia y registrar cambios en supuestos. En términos ágiles: las hipótesis compiten en el backlog, la evidencia re-prioriza y la retrospectiva muestra dónde nos anclamos, dónde ignoramos disonancias o dónde confundimos señal con ruido.

Hay además una razón cognitiva para preferir lotes pequeños y revisiones frecuentes. Un documento técnico advierte que el control simultáneo de múltiples “objetos” de decisión se degrada al superar la capacidad práctica de mantener elementos activos y comparables (Defense Intelligence Agency, 2010). Aquí se usa como analogía operativa, consistente con límites de memoria de trabajo y carga cognitiva en tareas complejas (Baddeley, 2000; Cowan, 2001; Sweller, 1988). En lenguaje ágil, esto equivale a limitar el WIP: menos hipótesis abiertas en paralelo, mejor priorización y menor riesgo de perder señales críticas en el ruido.

La iteración también combate el escotoma: obliga a revisar el encuadre y reabrir lo que habíamos cerrado. Y mejora el diálogo con el decisor: en lugar de certezas performativas, ofrece un mapa de escenarios, indicadores y riesgos, con transparencia sobre la incertidumbre (Office of the Director of National Intelligence, 2015).

Métodos estructurados o intuición: una tensión mal planteada.
 En la práctica, nadie analiza sin intuición: las primeras hipótesis suelen emerger de experiencia, patrones y conocimiento tácito. La cuestión es si luego sometemos esa intuición a un proceso que la desafíe. La literatura sugiere pensarlo como complementariedad: la intuición aporta velocidad y sensibilidad contextual; los métodos estructurados reducen errores sistemáticos y mejoran la trazabilidad del juicio (Marrin, 2007).
 Esa trazabilidad es clave para mitigar sesgos como el anclaje, esto es, la tendencia a depender en exceso de la primera información o hipótesis disponible (Tversky & Kahneman, 1974). Un producto apoyado solo en narrativa es difícil de auditar; en cambio, registrar hipótesis consideradas, evidencia a favor y en contra, y supuestos explícitos lo vuelve corregible y aprendible (Central Intelligence Agency, 2009; Heuer, 1999).
 En tiempos de IA, la trazabilidad funciona además como barrera epistemológica: ante una salida convincente, la pregunta doctrinaria no es “¿suena bien?”, sino “¿qué evidencia la sostiene y qué alternativas se descartaron?”. Sin ese marco, el sistema puede operar como un “escotoma funcional”: completa, embellece y cierra.

Técnicas anti-escotoma: Devil’s Advocate y Key Assumptions Check.
 Dos técnicas simples, bien aplicadas, suelen producir saltos de calidad. Devil’s Advocate asigna explícitamente el rol de criticar la hipótesis dominante: buscar fallas lógicas, evidencia ausente, explicaciones alternativas y condiciones bajo las cuales estaríamos equivocados. No es contradecir por deporte, sino institucionalizar la fricción cognitiva necesaria para no enamorarse de la primera lectura (Central Intelligence Agency, 2009).
 Key Assumptions Check identifica los supuestos críticos que sostienen una evaluación —aquellos que, si fueran falsos, cambiarían el resultado— y los somete a prueba de forma deliberada. Muchas fallas no nacen de una mala inferencia, sino de un supuesto tácito nunca cuestionado (Central Intelligence Agency, 2009).
 En ambos casos, la IA generativa puede aportar si se la usa para divergencia, no para convergencia automática: pedir alternativas, preguntas críticas y escenarios de falla, y luego verificar cada punto con fuentes externas y criterios de calidad analítica. Así, la herramienta multiplica preguntas; no produce certezas.

El anclaje como patologización del análisis.

El anclaje es peligroso porque se disfraza de eficiencia: una hipótesis temprana reduce ansiedad y acelera la producción. Pero en inteligencia ese atajo puede volverse patología organizacional: la primera narrativa que circula se convierte en referencia y el resto se interpreta en función de ella. La organización deja de “ver” lo que contradice el marco y el escotoma se vuelve colectivo (Tversky & Kahneman, 1974; Heuer, 1999).

La mitigación no depende de genialidad individual, sino del diseño de procesos que obliguen a reabrir hipótesis, documentar evidencia contradictoria y proteger la disidencia fundada. En ese sentido, el énfasis de ICD-203 en rigor y transparencia puede leerse como respuesta institucional a este riesgo (Office of the Director of National Intelligence, 2015).

Con IA generativa, el anclaje puede acelerarse por dos vías: si alimentamos al modelo con una hipótesis cerrada (“asumí que…”), devuelve un texto persuasivo alineado con la narrativa inicial; y su fluidez puede instalar la ilusión de que ya se hizo el trabajo difícil. Por eso el esfuerzo analítico no se mide por páginas, sino por la fricción cognitiva aplicada a lo incómodo.

Buenas prácticas en el uso de IA para el análisis de inteligencia.

Si aceptamos que la IA generativa aporta velocidad pero también riesgo de confabulación, el objetivo no es prohibir sino integrar con disciplina. Esto supone separar funciones (IA para apoyo; juicio final en el analista), forzar trazabilidad (fuente verificable o hipótesis explícita), exigir alternativas (hipótesis competitivas y evidencia que las refute), registrar y actualizar supuestos (chequeo de supuestos clave —Key Assumptions Check—), e institucionalizar la crítica (abogado del diablo —Devil’s Advocate—, equipos de contraste —red teaming— y retrospectivas). También conviene moderar el ‘tono de certeza’: pedir salidas con niveles de confianza, condiciones de falsación e indicadores de cambio, y minimizar la contaminación delimitando el corpus permitido y marcando con claridad qué proviene del modelo y qué constituye evidencia (Central Intelligence Agency, 2009; National Institute of Standards and Technology, 2024; Office of the Director of National Intelligence, 2015).

Un riesgo específico es el automation bias: delegar criterio en la herramienta, sobre todo cuando la salida es coherente y segura. En la práctica se mitiga con dos barreras: verificación independiente (corroborar con fuentes externas) y fricción deliberada (forzar alternativas, pedir contraejemplos y exigir trazabilidad). En este punto, las rutinas de quality-of-information check y source checks promovidas por la DIA son especialmente pertinentes: la IA puede acelerar la redacción, pero no “certifica” la verdad sin un proceso que audite completitud, consistencia, relevancia y confiabilidad de origen (Defense Intelligence Agency, 2008; Defense Intelligence Agency, 2010).

En escenarios donde el análisis requiere trabajar con información clasificada y compartimentada, sostener trazabilidad puede implicar un diseño por capas. Una práctica posible es mantener un rastro interno completo (rastro de auditoría —audit trail—: supuestos, evidencia discriminante, hipótesis alternativas, cambios de evaluación y nivel de confianza) dentro del circuito habilitado, y producir en paralelo un producto distribuible con trazabilidad compatible: explicitar supuestos, criterios de confianza e indicadores de cambio sin exponer fuentes, accesos o detalles restringidos. En el uso de IA generativa, este esquema ayuda a evitar que la fluidez del modelo se convierta en ancla: la herramienta puede acelerar borradores, pero la validación del juicio permanece en la capa interna de control.

Estas prácticas se alinean con un principio más amplio de control humano y rendición de cuentas. En el debate internacional sobre IA se subraya que decisiones de alto impacto no deben delegarse en algoritmos opacos y que debe preservarse supervisión y responsabilidad humanas (United Nations, 2024; Noticias ONU, 2026). En inteligencia, esto no es solo una consigna ética: mejora la calidad del producto al obligar a documentar supuestos, trazabilidad y responsabilidad profesional del juicio.

Originalidad y relevancia: una nota sobre Transnoia.

En entornos saturados de información, la relevancia suele surgir menos de repetir lo disponible que de proponer relaciones, hipótesis y futuros plausibles que otros aún no registran. Desde la prospectiva regional, Transnoia se presenta como un enfoque orientado a liderar en la incertidumbre integrando pasado, presente y futuro (Centro de Estudios Prospectivos de Cuyo, 2025). En este artículo se la utiliza como lente de encuadre para sostener originalidad analítica: abrir preguntas, revisar supuestos y reordenar el razonamiento cuando el contexto empuja hacia lecturas cómodas o cierres prematuros.

Leída en esa clave, la consigna “hay que ser original para no ser irrelevante” (Centro de Estudios Prospectivos de Cuyo, 2025) puede traducirse a un criterio técnico: la ventaja comparativa del analista es formular hipótesis discriminantes, explicitar supuestos y proponer criterios de falsación. No se trata de creatividad libre, sino de creatividad disciplinada por evidencia, trazabilidad y revisión por pares.

Cierre: aporte para decidir mejor en la era de la IA.

Podemos condensar el argumento en siete reglas. (1) La calidad decisional no crece linealmente con el volumen de información. (2) El escotoma es probable; el proceso debe detectarlo y mitigarlo. (3) La IA acelera, pero también puede confabular: sin trazabilidad y verificación independiente, su fluidez es un riesgo. (4) El esfuerzo analítico es relativo: se mide por incertidumbre, consecuencias y fricción cognitiva, no por páginas. (5) La iteración no es improvisación; es actualización disciplinada de hipótesis y supuestos. (6) La intuición es inevitable; el método es lo que la vuelve confiable. (7) La ventaja comparativa del analista es producir juicio original y verificable, sosteniendo control humano y rendición de cuentas (Agile Manifesto, 2001; Central Intelligence Agency, 2009; Heuer, 1999; National Institute of Standards and Technology, 2024; Office of the Director of National Intelligence, 2015).

En un mundo donde la información se multiplica y las respuestas aparecen en segundos, el oficio no es producir más texto: es producir mejor juicio. Y eso exige disciplina, método, cultura crítica y una relación madura con la tecnología.

Referencias

1.Agile Manifesto. (2001). Manifesto for Agile Software Development. https://agilemanifesto.org/

2. Atlassian. (n.d.). Agile estimation. Retrieved January 30, 2026, from https://www.atlassian.com/agile/project-management/estimation

3. Baddeley, A. (2000). The episodic buffer: A new component of working memory? Trends in Cognitive Sciences, 4(11), 417-423.

4.Central Intelligence Agency. (2009, March). A tradecraft primer: Structured analytic techniques for improving intelligence analysis. Center for the Study of Intelligence. https://www.cia.gov/resources/csi/static/Tradecraft-Primer-apr09.pdf

5.Centro de Estudios Prospectivos de Cuyo. (2025, June 29). Future Management 5.0. https://cepcuyo.com/future-management-5-0/

6.Cowan, N. (2001). The magical number 4 in short-term memory: A reconsideration of mental storage capacity. Behavioral and Brain Sciences, 24(1), 87-114. https://doi.org/10.1017/S0140525X01003922

7.Defense Intelligence Agency. (2008, March). A tradecraft primer: Basic structured analytic techniques (1st ed.). Defense Intelligence Agency. Recuperado el 30 de enero de 2026, de https://www.dia.mil/FOIA/FOIA-Electronic-Reading-Room/FileId/137348/

8.Defense Intelligence Agency. (2010, December 15). Cognitive limits on simultaneous control of multiple unmanned spacecraft (Defense Intelligence Reference Document). Defense Futures. Defense Intelligence Agency. Recuperado el 30 de enero de 2026, de https://www.dia.mil/FOIA/FOIA-Electronic-Reading-Room/FileId/170030/

9.Defense Intelligence Agency. (2018, August 16). Sifting through overwhelming data. Defense Intelligence Agency. Recuperado el 30 de enero de 2026, de:
https://www.dia.mil/News-Features/Articles/Article-View/Article/1606782/sifting-through-overwhelming-data/

10.Glavinich, E. C. (2026, January 14). El escotoma en el análisis de inteligencia. LinkedIn. https://www.linkedin.com/pulse/el-escotoma-en-analisis-de-inteligencia-edgardo-c-glavinich-9mfqf/

11.Heuer, R. J., Jr. (1999). Psychology of intelligence analysis. Center for the Study of Intelligence, Central Intelligence Agency.
 https://www.cia.gov/resources/csi/static/Pyschology-of-Intelligence-Analysis.pdf

12.International Labour Organization. (2025, May 20). One in four jobs at risk of being transformed by GenAI, new ILO–NASK Global Index shows.
https://www.ilo.org/resource/news/one-four-jobs-risk-being-transformed-genai-new-ilo%E2%80%93nask-global-index-shows

13.Marrin, S. (2007). Intelligence analysis: Structured methods or intuition? American Intelligence Journal, 25(1), 7–16.

14.National Institute of Standards and Technology. (2024). Artificial intelligence risk management framework: Generative artificial intelligence profile (NIST AI 600-1). https://nvlpubs.nist.gov/nistpubs/ai/NIST.AI.600-1.pdf

15.Nickerson, R. S. (1998). Confirmation bias: A ubiquitous phenomenon in many guises. Review of General Psychology, 2(2), 175–220.

16.Noticias ONU. (2026, January 29). ¿Pueden los humanos competir con las máquinas y seguir siendo relevantes en la era de la inteligencia artificial? Naciones Unidas. https://news.un.org/es/story/2026/01/1541081

17.Office of the Director of National Intelligence. (2015, January 2). Intelligence Community Directive 203: Analytic standards (as amended January 21, 2022). https://www.dni.gov/files/documents/ICD/ICD-203.pdf

18.Palacio, J. E. (n.d.). Más información no mejora la decisión: Riesgos cognitivos y juicio estratégico en tiempos de inteligencia artificial [LinkedIn post]. Retrieved January 30, 2026, from https://www.linkedin.com/posts/activity-7417998862298042368-zBQO/

19.Pronin, E., Lin, D. Y., & Ross, L. (2002). The bias blind spot: Perceptions of bias in self versus others. Personality and Social Psychology Bulletin, 28(3), 369–381.

20.Sweller, J. (1988). Cognitive load during problem solving: Effects on learning. Cognitive Science, 12(2), 257-285. https://doi.org/10.1207/s15516709cog1202_4

21.Tversky, A., & Kahneman, D. (1974). Judgment under uncertainty: Heuristics and biases. Science, 185(4157), 1124–1131.

22.United Nations. (2024, December 19). Secretary-General tells Security Council that ‘AI’ must never be left to the ‘black box’ of an algorithm; humans must always retain control over decision-making. UN Press. https://press.un.org/en/2024/sgsm22500.doc.htm

23.West, R. F., Meserve, R. J., & Stanovich, K. E. (2012). Cognitive sophistication does not attenuate the bias blind spot. Journal of Personality and Social Psychology, 103(3), 506–519.

24.Wohlstetter, R. (1962). Pearl Harbor: Warning and decision. Stanford University Press

25.World Economic Forum. (2025, January 7). Future of Jobs Report 2025: 78 million new job opportunities by 2030, but urgent upskilling needed to prepare workforces. https://www.weforum.org/press/2025/01/future-of-jobs-report-2025-78-million-new-job-opportunities-by-2030-but-urgent-upskilling-needed-to-prepare-workforces/

Aviso Legal: El contenido del presente articulo no fue redactado por #ElAnalista, siendo el mismo de exclusiva autoría y propiedad intelectual de su creador. El artículo podría no reflejar las opiniones de #ElAnalista como organismo

Deja una respuesta

Tu dirección de correo electrónico no será publicada.