Glosario de antropologías digitales
Este glosario ofrece un recorrido panorámico por algunas dimensiones prácticas y conceptuales de la investigación digital para ser viabilizados en el contexto de estudios antropológicos emergentes. Co-escribimos este glosario desde el grupo de Antropologías Digitales porque cada vez es más común que como antropólogxs nos crucemos con aspectos del mundo digital en nuestras investigaciones, – tanto como un objeto de estudio a entender como un medio para investigar. Y el hecho de que el mundo digital sea un tema antropológico cada vez más común significa que todo el tiempo surgen nuevos términos, métodos, herramientas y teorías, haciendo el aprendizaje sobre lo digital algo desconcertante. Por eso concebimos este glosario como una suerte de brújula – un artefacto que puede guiar a lxs antropólogxs interesadxs a navegar el mundo de la investigación digital para incorporarlo en su trabajo.
La primera sección presenta un repertorio de herramientas y plataformas organizadas según sus funciones, desde la recopilación y análisis de datos (web scraping, análisis cuantitativo y cualitativo, gestión bibliográfica) hasta herramientas especializadas para etnografía digital, asistentes de investigación con IA, mapeo de actores, verificación de datos y visualización de información. La segunda sección introduce conceptos teóricos fundamentales que permiten comprender críticamente el entorno digital, procurando así operar como primer acercamiento al lenguaje teórico que caracteriza el ecosistema de intercambio académico en estos temas. La tercera sección explora las metodologías específicas que han surgido para investigar en y sobre lo digital, desde la etnografía digital hasta métodos «nativos» que emergen de las propias prácticas digitales. Finalmente, la cuarta sección aborda las dimensiones de ética, poder y agencia, examinando fenómenos como la algoritmización, el trabajo digital, la privacidad, la justicia algorítmica y las estrategias de resistencia y adaptación que desarrollan usuarios y organizaciones frente a las plataformas dominantes.
Por último, advertimos a cualquier colega antes del uso de este glosario que:
- Estas plataformas están cambiando constantemente y su velocidad de mutación será a veces mayor a la nuestra a la hora de actualizarlas.
- Tienen diversas condiciones de acceso desde gratuitas, pasando por opciones Freemium, hasta bastante costosas. No sobra decir que no nos pagan por patrocinar plataforma alguna y que recomendamos investigarlas antes de cualquier inversión.
- La mayoría de plataformas están en inglés, pero con herramientas de traducción de los navegadores esto se soluciona parcialmente.
I. Herramientas y plataformas para la investigación
Recopilación de datos (Web Scraping y captura)
- ParseHub: herramienta visual de scraping que no requiere código. Permite a investigadores sin formación en programación capturar datos de sitios web dinámicos mediante clics. Acceso libre
- Scrapy y BeautifulSoup (bibliotecas de Python): librerías de programación para extraer datos estructurados de sitios web de forma automatizada y a gran escala. Ideales para estudiar contenidos públicos en foros, redes sociales o noticias. Necesita conocimientos básicos en Pyhton. Acceso libre
- Wayback Machine (Internet Archive): plataforma para consultar versiones pasadas de sitios web. Esenciales para estudios diacrónicos y de la evolución de comunidades online. Una alternativa para organizaciones es archiv-it, que permite la captura de datos masivos basada en Wayback Machine. Acceso libre & Acceso para organizaciones
- Google Takeout y Facebook Download Your Information: permiten a los usuarios (y a los investigadores con consentimiento) descargar todos sus datos personales. Son cruciales para estudios etnográficos sobre la «huella digital», pero se requiere acceso a las cuentas específicas.
Análisis cuantitativo y ciencia de datos
- Orange Data Mining, KNIME: plataformas de análisis visual de datos que permiten conectar componentes para limpiar, visualizar y modelar datos sin escribir código. Accesibles para analizar métricas de redes sociales o resultados de encuestas. Acceso libre & Freemium
- Gephi: herramienta especializada en la visualización y análisis de redes. Se usa para mapear y comprender las conexiones entre actores en una comunidad online, identificar influencers o clusters. Acceso libre
- R (con RStudio) y Python (con Pandas, Matplotlib): entornos de programación estadística poderosos y flexibles para el análisis avanzado de datos, desde estadísticas descriptivas hasta modelos predictivos y minería de texto. Requiere conocimientos básicos de programación (LLM pueden ayudar). Acceso libre
- Google Analytics & Google Trend: proporciona métricas cuantitativas sobre el comportamiento de los usuarios en un sitio web o aplicación, útil para estudiar audiencias digitales. Analytics necesita acceso a dominios específicos.
Análisis cualitativo y codificación
- NVivo, Atlas.ti, Dedoose: software especializado para el análisis de datos cualitativos (texto, audio, video, imágenes). Permiten codificar sistemáticamente entrevistas, transcripciones de chats o publicaciones en redes sociales para identificar temas y patrones. Premium $$$
- Taguette: herramienta de código abierto y gratuita para la codificación cualitativa de textos. Una alternativa accesible para proyectos con presupuesto limitado. Acceso libre
- MAXQDA: incluye funciones específicas para el análisis de contenido web y redes sociales, facilitando la importación y codificación directa de datos de plataformas como Twitter. Premium $$$
Gestión de referencias y fuentes bibliográficas
- Zotero: gestor de referencias gratuito y de código abierto. Es excelente para recolectar, organizar y citar fuentes, y permite trabajar de forma colaborativa. Su extensión para el navegador captura fuentes web con un clic. Acceso libre
- Mendeley: combina la gestión de referencias con una red social académica. Es útil para descubrir literatura relevante y colaborar con otros investigadores. Freemium
- Hypothesis: una herramienta de anotación social que permite anotar y comentar páginas web públicas o en grupos privados. Ideal para el análisis colaborativo de fuentes digitales. Freemium
Etnografía Digital y Mapeo de Comunidades
- Discord, Slack, Telegram: plataformas donde se forman comunidades online. Son a la vez el «campo» de estudio y una herramienta para la observación participante y la recolección de interacciones (con consentimiento informado). Freemium
- Herramientas visuales de elucidario social: uso de herramientas como MindMeister o Miro para crear mapas conceptuales que ayuden a visualizar y analizar las relaciones y conceptos clave dentro de una cultura digital.
Asistentes de Investigación con IA
- Deepseek (y otros Large Language Model o chatbots de AI): modelo de lenguaje gratuito de origen chino útil para procesos de ideación, pre-procesar datos, y estructurar resultados. Se sugiere pericia en la elaboración de prompts. Acceso libre
Otros son: Gemini, ChatGPT, Claude y un gran etc. Freemium - Elicit: plataforma que utiliza modelos de lenguaje para ayudar a la fase exploratoria de la investigación. Puede encontrar artículos académicos relevantes basándose en una pregunta de investigación (no solo en palabras clave) y extraer conclusiones clave. Freemium
- Perplexity AI: funciona como un motor de búsqueda conversacional que sintetiza información de la web y académica en tiempo real, citando sus fuentes. Ideal para obtener respuestas rápidas y contextualizadas y descubrir conexiones iniciales.
- Scite: asistente de IA que analiza artículos académicos y muestra cómo han sido citados (si se mencionan como apoyo, contraste o simplemente referencia). Ayuda a mapear consensos y debates en un campo.
Mapeo de actores y redes de conocimiento
- Kumu: herramienta de mapeo de sistemas complejos que permite visualizar relaciones entre actores, organizaciones o conceptos. Es perfecta para crear mapas de ecosistemas digitales y redes de influencia. Premium con prueba gratis.
- Metroverse (Harvard Growth Lab): plataforma para analizar y comparar la estructura industrial de ciudades, útil para estudios de antropología urbana y economías digitales locales. Acceso libre
Curación de contenidos y gestión de fuentes digitales
- Wakelet: herramienta para guardar, organizar y compartir colecciones de enlaces, tuits, videos e imágenes encontrados durante la investigación de campo digital. Son como «cuadernos de recortes» digitales. Freemium
- Raindrop.io: gestor de marcadores avanzado que permite coleccionar enlaces, organizarlos en colecciones y anotarlos. Es muy útil para mantener un archivo personal y comentado de fuentes primarias online. Freemium
Verificación de datos y análisis de medios
- InVID Verification Plugin: extensión de navegador diseñada para verificar la autenticidad de videos e imágenes encontrados en redes sociales. Crucial para estudiar desinformación y memes. Acceso libre
- RevEye Reverse Image Search: extensión que realiza una búsqueda inversa de imágenes en múltiples motores a la vez. Ayuda a rastrear la origen y propagación de una imagen en internet.
- Tweetbeest: herramienta para archivar hilos de conversación en X (Twitter) de forma completa y legible, preservando evidencia para el análisis.
Visualización de datos y narrativas digitales
- Looker Studio (Google): plataforma de google para visualización de datos e información interactiva. Acceso libre (con suite de Google).
- Datawrapper o Flourish: herramientas en línea para crear visualizaciones de datos (gráficos, mapas) interactivas y embebibles de forma sencilla. Son ideales para comunicar hallazgos de investigación a una audiencia más amplia. Freemium
- Microsoft Power BI o Tableau Public: software profesional de visualización de datos. Permite un análisis y una creación de dashboards más complejos y personalizados. Premium
- StoryMapJS: permite crear narrativas georreferenciadas, contando una historia a medida que el usuario se desplaza por un mapa. Perfecto para documentar trayectorias o eventos en el espacio físico/digital.
II. Conceptos teóricos fundamentales
- Capitalismo de vigilancia / economía de la vigilancia: sistema económico donde la materia prima es la data personal, extraída y analizada para predecir y modificar el comportamiento humano.
- Capitalismo de plataformas: modelo económico donde plataformas digitales intermedian y extraen valor de las interacciones sociales y económicas.
- Tecnofeudalismo: modelo actual en donde unas pocas plataformas tecnológicas (Meta, Google, Amazon, etc.) actúan como señores feudales digitales, controlando infraestructuras esenciales (poder computacional, capital de nube, datos y atención) y reduciendo a usuarios, la industria de medios y Estados en siervos de la suscripción.
- Colonialismo de datos: práctica de extracción, apropiación y explotación de datos a gran escala, replicando lógicas coloniales de dominación sobre la vida cotidiana.
- Tecno-optimismo: corriente de pensamiento que sostiene que el progreso tecnológico es una fuerza intrínsecamente benéfica para la humanidad, considera que la innovación tecnológica es la clave para resolver grandes desafíos como la pobreza, las enfermedades y el cambio climático. Suele promover una actitud de adopción rápida de nuevas tecnologías, confiando en que sus beneficios superarán siempre los riesgos.
- Tecno-pesimismo: perspectiva crítica que enfatiza los riesgos y los efectos perjudiciales del desarrollo tecnológico en la sociedad, cuestiona la narrativa del progreso inevitable, señalando amenazas como la deshumanización, la vigilancia masiva y la profundización de las desigualdades. Analiza cómo la tecnología puede reforzar estructuras de poder existentes y crear nuevas formas de control social.
- Ludismo contemporáneo: espectro de manifestaciones y posturas críticas frente a la tecnología que van desde la decisión individual de no uso hasta formas colectivas de resistencia y sabotaje. A diferencia del ludismo histórico del siglo XIX, el ludismo contemporáneo cuestiona la inevitabilidad del progreso tecnológico y reivindica el derecho a rechazar, desconectar o ralentizar la adopción de tecnologías que se perciben como dañinas.
- Brecha digital: desigualdad en el acceso, uso e impacto de las tecnologías digitales.
- Homogeneización estética: efecto de las plataformas digitales donde las interfaces y algoritmos estandarizan la apariencia y el contenido, reduciendo la diversidad y originalidad.
- Mitificación digital: proceso por el cual la cultura de masas dota a objetos o imágenes de significados simbólicos profundos, proyectando en ellos deseos y temores colectivos.
- Sublime digital (Vincent Mosco): el proceso de construcción de un mito de lo digital en donde estas tecnologías supuestamente nos ayudan a lograr un fin trascendental.
- Enshittification/Enmierdificación: ciclo de decadencia inevitable de las plataformas digitales: La plataforma se hace útil y valiosa para los usuarios, ofrece buenas herramientas, contenido relevante para construir una base de usuarios dependientes. Luego la plataforma reduce su calidad para extraer valor y trasladárselo a los clientes comerciales. Finalmente, la plataforma comienza a degradar la experiencia tanto a usuarios como a clientes comerciales con el fin de extraer el máximo valor posible para la propia plataforma.
- Posthumanismo: corriente que cuestiona los límites entre humano, máquina y naturaleza.
- Corporeidad en red: formas en que el cuerpo se representa, experimenta y se vincula en espacios digitales.
- Tecno-solucionismo (Evgeny Morozov): marco ideológico a través del cual todo tipo de problemas estructurales, sociales y políticos se vuelven susceptibles a ser solucionados por o a través de innovaciones tecnológicas.
- Cosmotécnica (Yuk Hui): teoría sobre cómo las actividades técnicas e innovaciones tecnológicas hacen parte de un orden moral y conjunto cosmológico más amplio. Abre la puerta para pensar la tecnología desde una perspectiva decolonial, donde las técnicas y las tecnologías no necesariamente surgen de las lógicas de la modernidad occidental ni deben estar ligadas a ellas.
- Encantamiento de la tecnología: efecto psicológico y afectivo producido al entrar en contacto con tecnologías opacas o que no entendemos del todo.
- Algoritmos de relevancia pública (Tarleton Gillespie) son sistemas sociotécnicos que seleccionan, organizan, jerarquizan y hacen visibles ciertos contenidos, personas o informaciones, influyendo directamente en la manera en que el público accede al conocimiento, participa en el debate público y forma opiniones. Por ejemplo, los algoritmos de recomendación de plataformas de contenido, que deciden que es mostrado o no a las personas.
- Caja negra: se refiere a un sistema algorítmico cuyo funcionamiento interno es opaco o inaccesible para quienes se ven afectados por sus decisiones. Aunque se pueden observar las entradas (datos) y las salidas (resultados), los procesos internos, criterios de decisión y valores incorporados permanecen ocultos.
III. Metodologías de investigación digital
- Etnografía digital: adaptación del método etnográfico para estudiar comunidades y prácticas en entornos digitales. Implica la observación participante online, el análisis de contenido digital y a veces el uso de software de análisis cualitativo.
- Bench Social Science: enfoque que valora y hace visibles los aspectos rutinarios, desordenados y prácticos del proceso de investigación, más allá de los hallazgos finales.
- Fenomenología digital: estudio de cómo los entornos y herramientas digitales moldean nuestra experiencia subjetiva del mundo.
- Genealogía (como metodología): rastrea el origen de tecnologías y conceptos en diseños técnicos aparentemente menores, mostrando cómo adquieren gran peso político y social.
- Pragmática de la funcionalidad: enfoque metodológico que analiza lo que los documentos «hacen» (su función) en un contexto, en lugar de solo lo que «dicen» (su significado).
- Mapeo de redes: análisis de vínculos sociales, flujos de información o hashtags mediante herramientas de análisis de grafos (Gephi, NodeXL, etc.).
- Métodos “nativos” digitales: métodos y herramientas de investigación que surgen de apropiarse de, y experimentar con, prácticas o tecnologías que encontramos en nuestro encuentro con participantes del mundo digital.
IV. Ética, poder, datos y agencia en el ecosistema digital
- Agencia algorítmica: sistemas computacionales que, más allá de ser herramientas pasivas, toman decisiones y actúan con un grado de autonomía, influyendo en la vida social.
- Algoritmización: proceso por el cual las decisiones humanas son delegadas o influenciadas por sistemas algorítmicos.
- Autocensura: comportamiento adaptativo donde usuarios y organizaciones moderan su expresión en plataformas digitales para evitar sanciones algorítmicas.
- Bricolaje de plataforma: estrategia de ensayo y error que adoptan las organizaciones (especialmente del Sur Global) para navegar y adaptarse a las lógicas cambiantes e inciertas de las plataformas digitales.
- Datos biométricos: información fisiológica o conductual única de una persona (reconocimiento facial, huellas dactilares) utilizada para identificación y control.
- Derecho al olvido: derecho legal que permite a los individuos solicitar la desindexación de información personal obsoleta o irrelevante en los motores de búsqueda.
- EdTech: conjunto de plataformas digitales, robots, o demás objetos electrónicos diseñados para complementar o mejorar la enseñanza a través de la tecnología. Ejemplos: MOOCs, robots educativos, impresoras 3D. También se refiere al entramado de start-ups y capitalistas de riesgo detrás de la popularización de dichas tecnologías.
- Gobierno tecno-moral: la combinación de promesas tecno-utópicas, plataformas digitales, e ideales de mejoramiento o restauración moral de poblaciones o estados en políticas públicas y otros mecanismos gubernamentales.
- Infraestructura digital: sistemas técnicos y materiales (cables, servidores, protocolos) que hacen posible el funcionamiento de Internet y las plataformas.
- Interoperabilidad adversarial: forzar la conexión con una plataforma dominante sin su permiso, creando herramientas alternativas que accedan a sus servicios, permitiendo a usuarios migrar datos, conexiones y contenidos
- Justicia algorítmica: movimiento que busca auditar, desafiar y corregir los sesgos y daños sociales producidos por los sistemas algorítmicos.
- Neutralidad de la red: los proveedores de servicios de Internet y los gobiernos que la regulan deben tratar a todo tráfico de datos que transita por la red de igual forma indiscriminadamente, sin cobrar a los usuarios una tarifa dependiendo del contenido, página web, plataforma o aplicación a la que accedan, ni las tecnologías usada para ello.
- Privacidad digital: valor fundamental para la autonomía individual y el funcionamiento democrático, actualmente amenazado por las prácticas extractivas de datos.
- Regímenes amplios de inestabilidad: La incertidumbre estructural que enfrentan los creadores de contenido debido a la opacidad de las normas y algoritmos de moderación de las plataformas.
- Tequiologías: tecnologías emancipadoras y redes comunitarias desde el “sur global”
- Trabajo digital (Digital Labor): actividades de los usuarios en plataformas digitales (crear contenido, generar datos) que son aprovechadas como fuente de valor económico, a menudo sin remuneración.
V. Derechos en entornos digitales
- Derecho a la Conectividad (también conocido como acceso universal a internet): el derecho de toda persona a conectarse a internet, sin importar su ubicación o nivel económico, para cerrar la brecha digital.
- Privacidad y protección de datos: el poder de controlar quién accede a tu información personal, cómo se usa y para qué fines.
- Libertad de expresión: la facultad de opinar y compartir información en la red sin censura, respetando los derechos de los demás.
- Derecho a la desindexación (también conocido como derecho al olvido): la posibilidad de pedir que se eliminen de internet datos personales que ya no son relevantes o que afectan tu reputación.
- Seguridad digital: el derecho a navegar en un entorno protegido contra ataques, hackeos y el robo de identidad.
- Derecho a la explicabilidad: derecho a recibir una explicación clara, comprensible y accesible sobre por qué un algoritmo o sistema de inteligencia artificial tomó una determinada decisión que le afecta
- Derecho a la soberanía digital: El derecho a decidir cómo, dónde y por quién se almacenan, procesan y comercializan los datos personales, incluyendo datos biométricos y de comportamiento
Nuestra noción de Inteligencia Artificial
Cuando se habla de Inteligencia Artificial, suele apelarse a imaginarios heredados de finales del siglo XX: algoritmos abstractos, máquinas pensantes y fantasías sobre la singularidad tecnológica, la nube o figuras antropomórficas. Desde una perspectiva antropológica, sin embargo, la IA no puede reducirse a estas entelequias. En el marco del grupo Antropologías Digitales de la ACANT, la entendemos como una formación sociotécnica de gran escala, profundamente anclada en infraestructuras materiales, regímenes extractivos de datos y reapropiaciones del trabajo humano.
Esta materialidad está inseparablemente ligada a relaciones de poder. Lejos de ser neutral, la IA reproduce, optimiza y amplifica estructuras sociales existentes. Opera como un dispositivo contemporáneo de centralización del control y maximización de ganancias, inscrito en lógicas de capital, vigilancia y militarización. Sus prácticas centrales —clasificación, catalogación, cálculo probabilístico y recombinación de inputs— imponen categorías rígidas sobre realidades complejas, ejerciendo una forma de violencia epistemológica que busca formalizar lo social y traducir la diferencia humana en variables computables. En el capitalismo de vigilancia, el poder derivado de los datos personales se convierte así en el poder por excelencia, y la IA en su instrumento privilegiado.
Al mismo tiempo, la IA participa en una mutación cultural profunda de nuestras formas de conocer y experimentar el mundo. Aunque se apoya en mitologías que equiparan la mente humana con la computadora, su impacto principal reside en cómo reconfigurar las prácticas del saber. Integrada en ensamblajes cognitivos donde humanos y sistemas computacionales co-producen conocimiento, la IA no piensa ni interpreta como una cognición humana, reflexiva y encarnada. La elaboración de este glosario pretende funcionar como un primer experimento de agenciamiento colaborativo entre investigadorxs en antropología y herramientas de investigación digital. Para la redacción de estas definiciones nos hemos apoyado en el uso supervisado de IAs, procurando la creación de datasets basados en literatura especializada y manteniendo en todo momento la supervisión humana que garantiza el rigor conceptual y la sensibilidad teórica. De este modo, este ejercicio de circulación de conocimientos procura no solamente exponer las potencias y atizar el ambiente de debate sobre estas intersecciones en el ámbito disciplinar, sino prefigurar posibles vías de trabajo que incluyan a las IA de manera crítica y reflexiva. Reconocer qué es la IA nos permite imaginar colaboraciones metodológicas, donde estas tecnologías no sean adoptadas acríticamente ni rechazadas por principio, sino integradas estratégicamente en diseños de investigación híbridos. Se trata de explorar cómo la antropología puede apropiarse de estas herramientas sin sacrificar su compromiso ético, su profundidad interpretativa y compromiso con la realidad.
Realizado y actualizado por: Camila Moreno Gil, Juan Forero Duarte, Said Puentes, Sergio Contreras, Darío Reyes Reina, Sergio Hurtado, Laura Silva Chica y David A. Beltrán.