ARBOR Ciencia, Pensamiento y Cultura 200 (811)
ISSN-L: 0210-1963, eISSN: 1988-303X
https://doi.org/10.3989/arbor.2024.811.2569

De cuerpos a perfiles: implicaciones psicopolíticas de la inteligencia artificial

From bodies to profiles: psychopolitical implications of artificial intelligence

 

INTRODUCCIÓN

 

Los desarrollos tecnológicos y de inteligencia artificial (IA) pasaron de ser un «poderoso motor de cambio social» (Menéndez, 2018Menéndez, Amador (2018). Horizontes tecnológicos. Telos, 109, 10-15., p. 10), que impacta dominios como la cultura, trabajo, salud, transportes, sexo, entre otros (Cardon, 2018Cardon, Dominique (2018). Con qué sueñan los algoritmos. Nuestra vida en el tiempo de los Big Data. Madrid: Dado Ediciones.; Stone, 2016Stone, Peter (ed.) (2016). Artificial Intelligence and life in 2030. Stanford University. Disponible en : https://ai100.stanford.edu/sites/g/files/sbiybj9861/f/ai_100_report_0831fnl.pdf), a remodelar la vida de las personas, sus entornos e interacciones (Floridi et al., 2018Floridi, Luciano; Cowls, Josh; Beltrametti, Monica; Chatila, Raja; Chazerand, Patrice; Dignum, Virginia; Luetge, Christoph; Madelin, Robert; Pagallo, Ugo; Rossi, Frencesca; Schafer, Burkhard; Valcke, Peggy y Vayena, Effi (2018). AI4People – An Ethical Framework for a Good AI Society: Opportunities, Risks, Principles, and Recommendations. Minds and Machines, 28, 689-707. 10.1007/s11023-018-9482-5) y se orientan a transformar, reconfigurar y recrear lo humano en su condición y naturaleza (Barrios-Tao, Díaz y Guerra, 2020Barrios-Tao, Hernando; Díaz, Vianney y Guerra, Yolanda (2020). Subjetividades e inteligencia artificial: desafíos para ‘lo humano’. Veritas, 47(4), 81-107. 10.4067/S0718-92732020000300081; Tegmark, 2017Tegmark, Max (2017). Life 3.0: Being Human in the Age of Artificial Intelligence. New York: Alfred A. Knopf.; García, 2017García, Juan. (2017). ¿Cómo mejorar al ser humano? Un análisis de las tecnologías convergentes desde la antropología pedagógica. Pedagogia e Vita, 75, 94-105.). Mientras que historia y naturaleza fueron horizontes de la comprensión humana, ahora los sistemas tecnológicos y de IA plantean sentido y configuran lo humano (Marín, 2018Marín, José (2018). La resemantización TIC de la cultura humanista. index.comunicación, 8(1), 179-195.).

La simbiosis entre dispositivos, algoritmos y datos procesa y configura «los mundos sociales en los que vivimos, pensamos y juzgamos» (Cardon, 2018Cardon, Dominique (2018). Con qué sueñan los algoritmos. Nuestra vida en el tiempo de los Big Data. Madrid: Dado Ediciones., p.21). Más aún, de sus propósitos para el bienestar y calidad de vida corporal, los sistemas de IA trasegaron a las esferas de la interioridad y de la identidad de las personas: emociones y afectos, toma de decisiones y relaciones interpersonales. Esta invasión o colonización del cuerpo (Virilio, 1997Virilio, Paul (1997). El cibermundo, la política de lo peor. Madrid: Cátedra.), así como la dinámica de co-construcción entre dispositivos y personas (Cardon, 2018Cardon, Dominique (2018). Con qué sueñan los algoritmos. Nuestra vida en el tiempo de los Big Data. Madrid: Dado Ediciones.) plantea nuevos desafíos. En este sentido se ubican las inquietudes de Damasio (1994Damasio, Antonio (1994. El error de Descartes. La razón de las emociones. Santiago: Editorial Andrés Bello., p.17) acerca de la unidad cuerpo-mente, de la comprensión de su compleja maquinaria biológica y sociocultural, y del influjo del mundo digital en las emociones y en la «adquisición y despliegue de conductas sociales adaptativas».

Por otra parte, la hipercomunicación e hiperconocimiento posibilitados por los desarrollos de IA, contrastan con el aislamiento de los usuarios en prácticas como el hikikomori (De la Calle y Muñoz, 2018De La Calle, Mario y Muñoz, María (2018). Hikikomori: el síndrome de aislamiento social y juvenil. Revista de la Asociación Española de Neuropsiquiatría, 38(133), 115-129.; Sánchez, 2017Sánchez, Alberto (2017). El fenómeno hikikomori: tradición, educación y TIC. Arbor, 193(785), a405. 10.3989/arbor.2017.785n3010) y plantean riesgos para la salud y encierro mental de los individuos en los filtros burbuja y las cámaras de eco (Crawford et al., 2019Crawford, Kate; RoelDobbe; Dryer, Theodora; Fried, Genevieve; Green, Ben; Kaziunas, Elizbaeth; Kak, Amba; Varoon, Mathur; McElroy, Erin; Sánchez, Andrea; Raji, Deborah; Rankin, Joy; Richardson, Rashida; Schultz, Jason; West, Sarah y Whittaker, Meredith (2019). AI Now 2019 Report. New York: AI Now Institute. https://ainowinstitute.org/AI_Now_2019_Report.pdf; Cardon, 2018Cardon, Dominique (2018). Con qué sueñan los algoritmos. Nuestra vida en el tiempo de los Big Data. Madrid: Dado Ediciones.). Asimismo, establecen contrastes entre la posibilidad de mayor conocimiento, libertad y autonomía en la interacción con el mundo digital y el peligro de prácticas de gobernanza algorítmica que afectan a la construcción de realidad, el orden social (Latzer y Festic, 2019Latzer, Michael y Festic, Noemi (2019). A guideline for understanding and measuring algorithmic governance in everyday life. Internet Policy Review, 8(2). 10.14763/2019.2.1415) y buscan cogobernar la vida cotidiana y la conciencia colectiva (Just y Latzer, 2017Just, Natascha y Latzer, Michael (2017). Governance by algorithms: reality construction by algorithmic selection on the Internet. Media, Culture & Society, 39(2), 238-258. 10.1177/0163443716643157).

Beneficios, oportunidades y riesgos trazan la diversidad y complejidad de las implicaciones de los sistemas de IA en la vida. Aspectos como la eficiencia, velocidad y adaptabilidad trazan ventajas, mientras que sesgos, manipulación, violación a la privacidad y discriminación social, indican riesgos (Just y Latzer, 2017Just, Natascha y Latzer, Michael (2017). Governance by algorithms: reality construction by algorithmic selection on the Internet. Media, Culture & Society, 39(2), 238-258. 10.1177/0163443716643157). Frente al «sesgo tecno optimista» se indican «complicaciones» (Treré, 2016Treré, Emiliano (2016). Distorsiones tecnopolíticas: represión y resistencia algorítmica del activismo ciudadano en la era del ‘big data’. Trípodos, 39, 35-51., p. 39) y mientras algunos de los «utópicos digitales» abogan por una IA beneficiosa, los tecno escépticos cuestionan su significado para la humanidad (Tegmark, 2017Tegmark, Max (2017). Life 3.0: Being Human in the Age of Artificial Intelligence. New York: Alfred A. Knopf.). Frente a estos desafíos, el artículo se orienta a interpretar textos sobre las implicaciones de la IA en los cuerpos, mediante una hermenéutica analógica.

INTELIGENCIAS ARTIFICIALES, CUERPOS, PERFILES Y PSICOPOLÍTICA

 

La determinación plural de inteligencias artificiales (IAs) se refiere a sus configuraciones, tanto simples o débiles (Baker y Smith, 2019Baker, Toby y Smith, Laurie (2019). Educ-AI-tion rebooted? Exploring the future of artificial intelligence in schools and colleges. Disponible en: https://media.nesta.org.uk/documents/Future_of_AI_and_education_v5_WEB.pdf), como a aquellas súper o fuertes, las cuales desarrollan sensibilidad, autonomía, así como conciencia y moralidad, con habilidades de inteligencia cognitiva, emocional y social (Kaplan y Haenlein, 2019Kaplan, Andreas y Haenlein, Michael (2019). Siri, Siri, in my hand: Who’s the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence. Business Horizons, 62(1), 15-25. 10.1016/j.bushor.2018.08.004). En este sentido, las IAs integran programas, sistemas, datos y algoritmos, que actúan en entornos digitales, físicos y mixtos, con la capacidad de influir en su entorno y en la toma de decisiones de los usuarios, en consonancia con la configuración de sus objetivos (Comisión Europea, 2020Comisión Europea (2020). Libro Blanco sobre la inteligencia artificial. Disponible en: https://ec.europa.eu/info/sites/info/files/commission-white-paper-artificial-intelligence-feb2020_es.pdf).

Los sistemas fuertes de IAs se configuran con algoritmos, códigos o constructos matemáticos que utilizan datos y procesan instrucciones, con el fin de alcanzar determinados objetivos conducentes a obtener respuestas específicas y toma de decisiones, alineadas con los valores y la programación parcial y subjetiva de sus configuradores (Hill, 2016Hill, Robin (2016). What an algorithm is?Philosophy and Technology, 29(1), 35-59. 10.1007/s13347-014-0184-5). Estos algoritmos actúan de manera imprevisible, opaca, sutil y sin conocimiento, conciencia, control y autorización de los individuos (Comisión europea, 2018Comisión Europea (2018). Algorithms and Human Rights. Disponible en: https://rm.coe.int/algorithms-and-human-rights-en-rev/16807956b5; Monasterio, 2017Monasterio, Aníbal (2017). Ética algorítmica: Implicaciones éticas de una sociedad cada vez más gobernada por algoritmos. Dilemata, 9(24), 185-217.; Prinsloo, 2017Prinsloo, Paul (2017). Fleeing from Frankenstein’s monster and meeting Kafka on the way: Algorithmic decision-making in higher education. E-Learning and Digital Media, 14(3), 138-163. 10.1177/2042753017731355).

La dinámica y el poder de la configuración algorítmica trazan una ruta que inicia con el acopio de datos personales, de los cuales aprende mediante la comparación con el perfil de otros que ejecutaron la misma operación, y continúa con la predicción de acciones que sugieren y orientan ofertas, para finalmente atrapar los proyectos y experiencias de los individuos con indicaciones de organización, elección, regulación y optimización de sus decisiones (Cardon, 2018Cardon, Dominique (2018). Con qué sueñan los algoritmos. Nuestra vida en el tiempo de los Big Data. Madrid: Dado Ediciones.). En este sentido, los algoritmos son unidades epistemológicas enmarcadas en valores políticos, éticos y filosóficos, cuyo poder también radica en su posibilidad de representar realidades materiales y moldear individuos y sociedades (Prinsloo 2017Prinsloo, Paul (2017). Fleeing from Frankenstein’s monster and meeting Kafka on the way: Algorithmic decision-making in higher education. E-Learning and Digital Media, 14(3), 138-163. 10.1177/2042753017731355). En síntesis, las IAs tienen el poder de impactar los modos de ser y estar en el mundo que se desarrollan fundamentalmente a través del cuerpo.

Esta categoría de cuerpo también es polisémica en cuanto a su dinámica conceptual y a su interacción con los desarrollos tecnológicos. En el marco del pensamiento helénico, el cuerpo se planteaba como un «todo-vivo» en su dimensión política: «el cuerpo como Medium del “espíritu” de la Polis. En este sentido, el cuerpo se logra develar como parte viva de la Polis» (Rojas, 2016Rojas, Yuber (2016). Cuerpo de una violencia infame. Algunas apreciaciones para una hermenéutica de la violencia. Daimon. Revista Internacional de Filosofía, 5, 747-755. 10.6018/daimon/273121, p.749). Posteriormente, mientras que el cogito cartesiano y el sujeto trascendental kantiano desconectaron la corporalidad, la concepción de Nietzsche rehabilita y ubica el cuerpo como el auténtico «sí-mismo» (Viñuela, 2016Viñuela, Pedro (2016). Cuerpo, conciencia y voluntad en Nietzsche. Daimon. Revista Internacional de Filosofía, 5, 163-174. 10.6018/daimon/268731, p.201). En palabras de Ortega, el ser humano es ante todo «alguien que está en un cuerpo» y «sólo es su cuerpo» (Ortega y Gasset, 2013Ortega y Gasset, José (2013). El hombre y la gente. Madrid: Alianza Editorial., p.81)». En este sentido, el cuerpo se determina como «clave exegética» para comprender el ser humano, pues «en el cuerpo se manifiesta la sabiduría inconsciente de la vida, una sabiduría no reflexiva ni lógica que es anterior y más sustantiva que el saber consciente y científico» (Viñuela, 2016Viñuela, Pedro (2016). Cuerpo, conciencia y voluntad en Nietzsche. Daimon. Revista Internacional de Filosofía, 5, 163-174. 10.6018/daimon/268731, p.165). Para el mismo Viñuela (2016Viñuela, Pedro (2016). Cuerpo, conciencia y voluntad en Nietzsche. Daimon. Revista Internacional de Filosofía, 5, 163-174. 10.6018/daimon/268731, p.169) el «vínculo genealógico entre el cuerpo y la cultura, así como una influencia configuradora de la cultura sobre el cuerpo» configura la hermenéutica genealógica de Nietzsche.

Por su parte, Duch y Mèlich (2005Duch, Lluís y Mèlich, JoanCarles (2005). Escenarios de la corporeidad. Madrid: Trotta.) recogen múltiples concepciones acerca del cuerpo, desde la precisión de ser y poseer un cuerpo, pasando por el sentido de mediación social (mediador y mensajero de la existencia humana) de Marcel, la condición de posibilidad del individuo actuando en el mundo de Husserl, hasta la «capacidad reveladora» del cuerpo en la interacción constante con los demás actores y actrices humanos de Merleau-Ponty: el cuerpo no sólo es el medio para relacionarse con el mundo, sino también «el medio que permite la conciencia del mundo», y se va configurando en su interacción con el mundo, al punto de «ser transformado, y reformulado por distintos paradigmas, imaginarios, discursos y prácticas sociales» (Micieli, 2007Micieli, Cristina (2007). El cuerpo como construcción cultural. AISTHESIS, 42, 47-69., p.48). Mientras que para Merleau-Ponty el acceso al mundo se realiza por el cuerpo, considerado como la subjetividad encarnada (Firenze, 2016Firenze, Antonino. (2016). El cuerpo en la filosofía de Merleau-Ponty. Daimon. Revista Internacional de Filosofía, 5, 99-108. 10.6018/daimon/270031), Virilio (1997Virilio, Paul (1997). El cibermundo, la política de lo peor. Madrid: Cátedra.) plantea tres cuerpos ligados: el cuerpo «territorial» (planeta), el «social» y el «animal o humano», con sus ubicaciones frente al otro (alteridad) y a la tierra (ecología).

La interacción con las tecnologías plantea desafíos al cuerpo, algunos de los cuales indican su obsolescencia debido a que, por un lado, se puede deconstruir sexo y género y crear sujetos cyborg, y por otro, su concepción naturalista sería insuficiente para afrontar los retos intelectuales y políticos de las ontologías contemporáneas (Peres, 2016Peres, Daniel (2016). Poder, teoría queer y cuerpo Cyborg. Daimon. Revista Internacional de Filosofía, 5, 125-134. 10.6018/daimon/269401). Otro reto es la deslocalización del cuerpo ocasionado por las nuevas realidades, virtuales y mixtas, que generan el ocaso de la «presencia física en beneficio de una presencia inmaterial y fantasmagórica», con las consecuentes amenazas para el otro (Virilio, 1997Virilio, Paul (1997). El cibermundo, la política de lo peor. Madrid: Cátedra., p. 46-47), para las relaciones corporales ahora ubicadas en el espectro de la «evanescencia del mundo material bajo la hegemonía de un mundo virtual» (Pirela, 2001Pirela, Alexis (2001). La estética de la desaparición y la ciudad en Paul Virilio. Utopía y Praxis Latinoamericana, 6(15), 100-107.) y para el modo de relacionarnos con nuestros propios cuerpos (García, 2010García, Ana (2010). Tiempo, cuerpo y percepción en la imagen técnica. Paul Virilio y la «estética de la desaparición». STVDIVM, 16, 231-247.). El modelo somatocrático de Foucault (2009Foucault, Michel (2009). El yo minimalista y otras conversaciones. Buenos Aires: La marca editora.), que consideró todo poder como físico y su actuación sobre el cuerpo en niveles micro y macro, es incapaz de explicar las nuevas técnicas de gobernanza ahora caracterizadas por la descorporalización (Urabayen y León, 2016Urabayen, Julia y León, Jorge (2016). La obsolescencia de las corporaciones foucaultianas en la era de la postmetrópoli. Daimon. Revista Internacional de Filosofía, 5, 775-784. 10.6018/daimon/269181) y orientadas a la interioridad, a la psique, con estrategias ya no de sometimiento, sino de seducción (Han, 2014Han, Byun-Chul (2014). Psicopolítica. Neoliberalismo y nuevas técnicas de poder. Barcelona: Herder.).

El paso del ejercicio del poder sobre el cuerpo (biopolítica) a la psique (psicopolítica) se determina como la nueva práctica del neoliberalismo dirigido a la interioridad (pensamientos, emociones y necesidades internas de los individuos), mediante estrategias como la seducción, motivación, ilusión, competencia, originalidad e iniciativa (Han, 2014Han, Byun-Chul (2014). Psicopolítica. Neoliberalismo y nuevas técnicas de poder. Barcelona: Herder.). Este nuevo y sofisticado estadio del ejercicio del poder se conduce con nuevas formas de adicción, manipulación y gobernanza, posibilitadas por la información y los datos entregados voluntariamente por los usuarios a los sistemas de IA. De este modo, se configura una «psicopolítica digital», es decir, un nuevo y más efectivo control ejercido desde dentro (Espinosa, 2018Espinosa, Luciano (2018). La mano y el algoritmo. Una antropología compleja ante los desafíos tecnológicos del presente. Araucaria, 20(40), 109-136. 10.12795/araucaria.2018.i40.05; Cruz, 2017Cruz, Manuel (2017). De la biopolítica a la psicopolítica en el pensamiento social de Byung-Chul Han. Athenea Digital, 17 (1), 187-203. 10.5565/rev/athenea.1782), así como una especie nueva de «vigilancia digital» capacitada para leer y controlar pensamientos (Han, 2014Han, Byun-Chul (2014). Psicopolítica. Neoliberalismo y nuevas técnicas de poder. Barcelona: Herder.). En este ejercicio de psicopoder orientado a la interioridad se integran la información, los datos, dispositivos smart y los algoritmos (Arbulo, Olveira y Wilkins, 2018Arbulo, José Ignacio, Olveira, Bruna y Wilkins, Andrés (2018). Hacia la cuarta generación de Derechos humanos: ciberespacio, libertad y responsabilidad digital. XVII Jornadas de Investigación de la Facultad de Ciencias Sociales – UdelaR. Disponible en: http://jornadas.cienciassociales.edu.uy/?attachment_id=1381).

METODOLOGÍA

 

El artículo adopta el enfoque interpretativo de la investigación científica y la metodología aplicada es la hermenéutica analógica (Beuchot, 2016Beuchot, Mauricio (2016). Hechos e interpretaciones. Hacia una hermenéutica analógica. México: FCE.), una teoría interpretativa de textos aplicable a problemas sociales y desarrollada en tres fases: sintáctica, semántica y pragmática. Estas fases estructuran y orientan las acciones relativas a la investigación basada en la interpretación de los textos, en este caso son las siguientes: 1) Fase sintáctica: implica la revisión y organización (matriz a partir de unidades temáticas emergentes) de los textos incluidos (N=55); 2) Fase semántica: se centra en la identificación y caracterización de visiones utópicas (U) y distópicas (D) (matriz de interpretación); 3) Fase pragmática: genera la interpretación analógica o phronética (F) entre las voces unívocas y equívocas orientada por la pregunta estructuradora de la investigación: ¿Cuáles son las implicaciones psicopolíticas de las inteligencias artificiales sobre el cuerpo?

El diseño metodológico para la revisión consideró los siguientes factores de inclusión y exclusión: palabras clave en castellano, inglés, francés y portugués («inteligencia artificial», «cuerpo», «perfil», «humano», «psicopolítica»); tipo documento (artículos de investigación ubicados en bases de datos Science Direct, EBSCO, Scielo, Proquest; documentos de universidades y entidades internacionales; libros de autores relevantes sobre el tema); marco temporal (2010-2021). Se excluyen tesis de maestría, doctorales y material gris.

La revisión se condujo con los pasos del modelo PRISMA en la declaración Preferred Reporting Items for Systematic Review and Meta Analyses (PRISMA) (Page et al., 2021Page, Matthew. (2021). Declaración PRISMA 2020: una guía actualizada para la publicación de revisiones sistemáticas. Revista española de cardiología, 74(9), 790-799. 10.1016/j.recesp.2021.06.016). La revisión siguió las cuatro fases del diagrama PRISMA: identificación, filtrado (o cribado), elegibilidad e inclusión (González, Buñuel y Aparicio, 2011González, Javier; Buñuel, Juan y Aparicio, Rodrigo (2011). Listas guía de comprobación de revisiones sistemáticas y metaanálisis: declaración PRISMA. Evidencias en Pediatría, 7(97), 1-6.). La revisión se inició con la identificación de artículos (N=138) para su posterior escaneo, con base en las palabras clave y marco temporal establecidos. La primera exclusión se realizó con base en la tipología de documentos e idioma (n=30) y permitió la primera definición parcial de los artículos a incluir (N=108). Posteriormente se continuó con la elección y se excluyeron una serie de textos en función de su accesibilidad (n=20), dando lugar a inclusión provisional de artículos (N=88). La última exclusión se realizó por razones de pertinencia para responder la pregunta orientadora (n=33). Por último, se arribó a la inclusión de los artículos para la revisión (N=55).

RESULTADOS

 

Datos y algoritmos: nuevos modos de ser y estar en el mundo

 

Los sistemas de IAs ubicaron el cuerpo en nuevas realidades que mezclan los mundos físico y virtual, aumentan sus espacios de actuación en el universo y le determinan transformaciones (García, 2010García, Ana (2010). Tiempo, cuerpo y percepción en la imagen técnica. Paul Virilio y la «estética de la desaparición». STVDIVM, 16, 231-247.). La configuración algorítmica reordena espacio-tiempo y transforma la noción de subjetividad humana (Prinsloo, 2017Prinsloo, Paul (2017). Fleeing from Frankenstein’s monster and meeting Kafka on the way: Algorithmic decision-making in higher education. E-Learning and Digital Media, 14(3), 138-163. 10.1177/2042753017731355).

Las visiones utópicas (U) exaltan estas nuevas presencias o modos de estar en el mundo, en los cuales ya no existe una predominante circulación corpórea, sino una presencia mediante datos y algoritmos. Algunos textos subrayan beneficios de los algoritmos para fortalecer la confianza en la regulación y optimización del comportamiento y la toma de decisiones de los usuarios. Este nuevo espacio cultiva la autonomía en los individuos instalados en ambientes tecnológicos, fortaleciendo su orientación y mejorando sus elecciones prácticas (Cardon, 2018Cardon, Dominique (2018). Con qué sueñan los algoritmos. Nuestra vida en el tiempo de los Big Data. Madrid: Dado Ediciones.).

Frente a la idea estática de Virilio (1997Virilio, Paul (1997). El cibermundo, la política de lo peor. Madrid: Cátedra.) sobre el cuerpo en su concepción naturalista definido por sus relaciones naturales con su entorno, otros autores plantean la visión utópica sobre el cuerpo en ambientes digitales, en el sentido de fortalecer su capacidad de «manejar y construir significados más complejos», así como de abrir nuevas «posibilidades históricas de sentido», a través de inéditas representaciones humanas (García, 2010García, Ana (2010). Tiempo, cuerpo y percepción en la imagen técnica. Paul Virilio y la «estética de la desaparición». STVDIVM, 16, 231-247., p.242-247). Por último, la posibilidad de una disponibilidad permanente y una «simultaneidad relacional asincrónica», que permite abrir espacios de encuentro (Huici y Davila, 2016Huici, Vicente y Davila, Andrés (2016). Del Zoon Politikón al Zoon Elektronikón. Política y Sociedad, 53(3), 757-772. 10.5209/rev_POSO.2016.v53.n3.50776, p. 765).

En contraste, las visiones distópicas (D) indican la alteración del vínculo corporal con la realidad física, la transformación de la percepción espaciotemporal y el modo de relacionarse con el propio cuerpo (García, 2010García, Ana (2010). Tiempo, cuerpo y percepción en la imagen técnica. Paul Virilio y la «estética de la desaparición». STVDIVM, 16, 231-247.). Virilio (1997Virilio, Paul (1997). El cibermundo, la política de lo peor. Madrid: Cátedra.) es uno de los autores críticos en su momento, pero se podría proyectar su visión distópica del cuerpo con relación a los sistemas de IA: el cuerpo colonizado y profanado por una ciencia sin conciencia. Las tendencias marcadas por Virilio indicaron la «disolución política de la especie humana», a partir de la «desintegración de la comunidad de los presentes» y la consolidación de los ausentes circulantes en la red. En consecuencia, se pierden los cuerpos propios y los ajenos, en beneficio de espectros virtuales (1997Virilio, Paul (1997). El cibermundo, la política de lo peor. Madrid: Cátedra., p.48).

Otros autores refieren riesgos vinculados con habilidades corporales y factores de humanización. La cultura digital obnubila dimensiones narrativas del ser humano al generar y privilegiar el cálculo, lo digital y contable, con el riesgo para la argumentación, el razonamiento y el pensamiento complejo (Han, 2014Han, Byun-Chul (2014). Psicopolítica. Neoliberalismo y nuevas técnicas de poder. Barcelona: Herder.). Asimismo, los grandes datos circulantes generan ruidos y velocidades capaces de destruir el silencio y las posibilidades de introspección y reflexión (Galparsoro, 2017Galparsoro, José (2017). Big data y Psicopolítica. Vía de escape: de la vida calculable a la vida como obra de arte. Dilemata, 9(24), 25-43.). Por otra parte, se arriesgan la imaginación, memoria y creatividad (Popenici y Kerr, 2017Popenici, Stefan y Kerr, Sharon (2017). Exploring the impact of artificial intelligence on teaching and learning in higher education. Research and Practice in Technology Enhanced Learning, 12, e2210.1186/s41039-017-0062-8; García, 2010García, Ana (2010). Tiempo, cuerpo y percepción en la imagen técnica. Paul Virilio y la «estética de la desaparición». STVDIVM, 16, 231-247.), así como la dimensión sensorial y la creatividad cuando se atrofian las manos por causa de los dispositivos digitales, en los que sólo se utilizan los dedos (Han, 2014Han, Byun-Chul (2014). Psicopolítica. Neoliberalismo y nuevas técnicas de poder. Barcelona: Herder.). Por último, en la configuración de este nuevo modo de ser, «zoon elektronikón», se efectúan desplazamientos corporales estructurales y dinámicos por dispositivos o prótesis externas (Huici y Davila, 2016Huici, Vicente y Davila, Andrés (2016). Del Zoon Politikón al Zoon Elektronikón. Política y Sociedad, 53(3), 757-772. 10.5209/rev_POSO.2016.v53.n3.50776).

La interpretación analógica (F) de las nuevas realidades donde habitan los cuerpos debe equilibrar la paradoja en la que nos involucra el «modelo algorítmico»: la posibilidad de ser y actuar como zombis en un entorno que coarta la libertad, frente a la lucidez, creatividad e inteligencia fundamentada en la posibilidad de contrastar las verdades que allí circulan (Espinosa, 2018Espinosa, Luciano (2018). La mano y el algoritmo. Una antropología compleja ante los desafíos tecnológicos del presente. Araucaria, 20(40), 109-136. 10.12795/araucaria.2018.i40.05). Una visión fronética implicaría considerar oportunidades y riesgos: los sistemas de IA pueden ofrecer la posibilidad de envolver, proteger, cuidar y brindar bienestar al cuerpo, al mismo tiempo que invadir su interior para transformarlo y construir «la arquitectura de un nuevo cuerpo» (García, 2010García, Ana (2010). Tiempo, cuerpo y percepción en la imagen técnica. Paul Virilio y la «estética de la desaparición». STVDIVM, 16, 231-247., p.237). Cualquier visión equilibrada debería superar la dramatización del conflicto humano-tecnología, usuario-configurador algorítmico, y considerar sus vínculos bajo un proceso de influjo y retroalimentación (Cardon, 2018Cardon, Dominique (2018). Con qué sueñan los algoritmos. Nuestra vida en el tiempo de los Big Data. Madrid: Dado Ediciones.).

De relaciones corporales a vínculos perfilados y ficticios

 

Las relaciones interpersonales mediadas por el cuerpo reciben el impacto de las nuevas realidades y formas de comunicación. Las visiones utópicas (U) señalan posibilidades como la apertura de escenarios de encuentro, socialización y empoderamiento personal y social: expandir la difusión de actividades; atraer agentes ajenos al espacio local, pero implicados con actividades y reivindicaciones; convocar interesados y afectados en un sitio y en un momento específico (Lozano, 2016Lozano, Alejandro (2016). A medida del cuerpo. Notas acerca del retorno a lo físico en la estética de las nuevas tecnologías. Daimon. Revista Internacional de Filosofía, 5, 287-294. 10.6018/daimon/268921, p. 292). Asimismo, los beneficios de la IA para equipar a individuos y comunidades con nuevas formas de comunicación y expresión que permitan escuchar sus voces (Lozano, 2016Lozano, Alejandro (2016). A medida del cuerpo. Notas acerca del retorno a lo físico en la estética de las nuevas tecnologías. Daimon. Revista Internacional de Filosofía, 5, 287-294. 10.6018/daimon/268921).

En el marco de los sueños utópicos de los algoritmos de Cardon (2018Cardon, Dominique (2018). Con qué sueñan los algoritmos. Nuestra vida en el tiempo de los Big Data. Madrid: Dado Ediciones.), se plantea la posibilidad de usar herramientas para que las personas «reconozcan sus afinidades y se autoorganicen», de acuerdo con intereses, valores, así como oportunidades para «la recomposición social a partir del involucramiento expresivo de los individuos» (p.124). Por otra parte, Huici y Davila (2016Huici, Vicente y Davila, Andrés (2016). Del Zoon Politikón al Zoon Elektronikón. Política y Sociedad, 53(3), 757-772. 10.5209/rev_POSO.2016.v53.n3.50776, p.765) indican una mayor disponibilidad para el encuentro y la «simultaneidad relacional asincrónica», que permite el encuentro interpersonal cuando no se puede coincidir en espacios físicos. Estos espacios de flujo van reconfigurando no sólo los encuentros entre las personas, sino también a las personas mismas.

Por el contrario, las voces distópicas (D) señalan riesgos causados por la hipercomunicación, cuya naturaleza digital se determina como una circulación excesiva de datos, imágenes, videos, cálculos, perfiles, máscaras, que más allá de establecer relaciones personales, configuran vínculos comerciales, sociales, ficticios, que socavan la confianza, ahora imposible e innecesaria (Galparsoro, 2017Galparsoro, José (2017). Big data y Psicopolítica. Vía de escape: de la vida calculable a la vida como obra de arte. Dilemata, 9(24), 25-43.). En este marco también se ubica la hiperinformación que vincula grandes datos, en los cuales se ausentan la verdad, los vínculos personales y se arriesga la salud mental de los individuos con síndromes como el de exceso de información (IFS - Information Fatigue Syndrome) (Cotino, 2019Cotino, Lorenzo (2019). Riesgos e impactos del big data, la inteligencia artificial y la robótica. Revista General de Derecho Administrativo, 50, 1-37., p.15).

El punto central de las voces distópicas es la pérdida del propio cuerpo en los espacios digitales, la cual conlleva el riesgo de la pérdida del cuerpo del otro y la reducción del vínculo a espectros, perfiles o máscaras digitales circulantes en la red (Virilio, 1997Virilio, Paul (1997). El cibermundo, la política de lo peor. Madrid: Cátedra.). La pérdida mutua del cuerpo genera la amenaza de la despersonalización en las relaciones vitales como la del médico-paciente, con consecuencias en las capacidades cognitivas como la empatía, básica en el vínculo terapéutico (Carrió, 2006Carrió, Silvia (2006). Aproximaciones a la medicina narrativa. Revista Hospital Italiano de Buenos Aires, 26(1), 14-19.; Duch y Mèlich, 2005Duch, Lluís y Mèlich, JoanCarles (2005). Escenarios de la corporeidad. Madrid: Trotta.); impacta asimismo en otras relaciones afectivas y sus expresiones, que adquieren características particulares con la mediación de los sistemas de IA. Los romances digitales se configuran con la anulación del cuerpo y la mediación de perfiles, máscaras y avatares.

Para otros autores, el riesgo de la pérdida del cuerpo no solamente afecta las relaciones entre personas, sino también a las comunidades. La desintegración comunitaria se reconfigura con un grupo de individuos ausentes, más cercanos en la red que aquellos con los que se interactúa físicamente, y diluye la posibilidad de construir comunidades políticas de interacción humana (Pirela, 2001Pirela, Alexis (2001). La estética de la desaparición y la ciudad en Paul Virilio. Utopía y Praxis Latinoamericana, 6(15), 100-107.; Virilio, 1997Virilio, Paul (1997). El cibermundo, la política de lo peor. Madrid: Cátedra.). En consecuencia, el riesgo es «la tiranía de la homogeneización del mundo» (Pirela, 2001Pirela, Alexis (2001). La estética de la desaparición y la ciudad en Paul Virilio. Utopía y Praxis Latinoamericana, 6(15), 100-107., p.103) al configurarse una sociedad masificada, homogeneizada, uniformada y perfilada con los intereses y valores de los algoritmos. Estas masas son concentraciones de soledades y de prosumidores manipulados a producir y consumir aquello producido (Marín, 2018Marín, José (2018). La resemantización TIC de la cultura humanista. index.comunicación, 8(1), 179-195.). Estas «ciber-masas» movidas por emociones configuradas en sistemas de IA conforman expresiones tecno-emocionales conducidas por intereses de consumo y mercado (Echeverría, 2016Echeverría, Javier (2016). Ciberpersonas y cibermasas en las cibersociedades. Acento. https://acento.com.do/opinion/ciberpersonas-cibermasas-las-cibersociedades-8408618.html), que configuran ciber-relaciones marcadas con el sello mercantil, competitivo y de lucro e impulsan al individuo a la eficiencia y rendimiento, así como al consumo y explotación de sí mismo (Han, 2014Han, Byun-Chul (2014). Psicopolítica. Neoliberalismo y nuevas técnicas de poder. Barcelona: Herder.).

Por último, el riesgo también es para los nuevos derechos como el de la privacidad y el derecho a estar «desconectado» o desaparecido del mundo digital. La pérdida del cuerpo se contrasta con la imposibilidad de la desconexión, ya que una vez que la información personal y los datos se entregan a los sistemas de IA, se entra en «un mundo que ya no conoce sombra, escondrijo, territorio no vigilado» (Galparsoro y Pérez, 2018Galparsoro, José y Pérez, Rita. (2018). Revolución digital y psicopolítica. Algunas consideraciones críticas a partir de Byung-Chul Han, Foucault, Deleuze y Nietzsche. SCIO. Revista de Filosofía, 14, 251-275. 10.46583/scio_2018.14.493, p.261). Los algoritmos recopilan, procesan y configuran los datos con riesgos para el disfrute del derecho a la vida privada y familiar (Comisión Europea, 2018Comisión Europea (2018). Algorithms and Human Rights. Disponible en: https://rm.coe.int/algorithms-and-human-rights-en-rev/16807956b5, p.12).

La visión phronética (F) se mueve entre las oportunidades para el fortalecimiento de las relaciones interpersonales y los espacios de encuentro, así como para la ruptura de barreras y apertura de posibilidades para revelar el yo con mayor autenticidad y completitud cuando se descorporaliza o se escapa al cuerpo en estos ámbitos digitales (Illou, 2007Illou, Eva (2007). Intimidades congeladas. Las emociones en el capitalismo. Madrid: Katz.), y los posibles riesgos cuando no se interactúa con personas y comunidades auténticas, sino con imágenes creadas, ficticias y perfiladas con los valores de las configuraciones algorítmicas.

De cuerpos reales a perfiles ficticios

 

El proceso de co-construcción entre tecnologías y subjetividades—aquel en el que las personas construyen las tecnologías al mismo tiempo que estos sistemas tecnológicos configuran los individuos--adquiere relevancia y requiere de mayor cuidado en el vínculo de los cuerpos con los sistemas fuertes de IA (Cardon, 2018Cardon, Dominique (2018). Con qué sueñan los algoritmos. Nuestra vida en el tiempo de los Big Data. Madrid: Dado Ediciones.). En la mutación de los cuerpos influye la reconfiguración de las subjetividades, determinadas ahora como perfiles, máscaras y avatares (Lanier, 2018Lanier, Jaron (2018). Diez razones para borrar tus redes sociales de inmediato. Madrid: Debate.; Barrios-Tao, 2015Barrios-Tao, Hernando (2015). Subjetividades en el ágora digital: Cuestiones para la educación y la bioética. Revista Latinoamericana de Bioética, 15(29), 84-95.). Las visiones utópicas (U) indican posibilidades de las tecnologías para fortalecer las subjetividades en sus expresiones relacionales con el mundo, mediadas por el cuerpo, al permitir la configuración de un yo múltiple, más flexible y abierto, que permitiría un yo lúdico y auto-creativo (Illou, 2007Illou, Eva (2007). Intimidades congeladas. Las emociones en el capitalismo. Madrid: Katz.).

Por su parte, las visiones distópicas (D) resaltan riesgos para los cuerpos a causa de la permanente conexión, la desubicación espaciotemporal, la exclusividad de la red como su ámbito de socialización, y podrían generar el desplazamiento de características estructurales y dinámicas hacia los dispositivos, determinados ahora como prótesis externas del cuerpo (Huici y Davila, 2016Huici, Vicente y Davila, Andrés (2016). Del Zoon Politikón al Zoon Elektronikón. Política y Sociedad, 53(3), 757-772. 10.5209/rev_POSO.2016.v53.n3.50776). El planteamiento de Virilio (1997Virilio, Paul (1997). El cibermundo, la política de lo peor. Madrid: Cátedra.) sobre los ritmos de la velocidad en la interacción con los desarrollos tecnológicos que dinamizan la transformación, el daño y la sustitución de la capacidad de percepción humana se podrían acelerar con la interacción ahora más profunda entre cuerpos e IAs fuertes.

Otro ángulo distópico para las subjetividades es el contraste entre la configuración de perfiles uniformes, estandarizados y cosificados (Illou, 2007Illou, Eva (2007). Intimidades congeladas. Las emociones en el capitalismo. Madrid: Katz.), y la multiplicidad de perfiles creados por la fuerza de la presión social sobre su conducta, comportamiento e identidad (Lanier, 2018Lanier, Jaron (2018). Diez razones para borrar tus redes sociales de inmediato. Madrid: Debate.). En las interacciones sociales se recurre a diversos perfiles, «identidades tecnológicas» o «tecno-máscaras», con signos distintivos como claves, URLs, contraseñas que, aunque no se deberían confundir con los individuos, se superponen e identifican las personas (Echeverría, 2016Echeverría, Javier (2016). Ciberpersonas y cibermasas en las cibersociedades. Acento. https://acento.com.do/opinion/ciberpersonas-cibermasas-las-cibersociedades-8408618.html). El punto culminante es la creación de un nuevo modo de identidad: la ciber-identidad. Este nuevo modo de ser se distingue de la corporalidad, que hasta ahora definía al individuo personal y socialmente. La identidad partía del reconocimiento personal y grupal, y con los desarrollos tecnológicos la dimensión funcional refiere unas acciones que no revelan la identidad propia, sino «la identidad del aparato técnico que las media» (Marín, 2018Marín, José (2018). La resemantización TIC de la cultura humanista. index.comunicación, 8(1), 179-195.). En este ámbito se ubican el «zoon elektronikón» (Huici y Davila, 2016Huici, Vicente y Davila, Andrés (2016). Del Zoon Politikón al Zoon Elektronikón. Política y Sociedad, 53(3), 757-772. 10.5209/rev_POSO.2016.v53.n3.50776) y la «tecno-persona» (Echeverría, 2016Echeverría, Javier (2016). Ciberpersonas y cibermasas en las cibersociedades. Acento. https://acento.com.do/opinion/ciberpersonas-cibermasas-las-cibersociedades-8408618.html), que producen y desarrollan su identidad en las relaciones e interacciones, mediadas por dispositivos tecnológicos.

En la configuración de estos perfiles, otros textos refieren al influjo de las emociones cuando éstas se transforman en «inscripciones digitales», es decir objetos o datos almacenables, visualizables, gestionables y con la posibilidad de ser compartidos, debido a la información entregada por los usuarios (Serrano, 2016Serrano, Javier (2016). Internet y emociones: nuevas tendencias en un campo de investigación emergente. Comunicar. Revista Científica de Educomunicación, 46(24), 19-26. 10.3916/C46-2016-02, p.24). Las corrientes negativas y positivas de las emociones se utilizan para lograr ciertos modelos o perfiles trazados por los intereses de los configuradores algorítmicos. Aquellas negativas se manipulan mediante imágenes destructivas de los adversarios, que buscan generar indignación moral y proliferación de sesgos cognitivos negativos en contra de los contrincantes, así como burbujas de contagio emocional entre los individuos con perfiles y posiciones similares (Pérez, 2021Pérez, Pedro (2021). Polarización artificial: cómo los discursos expresivos inflaman la percepción de polarización política en Internet. Recerca. Revista de Pensament i Anàlisi, 26(2), 1-23. 10.6035/recerca.4661; Serrano, 2016Serrano, Javier (2016). Internet y emociones: nuevas tendencias en un campo de investigación emergente. Comunicar. Revista Científica de Educomunicación, 46(24), 19-26. 10.3916/C46-2016-02; López 2016López, Luisa (2016). Las emociones como formas de implicación en el mundo. El caso de la ira. Estudios de Filosofía, 53, 81-101. 10.17533/udea.ef.n53a05); mientras que las positivas se utilizan para exacerbar el sentido de libertad y autonomía, permitiendo la comunicación y entrega de datos personales, mediante los cuales se perfilan los individuos en este nuevo panóptico digital (Han, 2014Han, Byun-Chul (2014). Psicopolítica. Neoliberalismo y nuevas técnicas de poder. Barcelona: Herder.).

Las nuevas identidades, determinadas como perfiles y denominadas ahora como usuarios, diluyen el individuo en el «anonimato tecnológico» y lo convierten en «prosumidor»: un productor-consumidor cuyo deber es producir y consumir lo producido (Marín, 2018Marín, José (2018). La resemantización TIC de la cultura humanista. index.comunicación, 8(1), 179-195.). La Comisión Europea (2018Comisión Europea (2018). Algorithms and Human Rights. Disponible en: https://rm.coe.int/algorithms-and-human-rights-en-rev/16807956b5) alerta sobre la configuración de los perfiles mediante el uso de datos, los cuales pierden el contexto original y se utilizan sin la autorización y conciencia de los usuarios. Estos perfiles creados no sólo son ficticios, sino que la configuración algorítmica genera resultados incompletos, inexactos y distorsionados sobre la identidad de los individuos.

El riesgo para el derecho a la identidad y la consecuente preservación de la dignidad se traza por la heterónoma configuración algorítmica producto de los datos personales entregados (Piñar, 2018). El movimiento entre identidades falsas construidas para adquirir poder y asombrar, y los perfiles creados con fines de exclusión, vigilancia y sometimiento a intereses mercantilistas de los configuradores, trazan riesgos para las personas. La posibilidad de manipular los perfiles convierte la identidad en un valioso capital, en el «nuevo dinero» (Piñar, 2018Piñar, José (2018). Identidad y persona en la sociedad digital. En Tomásde la Quadra y JoséPiñar (eds.), Sociedad digital y Derecho (pp. 95-111). Madrid: Boletín Oficial del Estado., p.103).

La visión analógica (F) se determina a partir de las configuraciones de los sistemas de IA, que se mueven entre la posibilidad de fortalecer la construcción de subjetividades abiertas, flexibles y creativas, y la entrega de la dimensión relacional e identitaria, junto con los datos personales, con los cuales se participa en la configuración y posterior manipulación de perfiles heterónomos y ficticios. La regulación de las constituciones o generación de los perfiles, así como de los sistemas de reconocimientos biométricos podrían dar lugar a un mejor uso y cuidado de los datos privados y minimizar riesgos para los usuarios (Crawford et al., 2019Crawford, Kate; RoelDobbe; Dryer, Theodora; Fried, Genevieve; Green, Ben; Kaziunas, Elizbaeth; Kak, Amba; Varoon, Mathur; McElroy, Erin; Sánchez, Andrea; Raji, Deborah; Rankin, Joy; Richardson, Rashida; Schultz, Jason; West, Sarah y Whittaker, Meredith (2019). AI Now 2019 Report. New York: AI Now Institute. https://ainowinstitute.org/AI_Now_2019_Report.pdf).

Del mercado de cuerpos al mercado de perfiles

 

De la comercialización del cuerpo se transita al negocio de perfiles y al ejercicio del poder sobre los individuos, identificados ahora con estas máscaras. Así como los cuerpos se utilizaron para identificar a las personas, los perfiles ahora se configuran con determinadas características para ser incluidos y comercializados en el mundo digital en el que se sobrevive. Las visiones distópicas (D) inician con el anuncio de Virilio (1997Virilio, Paul (1997). El cibermundo, la política de lo peor. Madrid: Cátedra.) acerca de la colonización del cuerpo, en la que se materializa aún más las prácticas mercantilistas de las nanotecnologías invasoras del cuerpo, y continúan con las prospectivas del transhumanismo orientadas a mejorar las supuestas deficiencias del ser humano (Kotze, 2018Kotze, Manitza (2018). The theological ethics of human enhancement: Genetic engineering, robotics and nanotechnology. In die Skriflig, 52(3), a2323. 10.4102/ids.v52i3.2323). El cuerpo se transforma en un objeto explotable, vinculado al proceso tecnocientífico, con capacidad de rendir y producir para ser exhibido y consumido socialmente.

Las relaciones interpersonales, particularmente las románticas, ingresan en el mercado digital de cuerpos bajo el lenguaje de las emociones, cuyas expresiones «se consumen con rapidez, eficiencia, a un costo bajo y en gran abundancia» (Illou, 2007Illou, Eva (2007). Intimidades congeladas. Las emociones en el capitalismo. Madrid: Katz., p.193). En este ambiente digital «el cuerpo se transforma en una mera vitrina andante, en un objeto más dentro de la sociedad de consumo» (Rojas, 2016Rojas, Yuber (2016). Cuerpo de una violencia infame. Algunas apreciaciones para una hermenéutica de la violencia. Daimon. Revista Internacional de Filosofía, 5, 747-755. 10.6018/daimon/273121, pp.752-753) debido a que la industria configura una belleza vinculada con el aspecto físico como fuente de valor económico y social, así como factor de competitividad social y exposición pública (Illou, 2007Illou, Eva (2007). Intimidades congeladas. Las emociones en el capitalismo. Madrid: Katz.). Esta dimensión estética expone el cuerpo a cánones seriales, estandarizados y de apariencia, a determinados perfiles sobre «cómo-verse-en-el-mundo» (Rojas, 2016Rojas, Yuber (2016). Cuerpo de una violencia infame. Algunas apreciaciones para una hermenéutica de la violencia. Daimon. Revista Internacional de Filosofía, 5, 747-755. 10.6018/daimon/273121, p.753).

En este negocio, la disciplina corporal cede ante la optimización mental y el cuerpo pasa a ser objeto estético y negocio para la cirugía plástica y los centros de fitness, así como un estereotipo, cuya optimización se convierte en un factor circulante en los ambientes digitales. El cuerpo convertido en información digital se comercializa, mercantiliza, con seducciones de optimización mental y física, en el marco de una imaginaria idealización del yo y de perfección estética, que abre las necesidades a las cirugías en búsqueda de una belleza estereotipada (Han, 2014Han, Byun-Chul (2014). Psicopolítica. Neoliberalismo y nuevas técnicas de poder. Barcelona: Herder.). En este ámbito mercantilista se explotan los usuarios, cuyos datos permiten percibir un yo insatisfecho con su cuerpo y que no acepta su condición de fragilidad, vulnerabilidad, dependencia y debilidad, las cuales no serían adecuadas para una cultura de independencia, libertad y éxito, así como para una sociedad cuya base existencial es la autonomía (Duch-Mélich, 2005Duch, Lluís y Mèlich, JoanCarles (2005). Escenarios de la corporeidad. Madrid: Trotta.).

El capitalismo muta de los objetos físicos, dentro de los cuales está el cuerpo, al comercio de la información, datos y programas. Este mercado de datos desemboca en la explotación de los perfiles configurados y el riesgo fundamental aparece cuando los intereses de los configuradores de estos sistemas se inscriben en modelos de negocio «cuyo incentivo consiste en encontrar clientes dispuestos a pagar para modificar el comportamiento de otras personas» (Lanier, 2018Lanier, Jaron (2018). Diez razones para borrar tus redes sociales de inmediato. Madrid: Debate., p.78). En este mercado de los perfiles, otro de los riesgos se relaciona con la discriminación indirecta, mediante la configuración de estereotipos que excluyen determinados perfiles (Comisión Europea, 2018Comisión Europea (2018). Algorithms and Human Rights. Disponible en: https://rm.coe.int/algorithms-and-human-rights-en-rev/16807956b5) y buscan incluir sólo aquellos acordes con los valores comerciales de quienes configuran los sistemas de IA. La discriminación tiene lugar cuando el perfil no concuerda con los estereotipos comerciales o cuando se aplican perfiles determinados a personas para impedir su acceso a los ámbitos sociales (De la Quadra, 2018De la Quadra, Tomás. (2018). Retos, riesgos y oportunidades de la sociedad digital. En Tomásde la Quadra y JoséPiñar (eds.), Sociedad digital y Derecho (pp. 21-85). Madrid: Boletín Oficial del Estado.). La situación es extrema en la medida en que esta afectación y discriminación supera cualquier mecanismo de control social (Comisión Europea, 2020Comisión Europea (2020). Libro Blanco sobre la inteligencia artificial. Disponible en: https://ec.europa.eu/info/sites/info/files/commission-white-paper-artificial-intelligence-feb2020_es.pdf).

Algunos autores señalan estrategias para el mercado de perfiles en ámbitos como el educativo, mediante prácticas biométricas en las cuales se conjugan criterios de eficiencia y calidad, como el caso de las clasificaciones o rankings. Los procedimientos de reificación, digitalización y biometría configuran nuevas subjetividades acordes con los estándares de los sistemas de medición, cuantificación de la productividad, gestión de datos, indicados por las racionalidades neoliberales (Saura y Bolívar, 2019Saura, Geo y Bolívar, Antonio (2019). Sujeto académico neoliberal: Cuantificado, digitalizado y bibliometrificado. REICE, 17(4), 9-26. 10.15366/reice2019.17.4.001; Feldman y Sandoval, 2018Feldman, Zeena y Sandoval, Marisol. (2018). Metric power and the academic self: Neoliberalism, knowledge and resistance in the British university. TripleC, 16(1), 214-233. 10.31269/triplec.v16i1.899)

Una visión analógica (F) sólo se podría plantear a partir del cuidado de los riesgos y la limitación de la denominada «interacción destructiva», que tiene lugar cuando se introducen desarrollos e innovaciones de IA en el entorno motivados por intereses de rendimiento económico exclusivamente, afectando a los actores allí incluidos (Toboso y Aparicio, 2019Toboso, Mario y Aparicio, Manuel (2019). Entornos de funcionamientos robotizados. ¿Es posible una robótica inclusiva?Dilemata,11(30), 171-185., p. 173).

Del poder sobre el cuerpo a la psicopolítica de datos perfilados y algoritmos

 

Del mercado de perfiles se transita al ejercicio del poder, ahora ya no sobre el cuerpo físico, sino sobre la interioridad, psique, en una dinámica de psicopoder que evoluciona de la manipulación y gobernanza, a la modificación de la conducta de los usuarios.

Las visiones utópicas (U) podrían considerarse a partir de la conceptualización, exploración de las dinámicas y transformación del cuerpo natural de Virilio (1997Virilio, Paul (1997). El cibermundo, la política de lo peor. Madrid: Cátedra.) y su potencial convergencia con las posibilidades para la creatividad, sentido y complejidad de las nuevas formas de representar y vivir el cuerpo (García, 2010García, Ana (2010). Tiempo, cuerpo y percepción en la imagen técnica. Paul Virilio y la «estética de la desaparición». STVDIVM, 16, 231-247.). En este sentido, hay que considerar las ventajas planteadas por Katzenbach y Ulbricht (2019Katzenbach, Christian y Ulbricht, Lena. (2019). Algorithmic governance. Internet Policy Review, 8(4). 10.14763/2019.4.1424) acerca del fortalecimiento de la eficiencia, velocidad, escalabilidad y adaptabilidad, así como la referencia de Lozano (2016Lozano, Alejandro (2016). A medida del cuerpo. Notas acerca del retorno a lo físico en la estética de las nuevas tecnologías. Daimon. Revista Internacional de Filosofía, 5, 287-294. 10.6018/daimon/268921) sobre la posibilidad de potenciar la identidad de los usuarios con la información circulante en la red y de empoderarlos para defender sus intereses. Otro ángulo de los beneficios se podría trazar desde las seductoras narrativas de los comerciantes de desarrollos de sistemas de IA que propenderían a exaltar la libertad y autonomía individual, cuyas indudables posibilidades trazan beneficios para los usuarios (Han, 2014Han, Byun-Chul (2014). Psicopolítica. Neoliberalismo y nuevas técnicas de poder. Barcelona: Herder.).

Las visiones distópicas (D) relativas a este poder sobre el cuerpo se estructuran en torno al análisis de la dinámica de la psicopolítica en su evolución del ejercicio del psicopoder articulada en las fases manipulación-modificación-gobernanza. El paso del poder capitalista sobre el cuerpo físico se orienta ahora a la psique, la nueva fuerza productiva, nuevo objetivo de los sistemas de IA, nuevo capital determinado por estas formas inmateriales y nuevo combustible de la manipulación en línea (Susser, Roessler y Nissenbaum, 2019Susser, Daniel; Roessler, Beate y Nissenbaum, Helen. (2019). Technology, autonomy, and manipulation. Internet Policy Review, 8(2). 10.14763/2019.2.1410). El punto de mira ahora son los procesos de manipulación de la interioridad de los usuarios, mediante los grandes datos que permiten alcanzar, iluminar y explotar la psique; y el nuevo panóptico digital es una sociedad de la transparencia que ejerce el psicopoder mediante la vigilancia digital, e interviene en los procesos psicológicos, orientando el pensamiento y las necesidades internas (Han, 2014Han, Byun-Chul (2014). Psicopolítica. Neoliberalismo y nuevas técnicas de poder. Barcelona: Herder.).

A partir de los diferentes modos de conceptualizar la manipulación, primer paso de la psicopolítica, Susser, Roessler y Nissenbaum (2019Susser, Daniel; Roessler, Beate y Nissenbaum, Helen. (2019). Technology, autonomy, and manipulation. Internet Policy Review, 8(2). 10.14763/2019.2.1410) sintetizan la variedad de definiciones en la idea principal relacionada con guiar a alguien, inducirlo a determinado comportamiento e influir de forma oculta en su toma de decisiones, apuntando y explotando sus vulnerabilidades. La manipulación es un direccionamiento fuera de la conciencia para actuar por razones que no se reconocen y hacia fines que quizá se desearían evitar. El riesgo para la autonomía radica en conducir los usuarios hacia actuaciones que no ha elegido y con razones impropias.

La manipulación inicia con la vigilancia digital posibilitada por la exhibición permanente de las vulnerabilidades individuales cuando se toman decisiones. Los datos sobre estas vulnerabilidades se monitorean y detectan en publicaciones e imágenes sobre situaciones de estrés, derrota, ansiedad, nerviosismo, fracaso, entre otras. Estos rastros se recolectan para perfilar los individuos y posteriormente configurar y analizar patrones latentes. Con esta información comportamental se pueden detectar momentos y modos para intervenir e influenciar las personas. En esta interacción digital las interfaces continúan aprendiendo de los usuarios y hasta se adaptan a cada individuo (Susser, Roessler y Nissenbaum, 2019Susser, Daniel; Roessler, Beate y Nissenbaum, Helen. (2019). Technology, autonomy, and manipulation. Internet Policy Review, 8(2). 10.14763/2019.2.1410). De este modo, con los datos se puede predecir el comportamiento y ejercer un control sobre los usuarios: «Si todo es predecible y controlable, al ser humano se le cierra todo horizonte de futuro; su libertad creadora de futuro desaparece» (Galparsoro y Pérez, 2018Galparsoro, José y Pérez, Rita. (2018). Revolución digital y psicopolítica. Algunas consideraciones críticas a partir de Byung-Chul Han, Foucault, Deleuze y Nietzsche. SCIO. Revista de Filosofía, 14, 251-275. 10.46583/scio_2018.14.493, p.264). Asimismo, se les encierra en los resultados algorítmicos sintonizados con sus preferencias y sin la conciencia de la información disonante oculta en el algoritmo (Pérez, 2021Pérez, Pedro (2021). Polarización artificial: cómo los discursos expresivos inflaman la percepción de polarización política en Internet. Recerca. Revista de Pensament i Anàlisi, 26(2), 1-23. 10.6035/recerca.4661). El posterior ejercicio de gobernanza se orienta por lo que se puede encontrar, lo esperado, lo relevante, lo cual conduce al interés final que es en definitiva lo que se consume (Just y Latzer, 2017Just, Natascha y Latzer, Michael (2017). Governance by algorithms: reality construction by algorithmic selection on the Internet. Media, Culture & Society, 39(2), 238-258. 10.1177/0163443716643157, p.5). Latzer y Festic (2019Latzer, Michael y Festic, Noemi (2019). A guideline for understanding and measuring algorithmic governance in everyday life. Internet Policy Review, 8(2). 10.14763/2019.2.1415) presentan un enfoque empírico de métodos mixtos para probar el gobierno algorítmico en los diversos dominios de la vida tales como la orientación social y política, la recreación y las transacciones comerciales.

Otros autores se centran en formas, estrategias y acciones de gobernanza, que van desde el ejercicio del poder mediante estrategias blandas como la biometría, a través de evaluaciones cuantitativas sobre calidad, impacto y resultados, configuradas con datos y algoritmos que desembocan en rankings (Saura y Bolívar, 2019Saura, Geo y Bolívar, Antonio (2019). Sujeto académico neoliberal: Cuantificado, digitalizado y bibliometrificado. REICE, 17(4), 9-26. 10.15366/reice2019.17.4.001), hasta el ejercicio del psicopoder mediante configuraciones algorítmicas orientadas a ingresar y capturar a los usuarios en fenómenos epistémicos como los filtros burbuja y las cámaras de eco. Mientras que los filtros o burbujas epistémicas encierran las voces en sí mismas, en sus creencias y excluyen la argumentación, las cámaras conducen a la interacción con usuarios afines a los valores e ideologías allí inmersos (Pérez, 2021Pérez, Pedro (2021). Polarización artificial: cómo los discursos expresivos inflaman la percepción de polarización política en Internet. Recerca. Revista de Pensament i Anàlisi, 26(2), 1-23. 10.6035/recerca.4661; Nguyen, 2020Nguyen, C. Thi. (2020). Echo chambers and epistemic bubbles. Episteme, 17(2), 141-161. 10.1017/epi.2018.32).

En conexión con estos fenómenos epistémicos, las redes difunden información y datos orientados a la interioridad de los usuarios. Los efectos de repetición, réplica y viralización permiten la circulación de falsas noticias y de virus mentales. Estos virus son campos cognitivos infundados o construidos sobre ideologías o doctrinas, sin base en un cuerpo teórico experimental, que interactúan entre sí, circulan y se difunden en la red a causa de la ignorancia, desinformación, rechazo de la ciencia y predisposición psicológica (Gayozzo, 2021Gayozzo, Piero. (2021). Virus mentales. Pensar. Disponible en: https://pensar.org/2021/03/virus-mentales/; Dawkins, 1993Dawkins, Richard. (1993). Viruses of the Mind. En Dahlbom, Bo. Dennet and His Critics: Demystifying Mind (pp. 13-27). Oxford: Blackwell.). Los efectos de los virus se evidencian en la disposición inconsciente de los individuos para actuar de acuerdo con la doctrina y en su obediencia a las autoridades ideológicas, que alejan las personas de la realidad y las encierran en razonamientos errados, desconfiados y fanáticos (Gayozzo, 2021Gayozzo, Piero. (2021). Virus mentales. Pensar. Disponible en: https://pensar.org/2021/03/virus-mentales/). En este ámbito, Susser, Roessler y Nissenbaum (2019Susser, Daniel; Roessler, Beate y Nissenbaum, Helen. (2019). Technology, autonomy, and manipulation. Internet Policy Review, 8(2). 10.14763/2019.2.1410) refieren sesgos cognitivos o atajos mentales que influyen en la toma de decisiones y moldean las creencias, sin necesidad de engaño absoluto.

Otra de las estrategias de gobernanza se condensa en el término seducción. A partir del monitoreo de los datos privados la configuración algorítmica revierte la información recibida y crea procesos de auto seducción a partir de las manifestaciones libremente expresadas y mediante los cuales ahora son engañados. La seducción se dinamiza a partir de la invasión a su interioridad y a la conducción de su mente para que subordine su cuerpo a un ego ideal configurado en los sistemas de IA con intereses económicos (Saura y Bolívar, 2019Saura, Geo y Bolívar, Antonio (2019). Sujeto académico neoliberal: Cuantificado, digitalizado y bibliometrificado. REICE, 17(4), 9-26. 10.15366/reice2019.17.4.001, p.22). En esta dinámica, se pasa de la seducción a la dependencia; la voluntad libre para entregar sus datos se convierte en un supuesto sentimiento de libertad, mediante el cual se termina explotando a sí mismo (Han, 2014Han, Byun-Chul (2014). Psicopolítica. Neoliberalismo y nuevas técnicas de poder. Barcelona: Herder.).

Por último, otros autores plantean ahora el uso de las emociones como estrategia para modificar la conducta de las masas. Por una parte, se explotan las corrientes emocionales negativas para motivar la reacción y sacar lo peor de los usuarios (Lanier, 2018Lanier, Jaron (2018). Diez razones para borrar tus redes sociales de inmediato. Madrid: Debate.). En este sentido, se inducen expresiones para ocasionar desahogos emocionales e indignación que arriba a polarizaciones afectivas que generan «sentimientos negativos de rechazo o animadversión de los sujetos hacia sus adversarios ideológicos» (Pérez, 2021Pérez, Pedro (2021). Polarización artificial: cómo los discursos expresivos inflaman la percepción de polarización política en Internet. Recerca. Revista de Pensament i Anàlisi, 26(2), 1-23. 10.6035/recerca.4661, p.7). Esta manipulación emocional también busca provocar molestias, discusiones y polémicas, evitando la posibilidad de debates reales y argumentados (Acevedo, Chamorro y Quintero, 2021Acevedo, Alvaro; Chamorro, Alicia y Quintero, Margarita (2021). Ciudadanías movedizas: ciberpolítica y los dilemas de Twitter como esfera pública/privada. Recerca. Revista de Pensament i Anàlisi, 26(2), 1-23. 10.6035/recerca.5511). Por otra parte, la psicopolítica neoliberal utiliza las corrientes positivas para generar sentimientos de positivismo, con el fin de agradar, maximizar el consumo y motivar la comunicación de los datos. De este modo, el individuo comparte su información sin necesidad de usar la fuerza para extraérsela. Esta explotación convierte las emociones en medios de producción vinculados con la libertad e impulsividad para consumir y comunicar, sin límites, expresiones como el «me gusta». De este modo, el sujeto se explota a sí mismo y lo reproduce como si estuviera actuando libremente (Han, 2014Han, Byun-Chul (2014). Psicopolítica. Neoliberalismo y nuevas técnicas de poder. Barcelona: Herder.).

A partir de la propuesta de Lozano (2016Lozano, Alejandro (2016). A medida del cuerpo. Notas acerca del retorno a lo físico en la estética de las nuevas tecnologías. Daimon. Revista Internacional de Filosofía, 5, 287-294. 10.6018/daimon/268921) para abordar las complejas relaciones entre poder, nuevas tecnologías y cuerpo, se pueden referir aspectos para una visión fronética (F): la visión desbordada del biopoder debe considerarse más allá de un repertorio de técnicas para gestionar la vida humana y abrir iniciativas para que las mismas tecnologías se incorporen en acciones de resistencia y valoración de la identidad individual y comunitaria frente a las intenciones de terceros (Lozano, 2016Lozano, Alejandro (2016). A medida del cuerpo. Notas acerca del retorno a lo físico en la estética de las nuevas tecnologías. Daimon. Revista Internacional de Filosofía, 5, 287-294. 10.6018/daimon/268921, 292). Asimismo, los planteamientos de Floridi et al. (2018Floridi, Luciano; Cowls, Josh; Beltrametti, Monica; Chatila, Raja; Chazerand, Patrice; Dignum, Virginia; Luetge, Christoph; Madelin, Robert; Pagallo, Ugo; Rossi, Frencesca; Schafer, Burkhard; Valcke, Peggy y Vayena, Effi (2018). AI4People – An Ethical Framework for a Good AI Society: Opportunities, Risks, Principles, and Recommendations. Minds and Machines, 28, 689-707. 10.1007/s11023-018-9482-5) consideran una oportunidad para el poder predictivo de los sistemas de IA cuando sirven para la autodeterminación humana y fomentan la cohesión social.

DISCUSIÓN

 

El primer aspecto discute la subjetividad en relación con la anulación de espacio y cuerpo en los sistemas de IA. En los planteamientos de Augé (2009Augé, Marc (2009). Los no lugares. Espacios del anonimato. Madrid: Gedisa.) acerca de los «no-lugares» como escenarios en los que desaparece lo identitario, relacional e histórico, vinculándose con la muerte, se podría ahora incluir los escenarios digitales. Las nuevas subjetividades se arriesgan a negarse como cuerpos debido a que se establecen vínculos sin contacto; con el cuerpo anulado como factor relacional y de proximidad, signos de lo humano, y de este modo se privilegian vínculos ficticios con perfiles construidos y configurados externamente. Esta heteronomía niega la construcción de subjetividad tal como ha sido entendida hasta hoy, porque ya no se marca por su ser y actuar, sino por las huellas digitales de otros (De la Quadra, 2018De la Quadra, Tomás. (2018). Retos, riesgos y oportunidades de la sociedad digital. En Tomásde la Quadra y JoséPiñar (eds.), Sociedad digital y Derecho (pp. 21-85). Madrid: Boletín Oficial del Estado.). Se abre el desafío de rehacer espacios con vínculos corporales humanos y sociales, así como de reivindicar las geografías digitales como lugares de encuentro entre humanos.

El ejercicio del psicopoder no sólo genera el surgimiento, sino ante todo la defensa de los derechos de tercera generación (Pérez, 2018Pérez, Antonio. (2018). Las generaciones de derechos humanos ante el desafío posthumanista. En Tomásde la Quadra y JoséPiñar (eds.), Sociedad digital y Derecho (pp. 137-155). Madrid: Boletín Oficial del Estado.). Este segundo aspecto de discusión es un llamado a visibilizar, preservar y promover la defensa de la privacidad, identidad, autonomía y dignidad, entre otros, que podrían estar amenazados por los sistemas fuertes de IA (Martínez, 2019Martínez, Jesús (2019). Inteligencia y derechos humanos en la sociedad digital. Cuadernos Electrónicos de Filosofía del Derecho, 40, 168-189. 10.7203/CEFD.40.13846; Piñar, 2018Piñar, José (2018). Identidad y persona en la sociedad digital. En Tomásde la Quadra y JoséPiñar (eds.), Sociedad digital y Derecho (pp. 95-111). Madrid: Boletín Oficial del Estado.). La identidad personal, base de la dignidad, podría ser vulnerada con el paso de los cuerpos a los perfiles o máscaras digitales, condicionando y mercantilizando relaciones, sin el control de las personas sobre su información, preferencias e integridad (Montréal Declaration, 2018Montréal Declaration for a Responsible Development of Artificial Intelligence. (2018). Disponible en: https://recherche.umontreal.ca/english/strategic-initiatives/montreal-declaration-for-a-responsible-ai/). Asimismo, la identidad comunitaria podría pasar de cuerpos sociales a rebaños o enjambres, dominados por configuraciones algorítmicas (Han, 2014Han, Byun-Chul (2014). Psicopolítica. Neoliberalismo y nuevas técnicas de poder. Barcelona: Herder.) y con riesgos para la misma democracia (De la Quadra, 2018De la Quadra, Tomás. (2018). Retos, riesgos y oportunidades de la sociedad digital. En Tomásde la Quadra y JoséPiñar (eds.), Sociedad digital y Derecho (pp. 21-85). Madrid: Boletín Oficial del Estado.).

Un tercer aspecto para la discusión es la comprensión sapiencial de la dimensión corporal de lo humano y del poder de las tecnologías que aumenta en mayor velocidad que la sabiduría con la que se gestionan (Tegmark, 2017Tegmark, Max (2017). Life 3.0: Being Human in the Age of Artificial Intelligence. New York: Alfred A. Knopf.). Esta comprensión se fundamenta en los planteamientos de Scheler acerca de la posibilidad del ser humano en su condición de cuerpo, de distanciarse de su cuerpo para desarrollar su dimensión crítica y afectiva (Duch-Mélich, 2005Duch, Lluís y Mèlich, JoanCarles (2005). Escenarios de la corporeidad. Madrid: Trotta.). La recuperación de la dimensión sapiencial sobre lo humano se debe orientar hacia las capacidades innatas y vinculadas con su cuerpo: creatividad, emprendimiento, autonomía (Aoun, 2017Aoun, Joseph (2017). Robot-Proof. Higher Education in the Age of Artificial Intelligence. MIT Press.).

El cuarto aspecto de discusión se fundamenta en la conciencia de co-construcción de tecnologías y humanos. En este proceso es necesaria la participación adecuada de las personas con relación a la configuración de los sistemas de IA (Comisión Europea, 2020Comisión Europea (2020). Libro Blanco sobre la inteligencia artificial. Disponible en: https://ec.europa.eu/info/sites/info/files/commission-white-paper-artificial-intelligence-feb2020_es.pdf). Esta participación debería constituirse por pensadores que desarrollen una «radiografía crítica» de los algoritmos que explore sus componentes e identifique sus visiones del mundo (Cardon, 2018Cardon, Dominique (2018). Con qué sueñan los algoritmos. Nuestra vida en el tiempo de los Big Data. Madrid: Dado Ediciones.), evalúe sus impactos en los diferentes dominios de la vida humana (Latzer y Festic, 2019Latzer, Michael y Festic, Noemi (2019). A guideline for understanding and measuring algorithmic governance in everyday life. Internet Policy Review, 8(2). 10.14763/2019.2.1415), y oriente la motivación hacia su uso para el bienestar social y procesos de humanización (Mora et al., 2021Mora, Leidy; Pineda, Gustavo; Londoño, David y Vásquez, Ana (2021). Formación humana: de la deshumanización tecnológica a la reconstrucción del cuerpo. Horizontes Pedagógicos, 23(1), 1- 9. 10.33881/0123-8264.hop.23101).

Por último, el llamado a la centralidad de las personas y a los factores que las humanizan, como la solidaridad, la creatividad, el bien común, el respeto, entre otros (Telefónica, 2018TelefónicaS. A. (2018). Manifiesto por un nuevo pacto digital. Una digitalización centrada en las personas. https://www.telefonica.com/manifiesto-digital/assets/manifiesto_por_un_nuevo_pacto_digital.pdf; Álvarez, 2018), hace que éstos se conviertan en una urgencia para los configuradores algorítmicos de los sistemas de IA. El cuidado de sí mismo como factor fundamental de constitución de subjetividad en la antigua Grecia (Foucault, 1987Foucault, Michel (1987). Hermenéutica del sujeto.Madrid: Ediciones de La Piqueta.), además de ser un factor sapiencial, contribuye con beneficios para preservar la democracia, la humanidad y mejorar la vida de las personas (Telefónica, 2018TelefónicaS. A. (2018). Manifiesto por un nuevo pacto digital. Una digitalización centrada en las personas. https://www.telefonica.com/manifiesto-digital/assets/manifiesto_por_un_nuevo_pacto_digital.pdf).

CONCLUSIONES

 

La interpretación analógica de las implicaciones de los sistemas fuertes de IA en los cuerpos permite evidenciar los beneficios, riesgos y oportunidades de una convergencia entre interpretaciones utópicas y distópicas. En este sentido, se han realizado propuestas acerca de la comprensión equilibrada de los nuevos modos de ser y actuar en el mundo digital, con la mediación de dispositivos inteligentes, que se mueve entre quienes resaltan sus beneficios y los que evidencian los riesgos derivados de un determinado ejercicio de poder sobre la vida de los usuarios.

La reconfiguración del cuerpo como factor fundamental del ser y de «constitución de lo social» (Urabayen y León, 2016Urabayen, Julia y León, Jorge (2016). La obsolescencia de las corporaciones foucaultianas en la era de la postmetrópoli. Daimon. Revista Internacional de Filosofía, 5, 775-784. 10.6018/daimon/269181, 782) es un proceso en desarrollo, mediado por las configuraciones algorítmicas de los sistemas fuertes de IA. En la interpretación realizada los lectores pueden evidenciar el paso de cuerpos a perfiles, configurados como máscaras, falsas identidades o avatares, que plantea nuevos modos de ser y estar en el mundo en los escenarios digitales, donde interactúan individuos y comunidades.

Por otra parte, los nuevos modos de ser y de relacionarse entre individuos y comunidades trazan un paso de relaciones corporales a vínculos mediados por las características de los nuevos perfiles, creados de forma heterónoma bajo la influencia de los configuradores de los sistemas fuertes de IA. Asimismo, los nuevos perfiles están configurados bajo modelos determinados y con propósitos orientados hacia el mercado, la competitividad y el lucro económico. El mercado de perfiles determina nuevos capitales dentro de los cuales la vida misma, el cuerpo y sus nuevas manifestaciones en lo digital se configura como el nuevo blanco de quienes ostentan el poder con los sistemas de IA.

El ejercicio capitalista del poder sobre el cuerpo transita hacia una nueva forma de poder, ahora ejercida por el neoliberalismo y orientada hacia la interioridad del ser humano. El poder sobre la psiqué configura una psicopolítica que se posibilita por la entrega, supuestamente libre y autónoma, de la información personal en los dispositivos configurados en sistemas de IA. El ejercicio de la psicopolítica desarrolla unos pasos que camina de la manipulación, dominio, gobernanza, hasta la pérdida de la identidad personal y comunitaria.

La revisión e interpretación analógica abre preguntas para futuras investigaciones acerca de las respuestas, tanto de la educación como de la bioética, a estos desafíos de los sistemas de IA para los cuerpos individuales y sociales, así como de la formación integral para las personas en estos nuevos escenarios que se determinan como nuevas formas de ciudadanía digital y algorítmica. Por otra parte, la atención a los derechos de tercera generación configurados en el escenario digital espera respuestas de las áreas comprometidas en su promoción y defensa.

FUENTES DE FINANCIACIÓN

 

El artículo es producto del Proyecto de Investigación INV-HUM-3481 “Emociones políticas para la formación ciudadana en estudiantes de la Universidad Militar Nueva Granada: Un análisis de minería de datos con uso de Modelos de Redes Neuronales Artificiales (2020-2021)”, financiado por la Vicerrectoría de Investigaciones de la Universidad Militar Nueva Granada, Bogotá – Colombia.

DECLARACIÓN DE CONFLICTO DE INTERESES

 

Los autores de este artículo declaran no tener conflictos de intereses financieros, profesionales o personales que pudieran haber influido de manera inapropiada en este trabajo.

DECLARACIÓN DE CONTRIBUCIÓN DE AUTORÍA

 

Hernando Barrios-Tao: Conceptualización, Curación de datos, Análisis formal, Metodología, Redacción – borrador original, Redacción – revisión final y edición.

Vianney Díaz-Pérez: Conceptualización, Análisis formal, Investigación, Administración de proyecto y revisión primera.

REFERENCIAS

 

1 

Acevedo, Alvaro; Chamorro, Alicia y Quintero, Margarita (2021). Ciudadanías movedizas: ciberpolítica y los dilemas de Twitter como esfera pública/privada. Recerca. Revista de Pensament i Anàlisi, 26(2), 1-23. https://doi.org/10.6035/recerca.5511

2 

Aoun, Joseph (2017). Robot-Proof. Higher Education in the Age of Artificial Intelligence. MIT Press.

3 

Arbulo, José Ignacio, Olveira, Bruna y Wilkins, Andrés (2018). Hacia la cuarta generación de Derechos humanos: ciberespacio, libertad y responsabilidad digital. XVII Jornadas de Investigación de la Facultad de Ciencias Sociales – UdelaR. Disponible en: http://jornadas.cienciassociales.edu.uy/?attachment_id=1381

4 

Augé, Marc (2009). Los no lugares. Espacios del anonimato. Madrid: Gedisa.

5 

Baker, Toby y Smith, Laurie (2019). Educ-AI-tion rebooted? Exploring the future of artificial intelligence in schools and colleges. Disponible en: https://media.nesta.org.uk/documents/Future_of_AI_and_education_v5_WEB.pdf

6 

Barrios-Tao, Hernando (2015). Subjetividades en el ágora digital: Cuestiones para la educación y la bioética. Revista Latinoamericana de Bioética, 15(29), 84-95.

7 

Barrios-Tao, Hernando; Díaz, Vianney y Guerra, Yolanda (2020). Subjetividades e inteligencia artificial: desafíos para ‘lo humano’. Veritas, 47(4), 81-107. https://doi.org/10.4067/S0718-92732020000300081

8 

Beuchot, Mauricio (2016). Hechos e interpretaciones. Hacia una hermenéutica analógica. México: FCE.

9 

Cardon, Dominique (2018). Con qué sueñan los algoritmos. Nuestra vida en el tiempo de los Big Data. Madrid: Dado Ediciones.

10 

Carrió, Silvia (2006). Aproximaciones a la medicina narrativa. Revista Hospital Italiano de Buenos Aires, 26(1), 14-19.

11 

Comisión Europea (2020). Libro Blanco sobre la inteligencia artificial. Disponible en: https://ec.europa.eu/info/sites/info/files/commission-white-paper-artificial-intelligence-feb2020_es.pdf

12 

Comisión Europea (2018). Algorithms and Human Rights. Disponible en: https://rm.coe.int/algorithms-and-human-rights-en-rev/16807956b5

13 

Cotino, Lorenzo (2019). Riesgos e impactos del big data, la inteligencia artificial y la robótica. Revista General de Derecho Administrativo, 50, 1-37.

14 

Crawford, Kate; Roel Dobbe; Dryer, Theodora; Fried, Genevieve; Green, Ben; Kaziunas, Elizbaeth; Kak, Amba; Varoon, Mathur; McElroy, Erin; Sánchez, Andrea; Raji, Deborah; Rankin, Joy; Richardson, Rashida; Schultz, Jason; West, Sarah y Whittaker, Meredith (2019). AI Now 2019 Report. New York: AI Now Institute. https://ainowinstitute.org/AI_Now_2019_Report.pdf

15 

Cruz, Manuel (2017). De la biopolítica a la psicopolítica en el pensamiento social de Byung-Chul Han. Athenea Digital, 17 (1), 187-203. https://doi.org/10.5565/rev/athenea.1782

16 

Damasio, Antonio (1994. El error de Descartes. La razón de las emociones. Santiago: Editorial Andrés Bello.

17 

Dawkins, Richard. (1993). Viruses of the Mind. En Dahlbom, Bo. Dennet and His Critics: Demystifying Mind (pp. 13-27). Oxford: Blackwell.

18 

De La Calle, Mario y Muñoz, María (2018). Hikikomori: el síndrome de aislamiento social y juvenil. Revista de la Asociación Española de Neuropsiquiatría, 38(133), 115-129.

19 

De la Quadra, Tomás. (2018). Retos, riesgos y oportunidades de la sociedad digital. En Tomás de la Quadra y José Piñar (eds.), Sociedad digital y Derecho (pp. 21-85). Madrid: Boletín Oficial del Estado.

20 

Duch, Lluís y Mèlich, Joan Carles (2005). Escenarios de la corporeidad. Madrid: Trotta.

21 

Echeverría, Javier (2016). Ciberpersonas y cibermasas en las cibersociedades. Acento. https://acento.com.do/opinion/ciberpersonas-cibermasas-las-cibersociedades-8408618.html

22 

Espinosa, Luciano (2018). La mano y el algoritmo. Una antropología compleja ante los desafíos tecnológicos del presente. Araucaria, 20(40), 109-136. https://doi.org/10.12795/araucaria.2018.i40.05

23 

Feldman, Zeena y Sandoval, Marisol. (2018). Metric power and the academic self: Neoliberalism, knowledge and resistance in the British university. TripleC, 16(1), 214-233. https://doi.org/10.31269/triplec.v16i1.899

24 

Firenze, Antonino. (2016). El cuerpo en la filosofía de Merleau-Ponty. Daimon. Revista Internacional de Filosofía, 5, 99-108. https://doi.org/10.6018/daimon/270031

25 

Floridi, Luciano; Cowls, Josh; Beltrametti, Monica; Chatila, Raja; Chazerand, Patrice; Dignum, Virginia; Luetge, Christoph; Madelin, Robert; Pagallo, Ugo; Rossi, Frencesca; Schafer, Burkhard; Valcke, Peggy y Vayena, Effi (2018). AI4People – An Ethical Framework for a Good AI Society: Opportunities, Risks, Principles, and Recommendations. Minds and Machines, 28, 689-707. https://doi.org/10.1007/s11023-018-9482-5

26 

Foucault, Michel (2009). El yo minimalista y otras conversaciones. Buenos Aires: La marca editora.

27 

Foucault, Michel (1987). Hermenéutica del sujeto.Madrid: Ediciones de La Piqueta.

28 

Galparsoro, José (2017). Big data y Psicopolítica. Vía de escape: de la vida calculable a la vida como obra de arte. Dilemata, 9(24), 25-43.

29 

Galparsoro, José y Pérez, Rita. (2018). Revolución digital y psicopolítica. Algunas consideraciones críticas a partir de Byung-Chul Han, Foucault, Deleuze y Nietzsche. SCIO. Revista de Filosofía, 14, 251-275. https://doi.org/10.46583/scio_2018.14.493

30 

García, Ana (2010). Tiempo, cuerpo y percepción en la imagen técnica. Paul Virilio y la «estética de la desaparición». STVDIVM, 16, 231-247.

31 

García, Juan. (2017). ¿Cómo mejorar al ser humano? Un análisis de las tecnologías convergentes desde la antropología pedagógica. Pedagogia e Vita, 75, 94-105.

32 

Gayozzo, Piero. (2021). Virus mentales. Pensar. Disponible en: https://pensar.org/2021/03/virus-mentales/

33 

González, Javier; Buñuel, Juan y Aparicio, Rodrigo (2011). Listas guía de comprobación de revisiones sistemáticas y metaanálisis: declaración PRISMA. Evidencias en Pediatría, 7(97), 1-6.

34 

Han, Byun-Chul (2014). Psicopolítica. Neoliberalismo y nuevas técnicas de poder. Barcelona: Herder.

35 

Hill, Robin (2016). What an algorithm is? Philosophy and Technology, 29(1), 35-59. https://doi.org/10.1007/s13347-014-0184-5

36 

Huici, Vicente y Davila, Andrés (2016). Del Zoon Politikón al Zoon Elektronikón. Política y Sociedad, 53(3), 757-772. https://doi.org/10.5209/rev_POSO.2016.v53.n3.50776

37 

Illou, Eva (2007). Intimidades congeladas. Las emociones en el capitalismo. Madrid: Katz.

38 

Just, Natascha y Latzer, Michael (2017). Governance by algorithms: reality construction by algorithmic selection on the Internet. Media, Culture & Society, 39(2), 238-258. https://doi.org/10.1177/0163443716643157

39 

Kaplan, Andreas y Haenlein, Michael (2019). Siri, Siri, in my hand: Who’s the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence. Business Horizons, 62(1), 15-25. https://doi.org/10.1016/j.bushor.2018.08.004

40 

Katzenbach, Christian y Ulbricht, Lena. (2019). Algorithmic governance. Internet Policy Review, 8(4). https://doi.org/10.14763/2019.4.1424

41 

Kotze, Manitza (2018). The theological ethics of human enhancement: Genetic engineering, robotics and nanotechnology. In die Skriflig, 52(3), a2323. https://doi.org/10.4102/ids.v52i3.2323

42 

Lanier, Jaron (2018). Diez razones para borrar tus redes sociales de inmediato. Madrid: Debate.

43 

Latzer, Michael y Festic, Noemi (2019). A guideline for understanding and measuring algorithmic governance in everyday life. Internet Policy Review, 8(2). https://doi.org/10.14763/2019.2.1415

44 

López, Luisa (2016). Las emociones como formas de implicación en el mundo. El caso de la ira. Estudios de Filosofía, 53, 81-101. https://doi.org/10.17533/udea.ef.n53a05

45 

Lozano, Alejandro (2016). A medida del cuerpo. Notas acerca del retorno a lo físico en la estética de las nuevas tecnologías. Daimon. Revista Internacional de Filosofía, 5, 287-294. https://doi.org/10.6018/daimon/268921

46 

Marín, José (2018). La resemantización TIC de la cultura humanista. index.comunicación, 8(1), 179-195.

47 

Martínez, Jesús (2019). Inteligencia y derechos humanos en la sociedad digital. Cuadernos Electrónicos de Filosofía del Derecho, 40, 168-189. https://doi.org/10.7203/CEFD.40.13846

48 

Menéndez, Amador (2018). Horizontes tecnológicos. Telos, 109, 10-15.

49 

Montréal Declaration for a Responsible Development of Artificial Intelligence. (2018). Disponible en: https://recherche.umontreal.ca/english/strategic-initiatives/montreal-declaration-for-a-responsible-ai/

50 

Micieli, Cristina (2007). El cuerpo como construcción cultural. AISTHESIS, 42, 47-69.

51 

Monasterio, Aníbal (2017). Ética algorítmica: Implicaciones éticas de una sociedad cada vez más gobernada por algoritmos. Dilemata, 9(24), 185-217.

52 

Mora, Leidy; Pineda, Gustavo; Londoño, David y Vásquez, Ana (2021). Formación humana: de la deshumanización tecnológica a la reconstrucción del cuerpo. Horizontes Pedagógicos, 23(1), 1- 9. https://doi.org/10.33881/0123-8264.hop.23101

53 

Nguyen, C. Thi. (2020). Echo chambers and epistemic bubbles. Episteme, 17(2), 141-161. https://doi.org/10.1017/epi.2018.32

54 

Ortega y Gasset, José (2013). El hombre y la gente. Madrid: Alianza Editorial.

55 

Page, Matthew. (2021). Declaración PRISMA 2020: una guía actualizada para la publicación de revisiones sistemáticas. Revista española de cardiología, 74(9), 790-799. https://doi.org/10.1016/j.recesp.2021.06.016

56 

Peres, Daniel (2016). Poder, teoría queer y cuerpo Cyborg. Daimon. Revista Internacional de Filosofía, 5, 125-134. https://doi.org/10.6018/daimon/269401

57 

Pérez, Antonio. (2018). Las generaciones de derechos humanos ante el desafío posthumanista. En Tomás de la Quadra y José Piñar (eds.), Sociedad digital y Derecho (pp. 137-155). Madrid: Boletín Oficial del Estado.

58 

Pérez, Pedro (2021). Polarización artificial: cómo los discursos expresivos inflaman la percepción de polarización política en Internet. Recerca. Revista de Pensament i Anàlisi, 26(2), 1-23. https://doi.org/10.6035/recerca.4661

59 

Piñar, José (2018). Identidad y persona en la sociedad digital. En Tomás de la Quadra y José Piñar (eds.), Sociedad digital y Derecho (pp. 95-111). Madrid: Boletín Oficial del Estado.

60 

Pirela, Alexis (2001). La estética de la desaparición y la ciudad en Paul Virilio. Utopía y Praxis Latinoamericana, 6(15), 100-107.

61 

Popenici, Stefan y Kerr, Sharon (2017). Exploring the impact of artificial intelligence on teaching and learning in higher education. Research and Practice in Technology Enhanced Learning, 12, e22https://doi.org/10.1186/s41039-017-0062-8

62 

Prinsloo, Paul (2017). Fleeing from Frankenstein’s monster and meeting Kafka on the way: Algorithmic decision-making in higher education. E-Learning and Digital Media, 14(3), 138-163. https://doi.org/10.1177/2042753017731355

63 

Rojas, Yuber (2016). Cuerpo de una violencia infame. Algunas apreciaciones para una hermenéutica de la violencia. Daimon. Revista Internacional de Filosofía, 5, 747-755. https://doi.org/10.6018/daimon/273121

64 

Sánchez, Alberto (2017). El fenómeno hikikomori: tradición, educación y TIC. Arbor, 193(785), a405. https://doi.org/10.3989/arbor.2017.785n3010

65 

Saura, Geo y Bolívar, Antonio (2019). Sujeto académico neoliberal: Cuantificado, digitalizado y bibliometrificado. REICE, 17(4), 9-26. https://doi.org/10.15366/reice2019.17.4.001

66 

Serrano, Javier (2016). Internet y emociones: nuevas tendencias en un campo de investigación emergente. Comunicar. Revista Científica de Educomunicación, 46(24), 19-26. https://doi.org/10.3916/C46-2016-02

67 

Stone, Peter (ed.) (2016). Artificial Intelligence and life in 2030. Stanford University. Disponible en : https://ai100.stanford.edu/sites/g/files/sbiybj9861/f/ai_100_report_0831fnl.pdf

68 

Susser, Daniel; Roessler, Beate y Nissenbaum, Helen. (2019). Technology, autonomy, and manipulation. Internet Policy Review, 8(2). https://doi.org/10.14763/2019.2.1410

69 

Tegmark, Max (2017). Life 3.0: Being Human in the Age of Artificial Intelligence. New York: Alfred A. Knopf.

70 

Telefónica S. A. (2018). Manifiesto por un nuevo pacto digital. Una digitalización centrada en las personas. https://www.telefonica.com/manifiesto-digital/assets/manifiesto_por_un_nuevo_pacto_digital.pdf

71 

Toboso, Mario y Aparicio, Manuel (2019). Entornos de funcionamientos robotizados. ¿Es posible una robótica inclusiva?Dilemata,11(30), 171-185.

72 

Treré, Emiliano (2016). Distorsiones tecnopolíticas: represión y resistencia algorítmica del activismo ciudadano en la era del ‘big data’. Trípodos, 39, 35-51.

73 

Urabayen, Julia y León, Jorge (2016). La obsolescencia de las corporaciones foucaultianas en la era de la postmetrópoli. Daimon. Revista Internacional de Filosofía, 5, 775-784. https://doi.org/10.6018/daimon/269181

74 

Viñuela, Pedro (2016). Cuerpo, conciencia y voluntad en Nietzsche. Daimon. Revista Internacional de Filosofía, 5, 163-174. https://doi.org/10.6018/daimon/268731

75 

Virilio, Paul (1997). El cibermundo, la política de lo peor. Madrid: Cátedra.