El filósofo francés Éric Sadin, invitado a La Noche de la Filosofía, en el marco de sus estudios sobre el impacto de la inteligencia artificial en la vida cotidiana, advierte que esas tecnologías presuntamente facilitadoras se fundan en un “antihumanismo radical” que atenta contra la libertad de decisión de los individuos.
Nacido en 1973, Sadin es uno de los filósofos más destacados de la escena internacional por sus estudios en torno a la subjetividad digital. “La humanidad aumentada” es uno de ellos, el único traducido al español y publicado recientemente por el sello Caja Negra, donde reflexiona sobre los alcances de la administración digital de la vida.
En ese texto, habla de un nuevo estado antropológico al que llama “antrobología”, es decir, una humanidad asistida cada vez más por aparatos inteligentes (smartphones, GPS) que avanza hacia un nuevo modelo de civilización despojado de integridad, de juicio crítico y de autonomía; en tanto llama revelarse contra ese “escándalo civilizacional”.
“Vamos hacia una civilización que está determinada por la cuantificiación de los seres y del trato entre ellos, a partir de la organización algorítmica automatizada de nuestras sociedades, una gobernabilidad digital que no tiene un fin político, sino mercantilista y global, destinado a satisfacer intereses privados”, dice el filósofo.
-¿Cuál es el costo de esa gobernabilidad digital?
-Éric Sadin: Las tecnologías digitales se están desarrollando con tal potencia que banalizamos su penetración en los asuntos humanos, se inmiscuyen en nuestra vida y lo vivimos como un fenómeno normal. A partir de las generaciones X e Y somos todos culpables de esto. Practicamos una suerte de inocencia culpable desde el momento en que no nos compromete la responsabilidad de defender principios que rigen nuestra existencia hace siglos, como la autonomía de juicio, la libre decisión y la deliberación individual y colectiva, capacidades que serán erradicados en menos de una generación.
-¿Esa inocencia culpable es necesidad o ceguera colectiva?
-ES: La industria digital busca dar forma a la sociedad con la sola intención de satisfacer intereses privados a partir de una visión del mundo, y no de un proyecto político, que está en el epicentro de la innovación digital de Sillicon Valley. Esa mirada persigue la idea de que ‘dios no terminó la creación porque el mundo está lleno de errores que somos nosotros, los humanos’, a la vez que postula el milagro: ‘las tecnologías de lo exponencial llevarán a la sociedad de manera exponencial hacia lo mejor’. Ahí se entiende toda la retórica de un argumento perturbador que ya lleva 10 años: ‘la realidad tiene que ser aumentada porque es pobre, lo mismo que el cuerpo humano, y entonces vamos a aumentarlos’. Estamos ante un antihumanismo radical, ante una visión que quiere borrar todo, que niega al ser humano tal como es y que piensa a la sociedad sólo en términos de optimización. Ésta, es además una lógica implacable, porque siempre habrá fracaso, ya que los humanos siempre hacemos tonterías.
– Si la lectura de datos pasa a ser la nueva forma de comprender, decodificar y experimentar el mundo ¿Qué podría ocurrir con las capacidades sensibles del ser humano para interpretar ese mundo?
-ES: La digitalización creciente y constante busca una captación cada vez más completa de los fenómenos del mundo, lo cual produce una extrema racionalización de nuestra relación con él, es decir, un conocimiento cada vez más preciso y en tiempo real de sus fenómenos. Ésto, lo que produce, es una capacidad de reacción, tanto en los humanos como en los sistemas, para decidir en función de los datos que ese conocimiento aporta. Pero la inteligibilidad de los fenómenos a través de datos es reduccionista: ese conocimiento, que se pretende cada vez más integral, esconde fenómenos irreductibles a cuestiones algorítmicas, como los de nuestra biología sensible; y es además, el puente para relacionarse con lo real. Hay que captar esta paradoja y denunciar esta otra forma, antihumanista, de negación de una relación rica con la existencia y con lo real. El reduccionismo de lo digital plantea una relación cada vez más utilitarista con el cotidiano.
-¿Puede la interpretación de datos avanzar sobre fenómenos intransferibles, vinculados a la emoción y el sentimiento?
-ES: La ambición desmesurada de la industria digital emergente incluye entre sus desafíos el desarrollo de “la informática emocional”, la idea de que no sabemos suficiente sobre los individuos y que para eso tenemos que conquistar las cualidades y peculiaridades del comportamiento humano llegando al fondo de la psique. ¿Cómo? Mediante la captación, por parte de las compañías privadas, de estados emocionales psicológicos y de gestos cada vez más variados de lo cotidiano. Un ejemplo de esto es la celebración de tecnologías digitales de análisis de la emociones, como la israelí Beyong Verbal (más allá del verbo), que ofrece datos sobre la psicología de personas desconocidas a los que se puede acceder mediante smartphones (teléfonos inteligentes). Hay que volver a principios humanistas históricos como el derecho a resguardar partes del ser y, con esto, el derecho a la alteridad; porque en las relaciones humanas hay contradicciones y conflictos que van en detrimento de la inteligibilidad inmediata que plantea el desarrollo de esa “informática emocional”.
-¿Es posible una conquista de los sentidos por parte de la industria digital?
-ES: En la conquista de los sentidos está la guerra industrial presente y futura. Hay una visualización cada vez más profunda del comportamiento humano en los perfiles digitales y esa información es lo que se busca vender en plataformas a compañías de todo el mundo. Se trata de un estado superior del capitalismo, el “tecno- liberalismo”, en el que Google ocupa uno de los primeros puestos, que busca la monetización integral de la vida mediante el conocimiento también integral del comportamiento humano, y que está desarrollando la arquitectura necesaria para concretar esa ambición.
-¿Qué fuerzas encarnan esa gobernabilidad digital a la que usted se refiere?
-ES: Contrariamente a otros momentos de la historia en la evolución de las ciencias y las técnicas, hoy lo que determina la forma de las tecnologías, especialmente digitales, es el poder económico.
Ingenieros y científicos que en un momento fueron independientes, creando patentes que luego compraban las empresas, ahora forman parte de esas empresas y crean formas de tecnología cada vez más unilaterales y utilitaristas, porque las hacen a pedido, definidas según los intereses de esos grupos económicos. Hay una responsabilidad social sectorizada que atañe a los ingenieros, quienes deben recuperar su poder de invención y responsabilidad, porque sus producciones tienen consecuencias en la sociedad.
– ¿Qué responsabilidad le queda al resto de sociedad?
-ES: No es la técnica a lo que debemos oponernos de manera espontánea e impulsiva, sino a cierta evolución que tomó un curso unilateral, masivo y global, orientado por la cuantificación de un régimen utilitarista generalizado. El porvenir de la inteligencia artificial no es complementarse con lo humano, sino sustituir la figura humana en su provecho. Es tiempo de desarrollar contradiscursos e incluso ‘contra-expertices’, tiempo de evidenciar acciones como la digitalización de escuelas públicas -sin estudios de impacto previos y con contratos directos de empresas como IBM-, que buscan convertir a los profesores en plataformas y a los alumnos en dispositivos reactivos; cuando lo que hay que desarrollar es la capacidad de juicio y el registro de temporalidad que forma parte del proceso de aprendizaje y formación, más lento que el de los sistemas de algoritmos y con otra exigencia sobre el pensamiento.