Noticias SER
Logo SER

El síndrome de la caja negra

Enviado el 20/09/2017

Imagen: Diseñado por Tej3478 CC BY-SA 4.0 (http://creativecommons.org/licenses/by-sa/4.0)], via Wikimedia Commons.

Una pequeña encuesta, ¿cuántas veces haciendo la cola para la ventanilla de atención al cliente de algún servicio has escuchado la explicación “el sistema no funciona”? ¿Qué es exactamente lo que se esconde detrás de esa palabra que hace que no se pueda refutar tal argumento? En 1995, William Stahl publicó un análisis del lenguaje sobre cómo la revista Time cubrió las noticias relacionadas a la introducción de nuevas tecnologías entre 1979 y 1988. En el estudio se argumentó que la revista hacía uso de dos recursos: las metáforas relacionadas con la magia y/o religión, y la antropomorfización de la tecnología, ambas utilizadas para explicar el “funcionamiento” de las computadoras personales. Se demostró que a través del uso de estos recursos, las computadoras se retrataban como poderosas, pero también mágicas. Tomando las palabras de Arthur Clarke (1973), Stahl explica que cuando una tecnología es lo suficientemente avanzada es indistinguible de la magia y que cuando esto sucede se convierten en mágicas cajas negras. Las cuales no se pueden dominar, pero sí en cambio confiar en la opinión de “expertos” para tratar de entenderlas.

Propongo desarrollar el ejercicio intelectual de “actualizar” este enfoque de manera muy breve a la enunciación de: “el sistema”, y la introducción de la inteligencia artificial” (IA) y las “redes neuronales”.

Uso de metáforas

¿Recuerdan palabras como “magic” (magia) y  “wizard” (mago) en los sistemas operativos y su publicidad en los años noventa? Llama la atención que se utilicen palabras correspondientes al terreno de la religión o la magia (Durkheim, 1915) para explicar los componentes y funciones del software. Stahl plantea que con el fin de entender comportamientos complejos, como sociedad, recurrimos al lenguaje cultural de la magia y la religión. Apliquemos esa idea a la introducción de sistemas complejos que requieren cierto nivel de especialización para entenderlos, un camino más “democrático” es recurrir a metáforas con los que la mayoría están familiarizados. De esta manera, se logra describir los supuestos funcionamientos de nuevas tecnologías.

Sin embargo, es pertinente reflexionar sobre el tipo de problemas que desde el lenguaje y la cultura trae el uso de la metáfora en este contexto. Por ejemplo, pasemos a analizar la coartada “en el sistema no figura”. Hagamos el ejercicio de reemplazar la palabra sistema por “Biblia”. El resultado es el mismo, ambas palabras se utilizan para describir algo inefable que no puede ser debatido. El tratar un sistema como una Biblia no ayuda a explicar las variables ni las lógicas detrás de la arquitectura de un programa y la toma de decisiones automatizadas. En otras palabras, escudándose bajo un discurso con bases religiosas y/o mágicas no se puede llegar a cuestionar un sistema.

La antropomorfización de la tecnología

Ian Bogost propone que actualmente entre el software y la neurociencia hay una suerte de colaboración en las metáforas usadas. Esto se hace evidente gracias a que la IA plantea el supuesto que las computadoras imitan el funcionamiento de un cerebro humano. Esta descripción se ajusta al concepto de antropomorfización de la tecnología, acción por la cual se otorga características inherentemente humanas a sistemas digitales. Al “dotar” una aplicación con IA se le atribuye algo que supuestamente era exclusivo de la humanidad: la inteligencia. Asimismo, si extendemos esta lógica a la “redes neuronales”, el uso metafórico para este modelo computacional termina brindándole, además de cualidades humanas, atributos divinos. No sorprende la relación de la IA con otro tropo de la religión: la inteligencia divina. Como resultado tememos la mitificación de la IA, que en realidad se basa de colección de conjuntos de datos (data sets) y modelos computacionales, entre otras cosas.

Bogost llega a la conclusión que en el momento que equiparamos la informática con el pensamiento llegamos a la fase en la que la percepción de las tecnologías se hace con un fervor casi religioso. Debido a este uso de recursos, la relación cultural con la tecnología se hace propensa a desarrollar expectativas mágicas o divinas que se manifiestan en el tecno-fetichismo.

Desmitificando las caja negras

Cabe preguntarse si es que la computación, a partir del uso de metáforas y la antropomorfización, se ha convertido en una nueva religión. Los términos que he analizado debido a su enunciación, se transforman en cajas negras, acción conocida también como blackboxing (Fujimura & Latour, 1989). Estas enturbian y ocultan los procesos que suceden en su interior. De igual manera, estas cajas negras en las que se presentan las nuevas tecnologías, representan la relación actual que se mantiene con la ellas: no se sabe cómo operan, son mágicas.

En última instancia estos discursos están atados a las relaciones de poder, y control y al rol que se le da a la tecnología en nuestras sociedades. Porque cuando alguien enuncia que “el sistema no lo permite” también se sitúa a este  último en un lugar muy privilegiado, casi como un altar.

Por todo lo dicho es menester comprender que esta situación para las personas no especializadas significa una brecha peligrosa. Entender qué es ese “sistema”  o el funcionamiento de la IA es un reto que trae la cultura algorítmica. Y es que en el Perú además de tener una brecha en la infraestructura informática, también tenemos la tarea pendiente de comprender el discurso de las nuevas tecnologías que van incorporándose en las esferas de la sociedad para así no caer en mitos o fetichismo tecnológico.

 

Referencias

Bogost, I. (5 de enero de 2015). The Cathedral of Computation - The Atlantic. Recuperado de: https://www.theatlantic.com/technology/archive/2015/01/the-cathedral-of-computation/384300/?0t6hgkh5781o

Clarke, A. C. 1973. Profiles of the future. New York: Harper and Row. (citado por Stahl)

Durkheim, Emile. 1915. The elementary forms of the religious life. Trans. by J. W. Smith. New York: Macmillan.(citado por Stahl)

Fujimura, J. H., & Latour, B. (1989). Science in Action: How to Follow Scientists and Engineers through Society. Contemporary Sociology.

Stahl, W. A. (1995). Venerating the Black Box: Magic in Media Discourse on Technology. Science, Technology & Human Values, 20(2),pp. 234–258.

Palabras claves

Cultura digital

Cultura algorítmica

Inteligencia artificial

Humanidades digitales

Tecnología

 

Esta semana la columna de Comadres cuenta con la colaboración especial de Karla Zavala.

La Plataforma Comadres es un espacio que busca posicionar el trabajo de las mujeres en el análisis de la política nacional e internacional.

Enviar un comentario nuevo

El contenido de este campo se mantiene privado y no se mostrará públicamente.
  • Las direcciones de las páginas web y las de correo se convierten en enlaces automáticamente.
  • Etiquetas HTML permitidas: <a> <em> <strong> <cite> <code> <ul> <ol> <li> <dl> <dt> <dd>
  • Saltos automáticos de líneas y de párrafos.

Más información sobre opciones de formato

CAPTCHA
Esta pregunta se hace para comprobar que es usted una persona real e impedir el envío automatizado de mensajes basura.
CAPTCHA de imagen
Escriba los caracteres que se muestran en la imagen.
Artículos Anteriores
Karla Zavala
Comadres
    Comentario Destacado
    Todas las fuerzas activas que influyen en el que hacer diario de la politica logran generar o mas bien mantiener el estatus de No Estado, perpetuando un vacio y un descuadre que permite que continue el caos institucional y gubernamental y el abuso de los mas poderosos. Eso es lo que nos esta llevando hacia el desempeñadero... Leer más >>
    El Video de la semana
    Haykapikaman Suyasun Programa Radial (Huanta)
    Enlaces
    texto