Síguenos en nuestro canal de Telegram:
https://t.me/spesetcivitas
.
Una crítica larga, a propósito de
Atlas of AI.
Power, Politics and the Planetary Costs of Artificial Intelligence
Kate Crawford, 2021
Yale University Press
La Inteligencia artificial (IA) y la tecnología digital nos están llevando al futuro. La pregunta es si el futuro al que nos arrastra la IA es el futuro al que queremos ir. Para saber hacia dónde se dirige y qué alternativas tenemos, conviene enmarcar nuestros dispositivos electrónicos en un contexto más amplio.
Un episodio emblemático de la historia de la IA es el momento en que Deep Blue, una computadora diseñada por I.B.M, venció a Kaspárov, el campeón mundial de ajedrez de ese entonces. Sucedió en 1997. ¿Significa que ese día las máquinas superaron en inteligencia a los humanos? Además de discutir si la definición de ‘inteligencia’ que se usa en estos casos es la correcta, vale la pena ampliar la mirada: ¿exactamente quién venció a Kaspárov y cómo lo hizo?
No fue vencido por una máquina en un día, sino por un ejército de ingenieros y computólogos, con un presupuesto enorme, que trabajaron largas jornadas durante mucho tiempo (mientras que Kaspárov era una sola persona que, si bien entrenó durante toda su vida, su desempeño en el juego le tomó exclusivamente el tiempo del juego). Pensándolo así, Kaspárov no parece tan derrotado. Sin embargo, también es verdad que los ingenieros de la computación han alcanzado muchos logros.
Las bondades de dichos logros (comunicación instantánea, eficiencia en la producción, acceso a la información), a su vez, vienen acompañadas de los intereses de sus creadores. Detrás de la aparentemente mágica tecnología digital hay una infraestructura. La idea de las máquinas como mecanismos fríos, científicos e imparciales no cuadra cuando consideramos el poder social y político que encarnan. A fin de cuentas, fueron humanos con temperamento quienes las crearon y las usan.
Hay además una trampa mercadotécnica: hablar de la ‘nube’ o el ‘internet’ a secas, sugiere una fuerza o un espacio inmaterial. Al contrario, el internet, nuestras bandejas de correo electrónico, o las asistentes como Siri, Alexa o Cortana, no son inmateriales. Necesitan pantallas, cables, baterías, plástico, microprocesadores, etc. Las maravillas de lo digital no son posibles sin éstos componentes que, en el fondo, se valen de recursos naturales.
Tampoco son bienes comunitarios. No es que el internet sea un recurso de todos como lo es el aire, que todos tenemos derecho a respirarlo (y defenderlo). Los servidores, los satélites y las redes pertenecen a personas o a grupos de personas determinados. Hay servidores a los que no puede acceder cualquiera y herramientas digitales de las que sólo dispone quien las pueda pagar; con frecuencia disponen de ellas para sus intereses privados. No nos sorprende esto, porque lo mismo sucede con otros bienes, tecnologías y sectores. Más allá de si esto es bueno o malo, vale la pena reconocer que la tecnología no es moralmente neutra, y que podemos tomar decisiones respecto de ella que empujen a nuestra sociedad hacia un buen camino, cosa que se puede ver en los tres ámbitos en que enfoca Crawford su libro: el ambiental, el social y el político.
Aunque Crawford titula su libro ‘Atlas of AI’ (En español, ‘Atlas de la inteligencia artificial’), no refiere sólo a la IA: vuelca su mirada sobre la computación en general y, en lo ambiental, sobre los costos ambientales de toda la industria electrónica. Afirma que, en la IA, la parte inteligente no es artificial y la parte artificial no es inteligente. Dado que el término es confuso (responde, en buena medida, a fines mercadotécnicos) en este artículo hablaré, más bien, de algo así como el Atlas de la computación materializada.

Las computadoras necesitan metales
Buena parte de la tesis de Crawford es que el desarrollo de la computación se apoya en una práctica de extracción y explotación de los recursos, tanto ambientales como humanos e informáticos. En cuanto a lo ambiental, argumenta que la minería de litio y la de metales raros conllevan inevitablemente un daño devastador para el planeta.
Como dije, su análisis abarca toda la cadena de suministro de la industria digital, eso la lleva a materiales que también comparten otros dispositivos electrónicos. Para ejemplificar el impacto a gran escala de las baterías de nuestros celulares y demás aparatos, recurre a un caso de dimensiones mucho mayores: los autos eléctricos. «La compañía Tesla podría describirse con mayor precisión como un negocio de baterías, más que de autos». Afirma que la batería de un Tesla Model S requiere 63kg de litio. Tal como ella advierte, la movilidad eléctrica no es (ahora) una solución ambiental perfecta. Por una parte, usamos combustible fósil para nuestras necesidades eléctricas actuales. Por otra parte, una vez que termina la vida útil de estas baterías y de las de todos los demás dispositivos electrónicos (Tesla da una garantía de 8 años, mientras que la vida promedio de un celular son cuatro años), se desechan como basura. Son contaminación sólida.
Sin embargo, Crawford está equivocada en sus cálculos. Ninguna batería de ningún auto eléctrico ocupa 63kg de litio (Li). Ella se respalda en un artículo de Fred Lambert, que, a su vez, remite a Goldman Sachs, ¡una empresa financiera!, no a algún científico o ingeniero. Además, Lambert no habla de litio (Li), sino de carbonato de litio (Li2CO3), en el cual el litio conforma menos de una quinta parte de la masa total.
De cualquier modo, el mapa que ofrece es interesante. Una de sus evidencias de devastación ambiental es el lago negro de Baotou, que se formó en Mongolia interior a partir de los desechos del procesamiento de metales raros. Dichos metales (como el cerio o el neodimio) se utilizan para las pantallas táctiles, los micrófonos y demás componentes de nuestros dispositivos. Para obtenerlos, se disuelven mezclas de minerales en ácido sulfúrico y nítrico, a escala industrial. En Baotou, los residuos de ese proceso se van al lago negro, que actualmente mide 9km de diámetro y suma más de 180 millones de toneladas de desecho. Obviamente es tóxico.

El paisaje del lago es inhóspito e indignante. Pero, a despecho del panorama que pinta Crawford, existen esfuerzos para hacer de la minería y de la electrónica una industria sustentable. Necesitamos casas, hospitales, puentes, medios de transporte y un largo etcétera que no podría existir sin la minería.
En el año 2012, en Argentina, un grupo de profesionistas de la movilidad y del sector energético formó la AAVEA (Asociación Argentina de Vehículos Eléctricos), todos comprometidos fuertemente con la sustentabilidad. Su primer presidente fue Juan Pablo Zagorodny, quien hoy en día se dedica tanto a las energías renovables como a la minería sustentable.
El trabajo de Zagorodny consiste en adaptar los procesos de las mineras, que muchas veces son procesos de 24 hrs, y reajustarlos en jornadas de 8 hrs (quizá con el triple de potencia), para que coincidan con el horario diurno de energía solar. El objetivo es implementar más energía solar y eólica, para abastecer los procesos de manera más limpia y desplazar al combustible fósil.
Él es doctor en Física por la Universidad de Bayreuth e hizo una estancia post-doctoral en la Universidad de Konstanz. Es algo robusto y lleva un gesto constantemente enérgico y entusiasta. En una videollamada, me dijo que los desechos minerales de la industria electrónica sí contaminan, pero “contaminan de una forma distinta, cuya solución es menos prioritaria. En este momento la prioridad es descarbonizar el aire”.
Le mencioné el caso del lago negro. Me explicó que se trata de malas prácticas mineras, y que existen maneras de procesar los residuos de ácido. “Un pasivo ambiental no es una buena práctica; las mineras deben remediar el daño al ambiente”, me dijo. “El problema no es la minería misma. No por ser más ético dejas de hacer minería”. En las compañías con las que él trabaja, se planifica la operación con altos estándares de ingeniería, para que no haya accidentes ni ninguna clase de pasivos ambientales, y se busca disminuir la huella de carbono.
Así que, recapitulando, los algoritmos son máquinas abstractas que, para materializarse en nuestros dispositivos, necesitan de la industria minera y de otros recursos naturales. Han existido y existen malas prácticas en la minería. Una opción es oponerse ferozmente a ella y renunciar a todos sus beneficios (que, prácticamente, están vinculados con cualquier cosa a la que consideremos parte de la ‘civilización’). Otra opción, en cambio, consiste en promover buenas prácticas. El cambio energético para descarbonizar la industria, el procesamiento de residuos y la reparación de los ecosistemas serían grandes avances.

Inteligencia artificial artificialmente (así lo dijo Jeff Bezos)
La IA tiene muy poco de artificial. Una de las técnicas más famosas de programación actuales es el machine learning (en español, ‘aprendizaje de máquina’, esto es, ‘máquinas que aprenden’), junto con las redes neuronales artificiales. Se trata de programas que, alimentados por una gran base de datos, detectan patrones que luego aplican a casos nuevos. Algunas de sus aplicaciones son los detectores faciales, los pilotos automáticos y el procesamiento de lenguaje natural.
Dichos programas no podrían funcionar sin las bases de datos con las que ‘aprenden’. A su vez, las bases de datos existen gracias a una multitud de trabajadores digitales que etiquetan y organizan la información de las bases de datos, o a usuarios de diversas plataformas que proporcionan esta información ya clasificada. Las proezas de la inteligencia artificial no son sólo obra y magia de los grandes programadores, sino también hambre y pestañas quemadas de los mal pagados obreros digitales. Crawford cita un estudio de la Organización Internacional del Trabajo:
«A pesar de que este trabajo es esencial para mantener los sistemas de IA, usualmente es muy mal remunerado. Un estudio de la Organización Internacional del Trabajo entrevistó a 3,500 obreros digitales de setenta y cinco países que, rutinariamente, ofrecen su trabajo para tareas de plataformas populares como Amazon Mechanical Turk, Figure Eight, Microworkers y Clickworker. El reporte halló que un número sustancial de estas personas ganaba menos del salario mínimo local, incluso cuando la mayoría de ellos tenían mucha educación, frecuentemente con especializaciones en ciencia y tecnología». Estos trabajadores, por supuesto, operan de manera informal, sin ningún tipo de seguridad o prestación.
Muchas personas tienen que decidir entre aceptar un subempleo o simplemente carecer de trabajo. El problema no es que las personas tengan trabajo. Eso, de primera mano, es bueno. El problema es que el trabajo no sea reconocido justamente y que las personas no sean tratadas con dignidad. Crawford describe cómo los centros de distribución de Amazon están repletos de dispensadores de analgésicos y vendajes en los pasillos. Sus trabajadores constantemente se lesionan por trabajar al ritmo de las máquinas.
Por razones como ésta, más que discutir si los humanos serán reemplazados por los robots, Crawford se enfoca en «cómo los humanos cada vez más son tratados como si fueran robots». Sin embargo, el reemplazo laboral también es un tema importante. Un grupo de economistas del MIT y de Boston University afirma que la automatización está eliminando más trabajos que los que crea; mientras que Oxford Economics (una consultora de prevención) predice, para el 2023, la pérdida de 20 millones de trabajos debido a la automatización. Ambos estudios los reporta Sue Halpern en un ensayo publicado en NYRB.
La demanda de trabajo que crea el sector digital, no obstante, está aún corta de personal. «Las universidades latinoamericanas capacitan cerca de 40,000 desarrolladores de software al año. Lo cual está muy por debajo de los 100,000 que General Atlantic, una firma americana de temas de equidad, estima que el sector tecnológico necesita actualmente», escribió The Economist hace unas semanas.
Es interesante otro punto que hace Crawford: normalmente, las grandes empresas pretenden ocultar la enorme fuerza de trabajo que requiere la IA, para dar la apariencia de procesos totalmente controlados. En gran medida esto se debe a las expectativas que las empresas atribuyen a los usuarios: «esperan trabajo barato y sin fricción». Una empresa dedicada a calendarizar agendas, x.ai, se jactaba de un sistema de IA llamado ‘Amy’. El sistema existía, pero durante las 24hrs había personal revisando cada una de las calendarizaciones de Amy y reescribiendo cada uno de sus correos. Los empleados no podían descansar ni un segundo, puesto que, si no respondían al momento las demandas de los usuarios, se descubriría que no era un simple programa lo que había detrás de los calendarios.
Otro ejemplo de esto es el Turco mecánico de Amazon (o, en inglés, Amazon Mechanical Turk), el departamento de la empresa en el que obreros digitales hacen el trabajo digital que no pueden hacer las computadoras, como detectar páginas duplicadas de un mismo producto, etiquetar parcelas de datos, detectar contenido peligroso, etc.
Se llama ‘Turco mecánico’ porque en 1770 un inventor húngaro, Wolfgang van Kempelen, creó una máquina en forma de turco que aparentemente jugaba ajedrez, y a veces ganaba. La nobleza de la época creyó en el invento. En realidad, había una persona dentro de la máquina, que era quien jugaba las partidas de ajedrez.
No sólo hay trabajo mal pagado. También hay trabajo que nosotros como usuarios, regalamos. Cuando Google nos pide mostrar que no somos un robot, con sus preguntas reCAPTCHA, y seleccionamos los recuadros que contienen semáforos o lo que sea, estamos etiquetando imágenes gratis con las que forman bases de datos, para que ellos desarrollen las herramientas de IA que después nos venden.

Discriminación 2.0 y otros prejuicios
Así que la mentalidad de explotación ha tenido lugar en algunas malas prácticas mineras y en el ámbito laboral. Un tipo más de mentalidad de explotación tiene que ver con lo digital: pensar que toda la información está ahí para ser extraída y servir a intereses privados.
Las bases de datos, puesto que reflejan nuestras condiciones sociales actuales, replican las desigualdades e injusticias que vivimos y, en consecuencia, las perpetúan. Un banco que usa IA para otorgar créditos puede estar recurriendo al código postal como único criterio. Los algoritmos que recomiendan personal a los departamentos de reclutamiento de las empresas no sugieren mujeres para los puestos altos. Los organismos de justicia de E.U.A. que recurren a la IA suelen asignar más años de prisión a las personas negras.
En 2016, un grupo de científicos de Microsoft y la Universidad de Boston, entrenaron un algoritmo con bases de datos formadas a partir de Google News, esperando que por ser trabajo exclusivamente de periodistas tendrían menos sesgos de género. Ordenaron a la máquina que rellenara la ‘x’: “Hombre es a programador lo que mujer es a x”. La máquina contestó: “ama de casa”. (Leí esto hace tiempo en un artículo de Shannon Vallor y George A. Bekey publicado por Oxford en el libro Robot Ethics 2.0; lo recomiendo.)
Querer concluir la confiabilidad de una persona para un crédito o su aptitud para un trabajo mediante estos sistemas es mera pseudociencia. De hecho, Crawford rastrea el uso del reconocimiento facial en el machine learning como heredero de los prejuicios y errores de la frenología.
Estas bases de datos se crean sin el consentimiento de las personas que figuran en ellas, muchas veces sin su conocimiento. Arman bases de imágenes faciales con los datos de los presos o con fotografías que toman cámaras dispuestas en el pasillo de alguna universidad. A partir de ahí, los obreros digitales etiquetan según los estándares que exijan las empresas o los ‘científicos de datos’. Clasifican desde si es hombre o mujer, la edad que tiene, el color de piel, si está enojada o contenta, hasta (si hay más información disponible) sus creencias religiosas, sus ubicaciones recurrentes, afiliaciones políticas, personas cercanas, situación médica, económica, etc.
En algunos momentos, valga decirlo, Crawford parece más preocupada por el modo en que se hacen las clasificaciones que por el hecho de clasificar despóticamente la información íntima o privada. Información que no proporcionamos con esos fines o que, en principio, no es clasificable. Le preocupa, por ejemplo, que las clasificaciones del sexo de las personas sean binarias: mujeres y hombres.
Una de sus referencias es la base de datos UTKFace, producida por un grupo de la Universidad de Tennessee: «Las notas de cada imagen incluyen la edad estimada de cada persona, expresada en años del cero al 116. El género es forzosamente binario: cero para masculino y uno para femenino».
El problema no está en que la clasificación sea binaria (tanto quienes defienden una naturaleza sexuada en mujer y varón, como quienes la rechazan, pueden encontrar un punto de acuerdo en esto). Lo problemático es que haya una clasificación de la información que, por derecho, no podrían usar sin nuestro consentimiento para sus fines privados. Si hubiese un diálogo de por medio, entre los recolectores de la información y las personas a las que analizan, las voces de quienes no están de acuerdo con lo binario y con otros esquemas no quedarían marginadas.
Por supuesto que, si solicitaran nuestra información de manera personal e informándonos de sus propósitos, sus proyectos y su impacto, no habría bases de datos de las dimensiones que estos ingenieros buscan. Si tenemos que decidir entre el desarrollo de un proyecto de un puñado de ingenieros y la dignidad de los habitantes de una población ¿tenemos que apoyar a los ingenieros?
El punto de Crawford también es contra la clasificación misma: «el problema de la ciencia de la computación es que la justicia en los sistemas de IA nunca será algo que pueda codificarse o computarse». Además, nombra con precisión a las compañías que están clasificando de manera más alarmante, que no tienen que ver con las bases de datos públicas como UTKFace:
«Los mecanismos de clasificación verdaderamente masivos son los que operan, a escala global, compañías de tecnología privadas, incluidas Facebook [ahora Meta], Google, TikTok y Baidu. Estas compañías operan con poca supervisión respecto de cómo categorizan y bombardean a los usuarios, y no proveen canales significativos para ser evaluadas públicamente».

El gobierno inteligente
Mucho se ha dicho ya sobre el modo en que las plataformas de redes sociales y el uso de los datos masivos ha afectado los procesos democráticos de elección de presidentes y otros representantes de estado. Crawford enarbola la evidencia de un daño estructural más profundo: empresas privadas que colaboran militar o policialmente con el estado (el estado echa mano de ellas para operar con disimulo de un modo que legalmente le está prohibido), y empresas que toman poderes y se entrometen en ámbitos que son exclusivos del gobierno.
En cuanto a lo primero, Proyecto Maven es un ejemplo claro. Se trata de un proyecto del Departamento de defensa de E.U.A., cuyo objetivo es desarrollar sistemas que detecten enemigos mediante videos recabados por drones, para después atacarlos también con drones. Contrataron a Google, y Fei-Fei Li, la jefa de IA en la empresa, ordenó ocultarles el proyecto a los empleados. Eso no obstó para que sus programadores, en 2018 se dieran cuenta de que su trabajo estaba siendo usado para matar gente. Por motivos de organización interna y reputación, Google renunció al contrato. No obstante, en su lugar, Microsoft lo aceptó campante, alegando patriotismo. Se trata de un contrato de diez mil millones de dólares.
La manera en que, por otra parte, las empresas toman poderes que le corresponden exclusivamente al gobierno, puede verse en el caso de la aplicación ‘Neighbors’ (en español, ‘vecinos’). La aplicación la produjo Amazon, sirve para que los vecinos se informen entre ellos, en tiempo real, sobre crímenes o incidentes en la colonia (cosa que, en principio, suena bien), pero está conectada directamente a los servidores de Amazon y puede vincularse con un Timbre (el producto se llama Ring) que cuenta con una cámara. Las cámaras de esos Timbres también están conectadas a los servidores de Amazon. La compañía promocionó su uso en varios departamentos de policía local. Hay un reportaje de Caroline Haskins sobre un departamento policial en Florida, en el que Amazon ofreció Timbres gratis a los policías si éstos lograban que cierto número de habitantes en el vecindario descargaran la aplicación. De tal modo que, en algunas zonas, el cuidado que le corresponde al gobierno (en específico, a los organismos locales de la policía) está pasando a manos de Amazon.
La discusión sobre qué tan públicos son los servicios que proporcionan es cada vez más vigente. ¿Facebook es una plataforma pública? ¿La información de Google lo es? En un esquema tradicional, no lo son, puesto que pertenecen a empresas privadas. Aunque el internet y las herramientas digitales no son bienes comunitarios ni naturales como el aire, muchas compañías usan los recursos públicos y comunes para sus fines privados e individuales (El Data Center de Google ha usado durante largos periodos el circuito de fibra óptica público de la ciudad The Dalles, en Oregón, a modo de concesión). Puesto que estas empresas son subsidiadas con recursos públicos, quisiéramos buscar en ellas también bienes públicos; o bien, impedirles que abusen de nuestros recursos.
Los ejemplos son principalmente de E.U.A. Crawford se respalda en un amplísimo trabajo periodístico de otras personas sobre el tema. Ella misma ofrece fotografías y evidencias propias. Un periodismo así urge en México y en los países de América del centro y del sur.

Política de la abstención
Todo esto puede sonar desilusionante, sobre todo para quienes albergamos buenas expectativas en torno al desarrollo tecnológico. Sin embargo, también resulta esperanzador, en tanto que muestra con precisión cuáles son los problemas contra los que hemos de luchar en busca de una sociedad libre. Mientras tengamos un mejor entendimiento de ellos, pondremos manos a la obra de manera más eficaz y activa.
El último apartado de Atlas of AI se titula ‘Hacia la conexión de los movimientos que luchan por la justicia’. Después de insistir en que la infraestructura y las formas de poder vinculadas a la IA apuntan directamente a la centralización del control, propone una «renovada política de la abstención». Propone, en lugar de preguntar ‘¿dónde se aplicará la IA?’, cuestionar ‘¿por qué convendría aplicarla?’, y establecer ámbitos en los que debamos abstenernos de ella.
Para complementar la propuesta de Crawford, conviene tener en mente que también hay muchas áreas grises en las que no está claro si, al implementar estas tecnologías, perdemos más de lo que ganamos o no. Para establecer ámbitos en los que debamos abstenernos de las herramientas digitales, se requiere mucho trabajo intelectual.
Su propuesta, desde una perspectiva más general, va en contra de la falacia de la inevitabilidad: pensar que, si es posible desarrollar algún tipo de tecnología, se hará inevitablemente. «Vemos atisbos de esta abstención», escribe ella, «cuando las poblaciones eligen desmantelar la policía predictiva, prohíben el reconocimiento facial y protestan en contra de calificar personas mediante algoritmos. Por ahora, estas pequeñas victorias han sido parcas y locales, la mayoría en ciudades con más recursos para organizarse, como Londres, San Francisco, Hong Kong, Portland y Oregon. Pero todas apuntan a la necesidad de movimientos nacionales e internacionales que se rehúsen al enfoque de poner por delante la tecnología y, más bien, se encarguen de las injusticias e inequidades subyacentes».
El primer paso para que países de América del centro y del sur, de Asia y de África se sumen consiste en trabajar por un periodismo que descubra los cables enredados que gobiernan nuestras pantallas, específicamente en nuestras ciudades y poblados. Sólo así entenderemos los vínculos concretos entre los problemas digitales nuestros y los de otros países, y actuaremos juntos.
Agradezco mucho la orientación y los recursos que me proporcionó Juan Pablo Zagorodny en la elaboración de este artículo. Para terminar con algo bello, les confieso que estos versos de Bécquer me inspiraron a escribir el primer párrafo:
Yo sé que hay fuegos fatuos, que en la noche
llevan al caminante a perecer;
yo me siento arrastrado por tus ojos;
pero adónde me arrastran, no lo sé.

Por Alberto Domínguez Horner
Twitter @HornerAlberto
Te invitamos a nuestras Conferencias SPES, encontrarás una sección en el menú con más información.
0 comentarios