Discussion about this post

User's avatar
santynieto's avatar

A ver si entiendo bien: para ustedes la IA está bien como asistente laboral, como apoyo académico, como participante de debates... ¿pero empieza a ser un problema («a convertirse en un riesgo», en sus palabras) SOLO cuando se trata de deepfakes?

Deja mucho que desear, por parte de ustedes, esa falta de cuestionamiento a las narrativas que nos imponen la IA a pesar de TODOS los riesgos y perjuicios que YA representa para las personas, como si se tratara de algo necesario, inevitable e irrversible. ¿Y si nos permitimos sopesar alternativas? ¿Todo tiene que terminar en adoptar estas tecnologías que se han encargado de vendernos como imprescindibles, a pesar de que imponen lógicas extractivistas y precarizantes sobre la vida de las personas?

Por lo pronto, les dejo un recuento de algunos «riesgos» de la IA en el presente (extraído de un trabajo en curso de mi autoría):

En primer lugar, la explotación de trabajadores en lo que la antropóloga Mary L. Gray y el científico computacional Siddarth Suri llaman «trabajo fantasma». En un ensayo publicado por la revista NOEMA, Adrienne Williams, Milagros Miceli y Timnit Gebru reportan que los sistemas de IA son dependientes del trabajo de millones de personas ocultas que «realizan tareas repetitivas bajo condiciones de trabajo precarias» y pagos paupérrimos. Estos son los anotadores de datos y los moderadores de contenido que dedican largas jornadas a trabajar como si fueran máquinas, y a ser tratados como tal, pues son sujetos a vigilancia y monitoreo constante. Hemos llegado al punto de que algunas empresas que no ofrecían servicios de IA han empezado a contratar personas literalmente para hacer el papel de sistemas de IA, personificando chatbots de atención al cliente, debido a las presiones del mercado sobre la incorporación de IA en sus productos. El mismo Jeff Bezos, director ejecutivo de Amazon, que tiene la plataforma más grande para tercerización con trabajadores fantasma, llama a este tipo de trabajo «Inteligencia Artificial Artificial».

En segundo lugar: la concentración de poder en las manos de unos pocos, exacerbando inequidades sociales. Solo seis compañías representan casi la mitad del tráfico global en internet: Google, Netflix, Meta, Microsoft, Apple y Amazon. Además, estas compañías, que en principio producen contenido o software para consumo en la red, están empeñadas, desde hace varios años, en construir imperios digitales que controlan tanto la infraestructura física de los cables submarinos que sostiene internet, como la información que corre a través de ellos. Esto ha transformado internet para que sea más privatizado que nunca.

Con los desarrollos en «Inteligencia Artificial» no será distinto: la disputa está ahora en construir y controlar la mayor cantidad posible de centros de datos, que son las instalaciones necesarias para acomodar las demandas energéticas y computacionales de los sistemas de «IA», como el manejo de un volumen absurdo de datos, así como del tráfico de solicitudes masivas por parte de usuarios alrededor del mundo.

Eso nos lleva al tercer problema: estos centros de datos tienen un impacto medioambiental muy significativo. Algunas cifras extraídas del Reporte de economía digital de 2024 de la ONU: por un lado, construir un computador de 2 kilos requiere de la extracción de 800 kilos de materia prima, y los microchips que requieren los sistemas de IA necesitan de elementos escasos, obtenidos usualmente a través de minería destructiva. Estos centros, además, producen desperdicios electrónicos con sustancias peligrosas como el plomo y el mercurio. Por otro lado, generan altos niveles de ruido a causa de los sistemas de ventilación, aire condicionado y motores de diésel que ya han causado perjuicios en la salud de residentes cercanos, como la perdida de la audición, hipertensión, insomnio y el aumento en los niveles de estrés en las hormonas. Pero quizás más preocupante que todo lo anterior en términos ambientales son el consumo de energía y de agua limpia que demandan los centros de datos, esta última con el propósito de enfriar y mantener los computadores y electrónicos con una temperatura óptima para su funcionamiento. De acuerdo con una estimación, para 2027 la demanda global de agua por cuenta de modelos de IA equivaldrá a seis veces el consumo de Dinamarca, un país con una población de seis millones de personas. Según una investigación del Washington Post y la Universidad de California, generar un correo de cien palabras con ChatGPT consume un poco más de una botella de agua, y hacerlo una vez cada semana por un año consumiría 27 litros de agua. Haciendo cálculos con números colombianos, generar un correo de cien palabras con GPT una vez a la semana por un año, desde cada hogar con internet fijo en el país, es decir, desde 8,9 millones de computadores, implicaría un consumo de más de 240 millones de litros de agua.

Ahora que en Colombia se habla tanto de escasez y razonamiento de agua, ¿cómo es que piensa el gobierno colombiano construir y mantener centros de datos para el desarrollo de Inteligencia Artificial en el país? A eso sumémosle que, según el DANE, 3,2 millones de personas no tenían acceso a agua potable en 2023. Pero el ministro de las TIC, Mauricio Lizcano, aprovechó su aparición en la Cámara de Representantes del Congreso de la República en octubre de 2024 para recalcar el interés del gobierno en construir centros de datos que presuntamente llevarán al país a ser líder en la región.

El cuarto problema es el robo masivo de datos, obras y creaciones humanas destinado al desarrollo de sistemas generativos que producen contenidos tan semejantes que pueden sustituir a los datos de entrenamiento en el mercado y competir con los artistas humanos que fueron robados.

Y el quinto, el que ustedes mencionan: la proliferación de contenidos sintéticos que reproducen sistemas de opresión y ponen en peligro el ecosistema informativo, la democracia y la confianza entre humanos.

Estos cinco problemas, que no son los únicos, me parecen suficientemente relevantes si realmente se quiere tener una conversación matizada sobre la ética en la IA. Aunque, sinceramente creo que ética e IA son ideas completamente incompatibles y no hay forma de utilizar IA que pueda encajarse en una idea concienzuda de lo ético.

Expand full comment

No posts