170 | Aprendiendo de los riesgos de la IA
¿Qué lecciones podemos aprender, hasta el momento, del uso de la IA para el ejercicio democrático? Este niusléter trae una celebración, una entrevista y una invitación.
En 2024 la Inteligencia Artificial (IA) se volvió parte de nuestra cotidianidad. Para muchos, esta tomó la forma de herramientas útiles para el trabajo o la vida personal: Gemini se volvió el asistente laboral favorito, le pedimos a Chat GPT consejos sobre nuestros debates diarios, hablamos diariamente con nuestro amigo de character.ai y ya no concebimos hacer trabajos universitarios sin Liner.
¿Pero qué sucede cuando la IA deja de ser una herramienta diaria para convertirse en un riesgo? Por ejemplo, en el caso de los deepfakes: videos, imágenes o audios generados con inteligencia artificial para imitar, de forma realista, la identidad de alguien más. Estos contenidos realizados con IA, y entrenados con videos y audios de la persona real, están siendo usados para hacer contenido pornográfico muy realista contra mujeres famosas, principalmente. La proliferación de los deepfakes han desatado una crisis en países como Corea del Sur, donde menores de edad en colegios y universidades están siendo víctimas de deepfakes pornográficos por parte de sus compañeros.
Sin embargo los deepfakes están pasando de reproducirse en páginas pornográficas y canales como Telegram, a ser armas de desinformación política en Twitter/X, Facebook y Whatsapp. Hubo ejemplos recientes de esto durante la campaña presidencial en Estados Unidos, en donde la IA se convirtió en una fuente de desinformación en algunos casos. El video de una falsa Hillary Clinton apoyando al gobernador republicano Ron de Santis, o un Joe Biden creado con IA, ejerciendo violencia transfóbica, rondaron en redes en los últimos meses para desinformar a les votantes.
Asimismo, para las elecciones regionales en Alemania, el partido de ultraderecha, AFD, utilizó la IA para crear videos de campaña que ilustran la migración como un escenario catastrófico. Parte de la población criticó estos videos como xenofóbicos y racistas. A pesar de esto, el partido fue elegido como la primera fuerza política en dos regiones.
Sin embargo, el impacto que genera el uso nocivo de la IA en la democracia va más allá de lo electoral. Algunas entidades gubarnemantales de países como Estados Unidos, están usando tecnologías de IA que reproducen prejuicios y violencias contra poblaciones minoritarias. Por ejemplo, el Servicio de Inmigración y Control de Aduanas de Estados Unidos (ICE), ha hecho uso de la IA para identificar si una publicación tiene un ‘tono despectivo’ contra el país, como insumo para aplicar reglamentos migratorios.
En Colombia, los deepfakes y otros usos nocivos de la IA en política están empezando a aparecer para desinformar en redes sociales, y hasta los periodistas están cayendo en la trampa. Por ejemplo, hace unos días, un deepfake de la cara del alcalde de Medellín, Federico Gutiérrez, fue compartido por un periodista en Twitter como si fuera contenido verídico.
¿Qué lecciones podemos aprender, hasta el momento, del uso de la IA para el ejercicio democrático? ¿De qué maneras la Inteligencia Artificial podría ser una herramienta para combatir la desinformación en los espacios digitales? ¿Cómo podemos evitar que usos nocivos de la IA, como la creación de deepfakes, se conviertan en una nueva amenaza electoral y para la democracia en general? ¿Cuáles son esas zonas grises del uso de la IA que deberíamos tener en cuenta como ciudadanos? ¿Con cuáles herramientas contamos hasta ahora para detectar los usos nocivos de la IA en nuestro día a día?
Estas son algunas de las preguntas que estaremos discutiendo en el conversatorio: Aprendiendo de los riesgos de la IA: ¿Qué replicar y qué evitar para las próximas elecciones en Colombia? Un espacio para reflexionar sobre el avance de la Inteligencia Artificial, sus usos, su necesidad de regulación y los retos que presenta para la desinformación y las democracias.
En esta conversación estarán el periodista y artista plástico Santiago Rivas, la investigadora María Camila Escobar del Centro de Investigación y Formación en Inteligencia Artificial de la Universidad de los Andes (CINFONÍA) y el profesor Juan David Gutiérrez, de la Escuela de Gobierno de la Universidad de los Andes, que investiga y enseña sobre IA.
La conversación será moderada por Nathalia Guerrero, editora de proyectos de 070. Y tendrá lugar en el auditorio ML-C de la Universidad de los Andes, este lunes 25 de noviembre a las 11 am.
El pasado domingo publicamos nuestra tercera entrevista “En el vagón de 070”. Esta vez fue una conversación sobre literatura y naturaleza con la escritora colombiana Andrea Mejía, que acaba de publicar su tercera novela “La sed se va con el río”.
Fue una conversación que zigzagueó entre el yagé, la meditación y el silencio para pasar a hablar del proceso de creación literaria en una escritora que dice que le gusta que su literatura contribuya a crear espacios de silencio. Y a la que también le interesa que la voz de la naturaleza sea la que hable en sus textos.
Hablamos de plantas y animales («esos semidioses») y del lugar de la risa en el camino del silencio.
Aquí la entrevista.
Bueno y esta semana ¡nos ganamos un Simón Bolívar!
Nuestra directora, Natalia Arenas; nuestro periodista audiovisual, Diego Forero y la ex editora de la revista, Tania Tapia, recibieron el premio en la categoría de periodismo investigativo en video por el trabajo “El ruido de las balas: ¿Quién mató al periodista Abelardo Liz?”.
Esta investigación reconstruye el asesinato del periodista indígena que grabó el momento en que una bala lo impactó, mientras cubría el desalojo de una finca de Incauca en Corinto, Cauca.

En mayo de este año, tres años después del asesinato de Abelardo Liz, los relatores de la ONU le pidieron al gobierno colombiano que investigue urgentemente este caso.
Hasta la fecha no ha habido condenas por el asesinato del periodista Abelardo Liz.
La investigación se hizo en colaboración con Bellingcat y con apoyo de La Liga Contra el Silencio.
Este es el octavo Premio Simón Bolívar que recibe 070.
Vea la investigación completa aquí.
A ver si entiendo bien: para ustedes la IA está bien como asistente laboral, como apoyo académico, como participante de debates... ¿pero empieza a ser un problema («a convertirse en un riesgo», en sus palabras) SOLO cuando se trata de deepfakes?
Deja mucho que desear, por parte de ustedes, esa falta de cuestionamiento a las narrativas que nos imponen la IA a pesar de TODOS los riesgos y perjuicios que YA representa para las personas, como si se tratara de algo necesario, inevitable e irrversible. ¿Y si nos permitimos sopesar alternativas? ¿Todo tiene que terminar en adoptar estas tecnologías que se han encargado de vendernos como imprescindibles, a pesar de que imponen lógicas extractivistas y precarizantes sobre la vida de las personas?
Por lo pronto, les dejo un recuento de algunos «riesgos» de la IA en el presente (extraído de un trabajo en curso de mi autoría):
En primer lugar, la explotación de trabajadores en lo que la antropóloga Mary L. Gray y el científico computacional Siddarth Suri llaman «trabajo fantasma». En un ensayo publicado por la revista NOEMA, Adrienne Williams, Milagros Miceli y Timnit Gebru reportan que los sistemas de IA son dependientes del trabajo de millones de personas ocultas que «realizan tareas repetitivas bajo condiciones de trabajo precarias» y pagos paupérrimos. Estos son los anotadores de datos y los moderadores de contenido que dedican largas jornadas a trabajar como si fueran máquinas, y a ser tratados como tal, pues son sujetos a vigilancia y monitoreo constante. Hemos llegado al punto de que algunas empresas que no ofrecían servicios de IA han empezado a contratar personas literalmente para hacer el papel de sistemas de IA, personificando chatbots de atención al cliente, debido a las presiones del mercado sobre la incorporación de IA en sus productos. El mismo Jeff Bezos, director ejecutivo de Amazon, que tiene la plataforma más grande para tercerización con trabajadores fantasma, llama a este tipo de trabajo «Inteligencia Artificial Artificial».
En segundo lugar: la concentración de poder en las manos de unos pocos, exacerbando inequidades sociales. Solo seis compañías representan casi la mitad del tráfico global en internet: Google, Netflix, Meta, Microsoft, Apple y Amazon. Además, estas compañías, que en principio producen contenido o software para consumo en la red, están empeñadas, desde hace varios años, en construir imperios digitales que controlan tanto la infraestructura física de los cables submarinos que sostiene internet, como la información que corre a través de ellos. Esto ha transformado internet para que sea más privatizado que nunca.
Con los desarrollos en «Inteligencia Artificial» no será distinto: la disputa está ahora en construir y controlar la mayor cantidad posible de centros de datos, que son las instalaciones necesarias para acomodar las demandas energéticas y computacionales de los sistemas de «IA», como el manejo de un volumen absurdo de datos, así como del tráfico de solicitudes masivas por parte de usuarios alrededor del mundo.
Eso nos lleva al tercer problema: estos centros de datos tienen un impacto medioambiental muy significativo. Algunas cifras extraídas del Reporte de economía digital de 2024 de la ONU: por un lado, construir un computador de 2 kilos requiere de la extracción de 800 kilos de materia prima, y los microchips que requieren los sistemas de IA necesitan de elementos escasos, obtenidos usualmente a través de minería destructiva. Estos centros, además, producen desperdicios electrónicos con sustancias peligrosas como el plomo y el mercurio. Por otro lado, generan altos niveles de ruido a causa de los sistemas de ventilación, aire condicionado y motores de diésel que ya han causado perjuicios en la salud de residentes cercanos, como la perdida de la audición, hipertensión, insomnio y el aumento en los niveles de estrés en las hormonas. Pero quizás más preocupante que todo lo anterior en términos ambientales son el consumo de energía y de agua limpia que demandan los centros de datos, esta última con el propósito de enfriar y mantener los computadores y electrónicos con una temperatura óptima para su funcionamiento. De acuerdo con una estimación, para 2027 la demanda global de agua por cuenta de modelos de IA equivaldrá a seis veces el consumo de Dinamarca, un país con una población de seis millones de personas. Según una investigación del Washington Post y la Universidad de California, generar un correo de cien palabras con ChatGPT consume un poco más de una botella de agua, y hacerlo una vez cada semana por un año consumiría 27 litros de agua. Haciendo cálculos con números colombianos, generar un correo de cien palabras con GPT una vez a la semana por un año, desde cada hogar con internet fijo en el país, es decir, desde 8,9 millones de computadores, implicaría un consumo de más de 240 millones de litros de agua.
Ahora que en Colombia se habla tanto de escasez y razonamiento de agua, ¿cómo es que piensa el gobierno colombiano construir y mantener centros de datos para el desarrollo de Inteligencia Artificial en el país? A eso sumémosle que, según el DANE, 3,2 millones de personas no tenían acceso a agua potable en 2023. Pero el ministro de las TIC, Mauricio Lizcano, aprovechó su aparición en la Cámara de Representantes del Congreso de la República en octubre de 2024 para recalcar el interés del gobierno en construir centros de datos que presuntamente llevarán al país a ser líder en la región.
El cuarto problema es el robo masivo de datos, obras y creaciones humanas destinado al desarrollo de sistemas generativos que producen contenidos tan semejantes que pueden sustituir a los datos de entrenamiento en el mercado y competir con los artistas humanos que fueron robados.
Y el quinto, el que ustedes mencionan: la proliferación de contenidos sintéticos que reproducen sistemas de opresión y ponen en peligro el ecosistema informativo, la democracia y la confianza entre humanos.
Estos cinco problemas, que no son los únicos, me parecen suficientemente relevantes si realmente se quiere tener una conversación matizada sobre la ética en la IA. Aunque, sinceramente creo que ética e IA son ideas completamente incompatibles y no hay forma de utilizar IA que pueda encajarse en una idea concienzuda de lo ético.