Más allá del bien y el mal: Entendiendo el impacto de la Inteligencia Artificial en la sociedad

Por Hassel Fallas Periodista y analista de datos

Inteligencia Artificial para el bien. Recientemente finalicé una especialización en IA con ese nombre. En realidad, no creo que haya tecnologías “buenas o malas” en el más maniqueo sentido filosófico que como humanidad solemos darles a las cosas. Lo que sí creo es que su impacto depende de cómo la integramos en la sociedad con nuestros valores y decisiones. Si ese impacto es positivo o no depende, únicamente, de quienes implementamos estas herramientas.

Durante la especialización aprendí cómo la IA puede ser útil para abordar algunos de los problemas más significativos que encaramos en el planeta: la salud pública, el cambio climático y la gestión de desastres.


Confieso que, en estos últimos meses, me entretuve y fasciné mucho tratando de comprender la lógica detrás los modelos y los algoritmos que el profesor Robert Monarch puso a mi alcance en numerosos jupyter notebooks de Python.

Monarch tiene más de dos décadas trabajando en proyectos de IA para organizaciones humanitarias y fue generoso en compartirnos los entretelones de cinco proyectos en los que ha aplicado la tecnología para tratar de hacer el bien:

  • Aplicación de redes neuronales y otras técnicas de IA para estimar la calidad del aire en la ciudad de Bogotá, Colombia.
  • Desarrollo de un modelo de IA para intentar hacer más predecible la generación de energía eólica, con pronósticos de 24 horas de anticipación. (Ahora estoy intentando emularlo con datos de México y Costa Rica).
  • Uso de técnicas de clasificación de imágenes para detectar y categorizar animales para el monitoreo de fauna en peligro de extinción.
  • Construcción de un flujo de clasificación de imágenes satelitales para evaluar daños después del huracán Harvey en los Estados Unidos en 2017.
  • Técnicas de procesamiento de lenguaje natural para explorar mensajes de emergencia y de ayuda después del terremoto de 2010 en Haití.

Más allá de lo interesante que ha sido auscultar en la comprensión de los métodos detrás de estos proyectos en los laboratorios de Python, la lección que más me ha impactado del programa no fue la técnica, sino más bien aquella de que siempre existe el riesgo de causar daño a las personas o comunidades en las cuales se pretende aplicar cualquier solución basada en inteligencia artificial, sin importar cuán buenas sean nuestras intenciones.

A lo largo de toda la especialización, se enfatizó repetidamente el principio de «no causar daño» como un enfoque para reflexionar antes de proponer el uso de IA como solución a un problema. Se destacó especialmente que, en muchas ocasiones, durante la fase de exploración y al dialogar con las partes interesadas, resulta fundamental y obligatorio considerar alternativas más simples para abordar el dilema en cuestión en lugar de embarcarse automáticamente en un proyecto de Inteligencia Artificial.

No siempre estas tecnologías van a generar el nivel de cambio o respuesta de alto valor que esperamos, incluso cuando estamos entusiasmados por aplicar técnicas y programar algoritmos. Así que es bueno mantener los pies en la tierra y el ego sereno.

Volviendo al tema del “principio de no hacer daño” se refiere a la idea de que, una vez que se pone en marcha una iniciativa relacionada con la IA, nadie debería verse afectado por un daño o riesgo mayor al que ya estaba expuesto antes de que se ejecutara el proyecto.

Bajo estos preceptos, la IA “para el bien” busca garantizar que sus aplicaciones sean seguras, éticas, responsables y que no tengan impactos negativos. (Personalmente creo que esto es más complejo que decidir qué técnicas y parámetros ajustar en un modelo matemático)

Por ejemplo, si en un proyecto de monitoreo y rastreo automático de imágenes de animales en peligro de extinción se publican las coordenadas exactas de dónde se encuentran estas especies, esto permitirá a los cazadores -que las han puesto en riesgo- encontrarlas más fácilmente, provocando un daño irreversible a la biodiversidad e indeseado a la comunidad.

También si usted ha automatizado la creación de un mapa del homicidio en su ciudad, podría preguntarse si incluir las coordenadas exactas de donde ocurrió cada crimen a lo largo del tiempo puede o no exponer de forma negativa a las personas y propiedades aledañas al punto y que, probablemente nada tengan que ver con el hecho. ¿Las podría estar revictimizando?

En otros casos como los de un desastre en curso suele recopilarse información de redes sociales que, en ese momento podría parecer útil, pública, no confidencial para enfrentar la emergencia, pero más adelante podría ser riesgosa para las personas si se publica una base de datos estructurada que incluya sus nombres, ubicación y mensajes. Información que puede ser usada por la delincuencia para aprovecharse del caos o por gobiernos autoritarios como fachada para identificar y silenciar críticos.

Por esa razón, en proyectos de índole tan sensible es recomendable tratar esos datos como confidenciales y no almacenarlos en ningún archivo una vez concluida la implementación. Esta decisión se tomó durante la atención del impacto del huracán Harvey en Estados Unidos, en 2017. Para ello, un equipo de especialistas desarrolló una herramienta basada en imágenes satelitales que generaba un mapa con la predicción de los lugares dañados y no dañados. Muy útil para, en ese momento, priorizar los esfuerzos de atención, pero que incluía datos privados de personas y propiedades que no convenía publicar al terminar el proyecto.

Hay que ser muy cuidadosos de no almacenar ni publicar datos privados sin el consentimiento explícito de las personas aludidas. Durante el terremoto de 2010 en Haiti, Monarch lideró Mission 4636 para traducir automáticamente al inglés miles de mensajes de ayuda enviados en criollo haitiano y agilizar la atención humanitaria del desastre por parte de organismos internacionales.

El equipo estuvo claro de que cada mensaje exponía la identidad y ubicación de las personas, por eso rechazó cualquier petición para que los datos se evidenciaran en un mapa público, por más buenas intenciones que los medios de comunicación u organizaciones de la sociedad civil tuvieran.

Ahora bien, para fines académicos o para que otras personas investigadoras puedan comprender y basarse en los modelos de IA para desarrollar otros, se puede publicar una base de datos que anonimice la información sensible, es decir que excluya cualquier dato que permita identificar personas o lugares específicos.

Como decía al inicio de este artículo, la aplicación de las tecnologías siempre conlleva responsabilidades. Más allá de la complejidad de los algoritmos, la cuestión vital reside en la ética y la precaución. El principio de «no hacer daño» es una guía fundamental en este camino para considerar las posibles consecuencias de nuestras decisiones basadas en IA.

error: No se puede descargar