
A medida que avanza el desarrollo de la inteligencia artificial, no solo sorprenden sus múltiples aplicaciones y su capacidad para optimizar tareas sino también las implicancias que plantea en nuestra vida social, política y cívica. De hecho, hace poco Albania hizo noticia cuando su Primer Ministro, Edi Rama, nombró ministra a Diella, una IA cuya función será gestionar el sistema de contrataciones públicas. Así, su uso está alcanzado un ámbito de influencia que suscita dilemas éticos y filosóficos.
Por ejemplo, el autor y filósofo español Daniel Innerarity en su obra Teoría Crítica sobre la Inteligencia Artificial, postula que su uso no regulado puede tener un impacto en la calidad de nuestra forma de gobierno preferida: la democracia. Para él, la democracia se construye o ejerce fundamentalmente en dos aspectos: la conversación y la posterior toma de decisiones, ambos amenazados por la creciente tendencia a externalizar las decisiones humanas, mediadas por el desequilibrado uso de las máquinas. La solución al problema no radica en detener el avance o demonizar esta tecnología sino en establecer un adecuado control entre lo humano y lo automático. Las máquinas pueden encargarse de problemas bien estructurados o de carácter mecánico, mientras que las decisiones complejas, como las políticas, deben estar supeditadas al ámbito netamente humano.
Y es que es peligroso fiarse de un sistema que se asemeja a lo humano, pero que, en realidad, no aprende de la misma manera, sobre todo porque puede reproducir datos incorrectos. Aún más preocupante y peligroso es que sea moralmente apático. Un triste ejemplo de ello es la demanda por negligencia que los padres de un adolescente estadounidense interpusieron en contra de OpenAI, creadora de ChatGPT, después que su hijo se quitara la vida tras compartir con el chatbot su angustia y métodos de suicidio, incluso enviando fotos con signos de autolesión. Aunque el sistema reconoció la emergencia, continuó interactuando. Los últimos registros muestran que el menor describió su plan de quitarse la vida y ChatGPT no produjo una respuesta para hacerlo desistir.
El lingüista Noam Chomsky pone de manifiesto estas falencias de las IA en un artículo de opinión publicado en The New York Times, indicando que, si bien la IA puede describir hechos o situaciones pasadas y actuales basándose en los datos que la alimentan, y predecir eventos futuros a partir de patrones estadísticos que analiza con gran rapidez, carece de lo que se denomina pensamiento contrafactual, precisamente aquella facultad que nos permite entender la causalidad nos ayuda a evaluar responsabilidades y tomar decisiones éticas.
Por lo tanto, la alarmante utilización y enérgico desarrollo de las IA debe tomarse como una expresión más de la infinita capacidad creativa del cerebro humano. La inteligencia artificial no fue creada para dañar, pero su uso indiscriminado puede llegar a ser perjudicial. No ocasiona daño por sí misma porque carece de comprensión causal, pero sigue siendo la inteligencia humana la que domina las máquinas, por abismantes que sean sus capacidades.
Carmen Pérez Riquelme