Skip to main content

IA y responsabilidad jurídica

La Inteligencia Artificial (IA) se ha instalado en nuestro día a día casi sin darnos cuenta. Recomendaciones de música, diagnósticos médicos, cámaras que reconocen rostros o sistemas que filtran postulaciones laborales. Todo esto funciona gracias a modelos que aprenden de datos. Y si bien llegó para ayudarnos, su mal uso puede afectar derechos tan básicos como la honra, la salud y el acceso a beneficios sociales. Ante esto surge una pregunta evidente: ¿qué pasa cuando la IA se equivoca y perjudica a una persona?

El derecho chileno aún no tiene una respuesta clara. Pensemos en ejemplos reales. Un paciente recibe un diagnóstico errado porque el algoritmo interpretó mal una radiografía; un banco niega un crédito porque la IA clasificó al cliente como “riesgoso” sin explicar por qué; o una municipalidad asigna incorrectamente beneficios sociales porque el sistema se entrenó con información incompleta. ¿Quién responde? ¿El programador, la empresa que compra el sistema, o la institución que lo usa? Hoy, estas situaciones se enfrentan con reglas tradicionales de responsabilidad civil. Pero estas normas fueron creadas para conductas humanas, no para decisiones automatizadas que cambian con el tiempo. Entonces, la dificultad radica en probar dónde ocurrió el error y qué estándar de diligencia exigir, pero en modelos complejos ni siquiera es fácil identificar cómo llegaron a un resultado.

Por lo tanto, el desafío legislativo es enorme. La Unión Europea ya avanzó con el AI Act, primer reglamento exhaustivo que clasifica sistemas de IA según su nivel de riesgo. Chile podría seguir una ruta similar exigiendo evaluaciones de impacto, supervisión humana obligatoria, auditorías externas y transparencia en los datos utilizados, especialmente cuando la IA afecte derechos fundamentales.

En el sector público, el problema es aún más sensible. Si una decisión automatizada perjudica a una persona, por ejemplo, dejarla fuera del Registro Social de Hogares o asignar mal una licencia médica, el Estado debe garantizar mecanismos rápidos de corrección. La automatización no puede convertirse en una barrera para reclamar ni en una excusa para diluir responsabilidades.

El mal uso de la IA puede amplificar errores humanos. Un algoritmo entrenado con datos discriminatorios replicará esos sesgos. Un sistema de vigilancia mal configurado puede identificar falsamente a alguien como sospechoso. Un chatbot sin supervisión puede entregar consejos médicos peligrosos. La tecnología no es neutral: refleja nuestros aciertos y también nuestros prejuicios.

Por eso, la discusión no es solo técnica, sino profundamente humana. Regular la IA no significa ponerle freno, sino asegurar que sus beneficios no se transformen en daños. Chile tiene la oportunidad de avanzar hacia un modelo de responsabilidad claro, donde desarrolladores, empresas y Estado compartan deberes concretos de transparencia, seguridad y supervisión. En realidad el desarrollo tecnológico no avanza a la par con el marco legislativo pertinente; por lo tanto la interrogante ya no es si debemos regular la IA, sino que cómo podemos proteger a las personas antes de que un error algorítmico se convierta en un daño irreparable.

Francisco González Godoy

Comparte esta publicación