Responsabilidad civil por inteligencia artificial en Argentina
La incorporación masiva de sistemas de inteligencia artificial en actividades económicas y sociales plantea un interrogante central para el derecho civil: ¿quién responde por los daños causados por una IA?
En Argentina no existe aún una ley específica que regule la responsabilidad por decisiones automatizadas. Por ello, deben aplicarse las normas generales del Código Civil y Comercial, especialmente las relativas a responsabilidad por riesgo o vicio de las cosas y por actividad riesgosa.
Cuando una IA produce un daño —por ejemplo, un diagnóstico médico erróneo, una recomendación financiera perjudicial o una decisión automatizada discriminatoria— pueden intervenir múltiples sujetos responsables: el desarrollador del software, el proveedor del servicio, la empresa que lo implementa y, en ciertos casos, el usuario.
La doctrina discute si estos sistemas deben considerarse “cosas” riesgosas, productos defectuosos o incluso entes autónomos. La posición predominante sostiene que la responsabilidad recae en quienes obtienen beneficio económico de su uso, aplicando un criterio objetivo.
En el derecho comparado, la Unión Europea avanza hacia regímenes específicos mediante el AI Act y propuestas de responsabilidad por daños causados por IA. Argentina probablemente seguirá esa tendencia.
Mientras tanto, las organizaciones que utilicen inteligencia artificial deben adoptar medidas de compliance tecnológico, auditorías algorítmicas y supervisión humana para reducir riesgos legales.
La ausencia de regulación específica no implica ausencia de responsabilidad: el daño injusto sigue siendo indemnizable bajo el sistema vigente.
Comentarios
Publicar un comentario