Responsabilidad civil por sistemas de IA en Argentina: doctrina, jurisprudencia y desafíos actuales

La expansión de los sistemas de inteligencia artificial (IA) plantea uno de los debates más complejos del derecho contemporáneo: ¿quién responde por los daños causados por decisiones algorítmicas?

En Argentina, la cuestión aún carece de un régimen legal específico, por lo que la solución se construye a partir del Código Civil y Comercial de la Nación (CCyC), la Ley de Defensa del Consumidor y la doctrina del derecho de daños.

Este artículo analiza —con base en doctrina y precedentes reales— cómo se configura hoy la responsabilidad civil por IA en el derecho argentino.


La IA no es sujeto de derecho

El primer consenso doctrinario es categórico: los sistemas de IA no son sujetos jurídicos, sino objetos o herramientas.

Las XXIX Jornadas Nacionales de Derecho Civil concluyeron que robots y algoritmos “son objeto de derechos” y no centros de imputación jurídica.

Esto implica que:

  • No pueden ser demandados

  • No pueden ser responsables por sí mismos

  • Siempre responde una persona humana o jurídica

En términos prácticos, la pregunta jurídica correcta no es “¿qué hizo la IA?” sino “quién la diseñó, la controla o se beneficia de ella?”


Factor de atribución: tendencia hacia la responsabilidad objetiva

La mayoría de la doctrina argentina considera que los daños derivados de IA deben encuadrarse como actividad riesgosa (arts. 1757 y 1758 CCyC).

Esto conduce a un régimen de responsabilidad objetiva por riesgo creado, donde no es necesario probar culpa.

Se sostiene que el factor objetivo protege mejor a la víctima debido a:

  • Opacidad de los algoritmos

  • Multiplicidad de actores involucrados

  • Dificultad probatoria

  • Autonomía parcial del sistema

La doctrina especializada señala que el riesgo tecnológico justifica este encuadre, especialmente cuando intervienen desarrolladores, operadores y usuarios profesionales.


Sujetos potencialmente responsables

Dependiendo del caso, pueden responder distintos actores:

a) Desarrollador o fabricante

Si el daño surge de un defecto del sistema:

  • Error de diseño

  • Sesgo algorítmico

  • Falta de seguridad

  • Información insuficiente

Puede aplicarse responsabilidad por producto defectuoso (art. 40 LDC).


b) Operador o usuario profesional

Quien utiliza la IA en su actividad puede responder por:

  • Falta de supervisión

  • Uso inadecuado

  • Dependencia excesiva del sistema

  • Omisión de control humano

En Argentina ya existen precedentes en el ámbito profesional.

Caso Rosario (2025)

La Cámara Civil y Comercial de Rosario reprendeu a un abogado por utilizar citas jurisprudenciales inexistentes generadas por IA sin verificarlas.

El tribunal sostuvo que la conducta compromete su responsabilidad profesional y el deber de diligencia.

Este fallo marca un punto clave:
👉 La IA no sustituye la responsabilidad del profesional.


c) Propietario o guardián de sistemas autónomos

En analogía con vehículos o cosas riesgosas, la doctrina entiende que el dueño o guardián responde por los daños causados por sistemas autónomos.

Por ejemplo, respecto de vehículos con conducción automática, se considera aplicable responsabilidad objetiva del propietario.


d) Responsabilidad concurrente o solidaria

Debido al carácter complejo de la IA, es frecuente que varios sujetos participen en la cadena causal:

  • Programadores

  • Empresas proveedoras

  • Operadores

  • Usuarios finales

  • Integradores de sistemas

La tendencia doctrinaria admite responsabilidades concurrentes.


Problemas probatorios: causalidad y cargas dinámicas

Uno de los mayores desafíos es demostrar la relación causal entre el algoritmo y el daño.

La IA presenta características que complican la prueba:

  • Opacidad (“caja negra”)

  • Aprendizaje automático

  • Evolución del sistema con el tiempo

  • Interacción con datos externos

Por ello, la doctrina propone aplicar:

✔ Causalidad adecuada

✔ Cargas probatorias dinámicas

Estas herramientas permiten trasladar la carga de la prueba hacia quien está en mejor posición para aportarla, usualmente el proveedor tecnológico.


Jurisprudencia argentina reciente vinculada a IA

Aunque aún no existen muchos casos de daños directos causados por IA, sí hay decisiones judiciales relevantes sobre su uso.

a) Caso General Roca (Río Negro, 2026)

Una demanda civil fue rechazada porque el abogado incorporó fallos inexistentes generados por IA.

La Cámara confirmó la desestimación por inconsistencias y falta de rigor jurídico.

Esto muestra que:

👉 El uso negligente de IA puede generar consecuencias procesales y patrimoniales.


b) Responsabilidad profesional por uso de IA

La jurisprudencia argentina comienza a consolidar una regla clara:

El profesional que utiliza IA sigue siendo responsable del resultado.

La IA es considerada herramienta auxiliar, no sustituto de juicio humano.


IA y relaciones de consumo

Cuando un consumidor resulta dañado por un sistema automatizado (por ejemplo, decisiones crediticias o plataformas digitales), puede aplicarse la Ley de Defensa del Consumidor.

Esto implica:

  • Responsabilidad objetiva del proveedor

  • Inversión de la carga de la prueba

  • Solidaridad entre integrantes de la cadena comercial

La doctrina considera especialmente relevante este régimen debido a la asimetría técnica entre empresas y usuarios.


Prevención del daño y deber de diligencia tecnológica

El derecho argentino no solo repara daños; también busca prevenirlos.

En materia de IA, ello implica obligaciones como:

  • Evaluación de riesgos

  • Auditorías algorítmicas

  • Supervisión humana significativa

  • Transparencia sobre limitaciones del sistema

El incumplimiento de estas medidas puede agravar la responsabilidad.


Desafíos futuros

El marco actual presenta importantes vacíos:

  • Falta de regulación específica

  • Indeterminación de estándares de seguridad

  • Dificultad para atribuir responsabilidades en sistemas autónomos

  • Riesgos masivos o difusos

Expertos advierten que sin regulación clara las víctimas pueden quedar desprotegidas frente a daños causados por IA.


Conclusión

En el derecho argentino actual, la responsabilidad civil por sistemas de IA se estructura sobre principios clásicos adaptados a nuevas tecnologías.

Las ideas centrales pueden resumirse así:

✔ La IA no es sujeto de derecho
✔ Responde una persona humana o jurídica
✔ Predomina la responsabilidad objetiva por riesgo creado
✔ Puede haber múltiples responsables
✔ El profesional que usa IA no se exime de responsabilidad
✔ La prueba de causalidad es el principal desafío

En ausencia de una ley específica, los tribunales argentinos están construyendo gradualmente un régimen basado en el derecho común de daños, con fuerte orientación protectoria hacia las víctimas.

⚠️ Aviso: La información publicada en este sitio es de carácter general y con fines educativos. No constituye asesoramiento profesional ni reemplaza la consulta con un especialista.

Comentarios

Artículos más leídos :

Emojis de Monos para Twitter

Malware móvil iguala por primera vez en la historia al de escritorio