Responsabilidad penal por delitos cometidos con inteligencia artificial: ¿quién va preso?
Introducción: El dilema de juzgar a la máquina
Este artículo profundiza en este complejo debate, analizando la situación en Argentina a la luz de los principios del Código Penal vigente, y lo compara con los enfoques de las potencias mundiales y países de la región, para responder a la pregunta que inquieta a juristas y tecnólogos: ¿quién va preso?
Parte I: El corazón del problema – La IA como "instrumento" del delito
Para el derecho penal clásico, un delito requiere una acción humana, voluntaria y consciente. La famosa máxima "societas delinquere non potest" (las sociedades no pueden delinquir) se aplica con más razón a las máquinas. La IA no es una persona, carece de conciencia y, por lo tanto, de culpabilidad, uno de los pilares del derecho penal moderno.
Esto nos lleva a una primera conclusión preliminar: la IA no puede ir presa. Es un objeto, no un sujeto de derecho. La responsabilidad penal es personal y subjetiva. Sin dolo (intención) o culpa (negligencia) de un ser humano, no hay delito que juzgar.
Sin embargo, la autonomía de los sistemas actuales, especialmente aquellos basados en aprendizaje automático (machine learning), complica el panorama. Si el sistema "aprende" por sí solo y actúa de una manera que sus creadores no previeron, nos enfrentamos al fenómeno de la "caja negra" (black box): la imposibilidad de rastrear por qué el algoritmo tomó una decisión específica. En estos casos, establecer la conexión entre la conducta humana y el resultado dañoso se vuelve una tarea titánica.
Parte II: Análisis de derecho argentino vigente – Las teorías de la imputación
Argentina no cuenta con una ley especial que regule la responsabilidad penal por delitos cometidos con IA. Por lo tanto, debemos recurrir a las teorías generales de la autoría y participación del Libro Primero del Código Penal para determinar quién responde.
1. El programador o fabricante: ¿Autor mediato o culposo?
La responsabilidad del programador dependerá de su intención y del nivel de control que tenga sobre el sistema.
Dolo (Intención): Sería responsable como autor si creó el sistema con la intención de que cometiera delitos. Por ejemplo, un programador que diseña un algoritmo para realizar estafas phishing masivas de forma autónoma. En este caso, usa a la IA como un instrumento (una especie de "autoría mediata").
Culpa (Negligencia): El debate más complejo. Si el programador actuó con negligencia (ej: no implementó medidas de seguridad mínimas, usó datos de entrenamiento sesgados o defectuosos) y de esa negligencia se deriva un delito (ej: un sistema de contratación que discrimina ilegalmente), podría ser procesado por un delito culposo, siempre que el Código Penal prevea esa figura (ej: lesiones culposas, estafa culposa en algunos supuestos). Sin embargo, el derecho penal argentino es restrictivo en la punición de la culpa; no todo daño causado negligentemente es delito.
2. La empresa dueña del algoritmo: ¿Responsabilidad penal de la persona jurídica?
Aquí el panorama cambió radicalmente con la sanción de la Ley 27.401 de Responsabilidad Penal de las Personas Jurídicas. Aunque esta ley se creó para combatir la corrupción (cohecho, tráfico de influencias), sentó un precedente: las empresas pueden ser penalmente responsables por delitos cometidos en su nombre, interés o beneficio.
Extrapolando este principio, una empresa dueña de un algoritmo podría ser considerada responsable si:
El delito se comete desde su estructura corporativa.
El sistema de IA beneficia a la empresa (ej: maximiza ganancias mediante prácticas predatorias).
Y, crucialmente, si la empresa no implementó un Programa de Integridad (Compliance) eficaz para prevenir estos riesgos.
La doctrina ya debate si esta ley es el caballo de Troya para imputar responsabilidad a las corporaciones por los actos de sus IA, exigiéndoles una "debida diligencia algorítmica".
3. El usuario: El que usa la herramienta para delinquir
El caso más claro. Si una persona utiliza un sistema de IA como herramienta para cometer un delito, responde como autor del mismo. Por ejemplo, usar un programa de deepfake para crear pornografía no consentida (arts. 128 o 128 bis CP) o usar un chatbot para suplantar la identidad de alguien y cometer una estafa. La IA es simplemente el arma o el medio, y la responsabilidad recae directamente en el usuario que la maneja con fines ilícitos.
Parte III: Casos hipotéticos en la justicia argentina
Para entender mejor estos conceptos, analicemos casos hipotéticos que podrían llegar a los tribunales argentinos:
El accidente del auto autónomo: Un vehículo con IA de navegación autónoma (nivel 5) sufre un accidente y mata a un motociclista. La investigación determina que el algoritmo interpretó erróneamente una señal de tránsito debido a un defecto en su entrenamiento. La empresa fabricante no había realizado las auditorías de seguridad suficientes. ¿Quién responde? Aquí, el usuario no tuvo control. Lo más probable es que se investigue a los directivos de la empresa por homicidio culposo (art. 84 del CP) si se demuestra su negligencia grave en la cadena de producción. La empresa podría ser responsable civilmente, y penalmente si se subsume en la Ley 27.401.
El algoritmo de crédito discriminatorio: Un banco utiliza un sistema de IA para evaluar solicitudes de crédito. El sistema, sin que el banco lo sepa, aprende un patrón de rechazo sistemático hacia solicitantes de un determinado origen étnico, basado en sesgos históricos de los datos. ¿Quién responde? El programador inicial podría haber actuado sin dolo. El banco, como usuario y responsable de la aplicación, podría ser acusado de violar la Ley Antidiscriminatoria (Ley 23.592) y otros cargos penales si la discriminación es considerada un acto ilícito grave. La falta de un compliance algorítmico que audite la imparcialidad del sistema sería clave en su contra.
Parte IV: Derecho comparado – La respuesta del mundo
Mientras Argentina aún debate desde la teoría, el mundo ya está legislando y juzgando. Aquí se ve la "gran divergencia" en los enfoques regulatorios.
Potencias Mundiales
Estados Unidos: Enfoque fragmentado y responsabilidad del desarrollador
China: Control estatal y castigo ejemplar
Escribieron "prompts" del sistema para eludir las barreras éticas.
Obtuvieron un beneficio económico directo.
- Tenían control sobre la configuración del modelo.La justicia china se enfoca en la cadena de beneficio y control, sentenciando a los responsables humanos que usan la IA como un "cómplice". Este enfoque, combinado con regulaciones como las "Medidas para Servicios de IA Generativa", impone obligaciones estrictas a los proveedores como "productores de contenido".
Unión Europea: El enfoque de la gobernanza (EU AI Act)
Europa y la Región
Italia: El caso pionero de legislación penal
Italia se ha convertido en el primer país europeo en aprobar una ley integral (Ley N.º 132/2025) que aborda de lleno la cuestión penal. Su enfoque es claro: la IA es un instrumento, no un sujeto.
Agravantes: Si se usa IA para cometer un delito común, la pena se agrava (por el "uso insidioso" y el mayor daño potencial).
Nuevo delito: Se crea el delito de "difusión ilícita de contenidos generados o alterados con IA" (ej: deepfakes), con penas de 1 a 5 años de prisión.
Criterio de finalidad: La responsabilidad recae sobre el humano que instrumentaliza la IA con dolo o negligencia. Se rechaza la responsabilidad objetiva; no se puede castigar a alguien por lo que la IA hizo si era imprevisible e incontrolable. Es una solución estratégica y cautelosa que prioriza el principio de culpabilidad.
Turquía: El modelo de acceso y la "trampa penal"
| País/Región | Modelo de Responsabilidad | Sujeto Responsable Principal | Enfoque Clave |
|---|---|---|---|
| Argentina | Teorías tradicionales | Programador (dolo/culpa); Usuario (autor); Empresa (vía Ley 27.401) | Interpretación judicial. Falta de ley específica. |
| China | Control Estatal | Desarrollador / Proveedor del servicio | Castigo penal directo por manipulación y beneficio ilícito. |
| Estados Unidos | Fragmentado / Civil | Desarrollador / Plataforma / Usuario | Transición. De inmunidad (230) a posibles demandas por producto defectuoso (AI LEAD Act). |
| Unión Europea | Gobernanza y Riesgo | Proveedor / "Desplegador" (Usuario empresarial) | Prevención. Cumplir normas del AI Act para evitar negligencia. Multas masivas. |
| Italia | Punitivo-Instrumental | Usuario final / Creador del contenido ilícito | Ley pionera. Nuevos delitos y agravantes. La IA es la "herramienta". |
| Turquía | Acceso y Control | Usuario (por prompts) y Desarrollador (por diseño) | Alto riesgo. Potencial responsabilidad objetiva por outputs impredecibles. |
Parte V: El debate doctrinario – ¿Personalidad jurídica para la IA?
Frente a la dificultad de imputar a humanos por actos autónomos de máquinas, surge una corriente doctrinaria que propone una solución radical: dotar a los sistemas de IA más avanzados de una personalidad jurídica especial.
La idea sería tratarlos de manera análoga a las personas jurídicas. Así como una empresa puede ser multada o disuelta, una IA podría ser "desconectada", modificada o confiscada. Este juicio de culpabilidad se basaría no en la intención (que no tiene), sino en su propia "conducta" desviada y en la falta de un sistema de control efectivo por parte de sus administradores humanos.
Sin embargo, esta postura es duramente criticada. Los opositores, como el Dr. Roberto Navarro-Dolmestch, argumentan que el derecho penal se construye sobre la base de la dignidad humana y el libre albedrío. Aplicar penas a una máquina sería un sinsentido ontológico y jurídico, una ficción que desvirtuaría la función del derecho penal, que es resocializar y castigar a personas.
Por ahora, la mayoría de la doctrina y la legislación comparada (especialmente Italia y la UE) se inclina por rechazar esta ficción y mantener a la IA como un objeto, forzando a los juristas a mirar siempre hacia atrás, hacia la cadena de decisiones humanas.
Conclusión: El futuro de la imputación en Argentina y el mundo
Entonces, volvemos al principio: ¿quién va preso? En la Argentina actual, y bajo la lupa del derecho comparado, la respuesta es clara: va preso el humano que está detrás.
El usuario, si usa la IA como un arma para delinquir (dolo directo).
El programador o directivo, si actuó con dolo o con una negligencia tan grave que pueda ser equiparada a la culpa penal, especialmente si vulneró deberes de cuidado evidentes.
La empresa, si el delito redundó en su beneficio y no implementó un programa de compliance algorítmico robusto, pudiendo serle aplicada la Ley 27.401.
El desafío para Argentina radica en la necesidad de actualizar su legislación. La experiencia de Italia, creando tipos penales específicos para deepfakes, o de la UE, estableciendo estándares de gobernanza claros, son faros a seguir. Mientras tanto, la justicia argentina deberá aplicar los principios del Código Penal con creatividad, pero sin violar la garantía de culpabilidad. La IA no irá a prisión, pero obligará a repensar los conceptos de autoría, omisión y deber de control en el siglo XXI. El debate recién comienza, y la respuesta final la escribirán los jueces y, eventualmente, el Congreso.
Comentarios
Publicar un comentario