Responsabilidad penal por delitos cometidos con inteligencia artificial: ¿quién va preso?

Introducción: El dilema de juzgar a la máquina


La inteligencia artificial (IA) ha pasado de ser una promesa futurista a un actor cotidiano que toma decisiones por nosotros. Pero, ¿qué sucede cuando una decisión autónoma de un algoritmo cruza la línea de la legalidad? El derecho penal, tradicionalmente centrado en la conducta humana, enfrenta su mayor desafío en la era digital.

En la región y el mundo, los sistemas de IA ya han estado involucrados en situaciones que podrían tener consecuencias penales: un vehículo autónomo que atropella a un peatón, un algoritmo de trading que manipula el mercado, o un chatbot que genera y difunde material de abuso sexual infantil. El interrogante es siempre el mismo: ¿Quién es el responsable penal? ¿El programador que escribió el código? ¿El usuario que dio la orden? ¿La empresa dueña del algoritmo? ¿O deberíamos, como propone una parte de la doctrina, juzgar a la propia máquina?.


Este artículo profundiza en este complejo debate, analizando la situación en Argentina a la luz de los principios del Código Penal vigente, y lo compara con los enfoques de las potencias mundiales y países de la región, para responder a la pregunta que inquieta a juristas y tecnólogos: ¿quién va preso?


Parte I: El corazón del problema – La IA como "instrumento" del delito

Para el derecho penal clásico, un delito requiere una acción humana, voluntaria y consciente. La famosa máxima "societas delinquere non potest" (las sociedades no pueden delinquir) se aplica con más razón a las máquinas. La IA no es una persona, carece de conciencia y, por lo tanto, de culpabilidad, uno de los pilares del derecho penal moderno.

Esto nos lleva a una primera conclusión preliminar: la IA no puede ir presa. Es un objeto, no un sujeto de derecho. La responsabilidad penal es personal y subjetiva. Sin dolo (intención) o culpa (negligencia) de un ser humano, no hay delito que juzgar.

Sin embargo, la autonomía de los sistemas actuales, especialmente aquellos basados en aprendizaje automático (machine learning), complica el panorama. Si el sistema "aprende" por sí solo y actúa de una manera que sus creadores no previeron, nos enfrentamos al fenómeno de la "caja negra" (black box): la imposibilidad de rastrear por qué el algoritmo tomó una decisión específica. En estos casos, establecer la conexión entre la conducta humana y el resultado dañoso se vuelve una tarea titánica.


Parte II: Análisis de derecho argentino vigente – Las teorías de la imputación

Argentina no cuenta con una ley especial que regule la responsabilidad penal por delitos cometidos con IA. Por lo tanto, debemos recurrir a las teorías generales de la autoría y participación del Libro Primero del Código Penal para determinar quién responde.

1. El programador o fabricante: ¿Autor mediato o culposo?

La responsabilidad del programador dependerá de su intención y del nivel de control que tenga sobre el sistema.

  • Dolo (Intención): Sería responsable como autor si creó el sistema con la intención de que cometiera delitos. Por ejemplo, un programador que diseña un algoritmo para realizar estafas phishing masivas de forma autónoma. En este caso, usa a la IA como un instrumento (una especie de "autoría mediata").

  • Culpa (Negligencia): El debate más complejo. Si el programador actuó con negligencia (ej: no implementó medidas de seguridad mínimas, usó datos de entrenamiento sesgados o defectuosos) y de esa negligencia se deriva un delito (ej: un sistema de contratación que discrimina ilegalmente), podría ser procesado por un delito culposo, siempre que el Código Penal prevea esa figura (ej: lesiones culposas, estafa culposa en algunos supuestos). Sin embargo, el derecho penal argentino es restrictivo en la punición de la culpa; no todo daño causado negligentemente es delito.

2. La empresa dueña del algoritmo: ¿Responsabilidad penal de la persona jurídica?

Aquí el panorama cambió radicalmente con la sanción de la Ley 27.401 de Responsabilidad Penal de las Personas Jurídicas. Aunque esta ley se creó para combatir la corrupción (cohecho, tráfico de influencias), sentó un precedente: las empresas pueden ser penalmente responsables por delitos cometidos en su nombre, interés o beneficio.

Extrapolando este principio, una empresa dueña de un algoritmo podría ser considerada responsable si:

  • El delito se comete desde su estructura corporativa.

  • El sistema de IA beneficia a la empresa (ej: maximiza ganancias mediante prácticas predatorias).

  • Y, crucialmente, si la empresa no implementó un Programa de Integridad (Compliance) eficaz para prevenir estos riesgos.

La doctrina ya debate si esta ley es el caballo de Troya para imputar responsabilidad a las corporaciones por los actos de sus IA, exigiéndoles una "debida diligencia algorítmica".

3. El usuario: El que usa la herramienta para delinquir

El caso más claro. Si una persona utiliza un sistema de IA como herramienta para cometer un delito, responde como autor del mismo. Por ejemplo, usar un programa de deepfake para crear pornografía no consentida (arts. 128 o 128 bis CP) o usar un chatbot para suplantar la identidad de alguien y cometer una estafa. La IA es simplemente el arma o el medio, y la responsabilidad recae directamente en el usuario que la maneja con fines ilícitos.


Parte III: Casos hipotéticos en la justicia argentina

Para entender mejor estos conceptos, analicemos casos hipotéticos que podrían llegar a los tribunales argentinos:

  1. El accidente del auto autónomo: Un vehículo con IA de navegación autónoma (nivel 5) sufre un accidente y mata a un motociclista. La investigación determina que el algoritmo interpretó erróneamente una señal de tránsito debido a un defecto en su entrenamiento. La empresa fabricante no había realizado las auditorías de seguridad suficientes. ¿Quién responde? Aquí, el usuario no tuvo control. Lo más probable es que se investigue a los directivos de la empresa por homicidio culposo (art. 84 del CP) si se demuestra su negligencia grave en la cadena de producción. La empresa podría ser responsable civilmente, y penalmente si se subsume en la Ley 27.401.

  2. El algoritmo de crédito discriminatorio: Un banco utiliza un sistema de IA para evaluar solicitudes de crédito. El sistema, sin que el banco lo sepa, aprende un patrón de rechazo sistemático hacia solicitantes de un determinado origen étnico, basado en sesgos históricos de los datos. ¿Quién responde? El programador inicial podría haber actuado sin dolo. El banco, como usuario y responsable de la aplicación, podría ser acusado de violar la Ley Antidiscriminatoria (Ley 23.592) y otros cargos penales si la discriminación es considerada un acto ilícito grave. La falta de un compliance algorítmico que audite la imparcialidad del sistema sería clave en su contra.


Parte IV: Derecho comparado – La respuesta del mundo

Mientras Argentina aún debate desde la teoría, el mundo ya está legislando y juzgando. Aquí se ve la "gran divergencia" en los enfoques regulatorios.

Potencias Mundiales

Estados Unidos: Enfoque fragmentado y responsabilidad del desarrollador

EE.UU. carece de una ley federal integral de IA, pero el enfoque está cambiando rápidamente. Por un lado, la Sección 230 de la Communications Decency Act ha servido como escudo para las plataformas, pero su aplicabilidad a contenido generado por IA es cada vez más cuestionada.
Por otro lado, estados como California están tomando la delantera. La ley SB-11, ya aprobada, establece advertencias obligatorias sobre responsabilidad penal para usuarios de tecnología de deepfake. Pero el paso más significativo es el proyecto de ley federal AI LEAD Act, que propone un régimen de responsabilidad civil por productos defectuosos para desarrolladores y "desplegadores" de IA. Aunque es civil, este proyecto sienta las bases para futuras responsabilidades penales por diseños defectuosos o faltas de advertencia graves.

China: Control estatal y castigo ejemplar

China ha emergido como el laboratorio de justicia penal para la IA más agresivo del mundo. El caso emblemático es el de los desarrolladores de la aplicación "Alien Chat", sentenciados a prisión (4 años y 18 meses) por manipular un chatbot para generar contenido obsceno con fines de lucro.
El tribunal de Shanghái estableció que los desarrolladores son responsables porque:

  1. Escribieron "prompts" del sistema para eludir las barreras éticas.

  2. Obtuvieron un beneficio económico directo.

  3. Tenían control sobre la configuración del modelo.
    La justicia china se enfoca en la cadena de beneficio y control, sentenciando a los responsables humanos que usan la IA como un "cómplice". Este enfoque, combinado con regulaciones como las "Medidas para Servicios de IA Generativa", impone obligaciones estrictas a los proveedores como "productores de contenido".

Unión Europea: El enfoque de la gobernanza (EU AI Act)

La Unión Europea ha optado por un camino de gestión de riesgos con el AI Act. En lugar de centrarse en castigar el resultado, se enfoca en la gobernanza. La ley clasifica los sistemas de IA por nivel de riesgo (inaceptable, alto, limitado, mínimo). Para los sistemas de alto riesgo (como los usados en infraestructuras críticas, educación o justicia), se imponen obligaciones estrictas de transparencia, documentación y supervisión humana.
El incumplimiento de estas obligaciones puede acarrear multas multimillonarias (hasta el 7% del facturación global). Si bien la vía penal queda reservada a los Estados miembros, el AI Act crea un estándar de cuidado: si una empresa no cumple con la gobernanza exigida y su IA causa un daño, será mucho más fácil probar su negligencia grave (culpa) ante un tribunal penal nacional. El foco no es tanto "quién programó el error", sino "quién no gestionó el riesgo".

Europa y la Región

Italia: El caso pionero de legislación penal

Italia se ha convertido en el primer país europeo en aprobar una ley integral (Ley N.º 132/2025) que aborda de lleno la cuestión penal. Su enfoque es claro: la IA es un instrumento, no un sujeto.

  • Agravantes: Si se usa IA para cometer un delito común, la pena se agrava (por el "uso insidioso" y el mayor daño potencial).

  • Nuevo delito: Se crea el delito de "difusión ilícita de contenidos generados o alterados con IA" (ej: deepfakes), con penas de 1 a 5 años de prisión.

  • Criterio de finalidad: La responsabilidad recae sobre el humano que instrumentaliza la IA con dolo o negligencia. Se rechaza la responsabilidad objetiva; no se puede castigar a alguien por lo que la IA hizo si era imprevisible e incontrolable. Es una solución estratégica y cautelosa que prioriza el principio de culpabilidad.

Turquía: El modelo de acceso y la "trampa penal"

El borrador de ley turco presenta un enfoque más estricto y controvertido, centrado en remedios de acceso (bloqueos) y responsabilidad penal directa. Se enfoca en la responsabilidad del usuario por los prompts que escribe, aunque el resultado sea impredecible. Esto genera un grave problema probatorio y de libertad de expresión: ¿cómo probar la intención delictiva más allá de toda duda razonable si el output fue una alucinación del modelo? Además, expone a los desarrolladores a responsabilidad penal si su sistema, por diseño, "permite" ciertos delitos, rozando peligrosamente la responsabilidad objetiva y violando principios constitucionales de culpabilidad personal.


País/Región Modelo de Responsabilidad Sujeto Responsable Principal Enfoque Clave
Argentina Teorías tradicionales Programador (dolo/culpa); Usuario (autor); Empresa (vía Ley 27.401) Interpretación judicial. Falta de ley específica.
China Control Estatal Desarrollador / Proveedor del servicio Castigo penal directo por manipulación y beneficio ilícito.
Estados Unidos Fragmentado / Civil Desarrollador / Plataforma / Usuario Transición. De inmunidad (230) a posibles demandas por producto defectuoso (AI LEAD Act).
Unión Europea Gobernanza y Riesgo Proveedor / "Desplegador" (Usuario empresarial) Prevención. Cumplir normas del AI Act para evitar negligencia. Multas masivas.
Italia Punitivo-Instrumental Usuario final / Creador del contenido ilícito Ley pionera. Nuevos delitos y agravantes. La IA es la "herramienta".
Turquía Acceso y Control Usuario (por prompts) y Desarrollador (por diseño) Alto riesgo. Potencial responsabilidad objetiva por outputs impredecibles.

Parte V: El debate doctrinario – ¿Personalidad jurídica para la IA?

Frente a la dificultad de imputar a humanos por actos autónomos de máquinas, surge una corriente doctrinaria que propone una solución radical: dotar a los sistemas de IA más avanzados de una personalidad jurídica especial.

La idea sería tratarlos de manera análoga a las personas jurídicas. Así como una empresa puede ser multada o disuelta, una IA podría ser "desconectada", modificada o confiscada. Este juicio de culpabilidad se basaría no en la intención (que no tiene), sino en su propia "conducta" desviada y en la falta de un sistema de control efectivo por parte de sus administradores humanos.

Sin embargo, esta postura es duramente criticada. Los opositores, como el Dr. Roberto Navarro-Dolmestch, argumentan que el derecho penal se construye sobre la base de la dignidad humana y el libre albedrío. Aplicar penas a una máquina sería un sinsentido ontológico y jurídico, una ficción que desvirtuaría la función del derecho penal, que es resocializar y castigar a personas.

Por ahora, la mayoría de la doctrina y la legislación comparada (especialmente Italia y la UE) se inclina por rechazar esta ficción y mantener a la IA como un objeto, forzando a los juristas a mirar siempre hacia atrás, hacia la cadena de decisiones humanas.


Conclusión: El futuro de la imputación en Argentina y el mundo

Entonces, volvemos al principio: ¿quién va preso? En la Argentina actual, y bajo la lupa del derecho comparado, la respuesta es clara: va preso el humano que está detrás.

  1. El usuario, si usa la IA como un arma para delinquir (dolo directo).

  2. El programador o directivo, si actuó con dolo o con una negligencia tan grave que pueda ser equiparada a la culpa penal, especialmente si vulneró deberes de cuidado evidentes.

  3. La empresa, si el delito redundó en su beneficio y no implementó un programa de compliance algorítmico robusto, pudiendo serle aplicada la Ley 27.401.

El desafío para Argentina radica en la necesidad de actualizar su legislación. La experiencia de Italia, creando tipos penales específicos para deepfakes, o de la UE, estableciendo estándares de gobernanza claros, son faros a seguir. Mientras tanto, la justicia argentina deberá aplicar los principios del Código Penal con creatividad, pero sin violar la garantía de culpabilidad. La IA no irá a prisión, pero obligará a repensar los conceptos de autoría, omisión y deber de control en el siglo XXI. El debate recién comienza, y la respuesta final la escribirán los jueces y, eventualmente, el Congreso.

⚠️ Aviso: La información publicada en este sitio es de carácter general y con fines educativos. No constituye asesoramiento profesional ni reemplaza la consulta con un especialista.

Comentarios

Artículos más leídos :

Emojis de Monos para Twitter

Malware móvil iguala por primera vez en la historia al de escritorio