Cuando la IA puede predecir un delito

A comienzos de este siglo, cuando la inteligencia artificial no formaba parte de ninguna discusión pública y los teléfonos inteligentes no eran parte de la vida cotidiana, la película Minority Report imaginó un problema que entonces pertenecía por completo a la ficción: la posibilidad de anticipar la comisión de crímenes antes de que ocurrieran, a partir de herramientas predictivas del comportamiento humano.

Con el tiempo, esa lógica de anticipación dejó de ser enteramente imaginaria. Primero apareció en el mundo del consumo, donde el análisis de datos permitió proyectar hábitos, preferencias y propensiones individuales. Sobre esa capacidad de anticipar conductas se construyó buena parte de la economía digital contemporánea, lo que Shoshana Zuboff describió como un mercado de “futuros probables”.

Hoy esa pregunta se desplaza a un terreno mucho más delicado. Ya no se trata de anticipar decisiones de compra, sino de preguntarse qué valor puede tener una advertencia de riesgo cuando todavía no existe delito, daño consumado ni acto punible.

Hace algunos días sorprendió la noticia de que Sam Altman, CEO de OpenAI, escribió una carta a los residentes de Tumbler Ridge, una pequeña localidad canadiense golpeada por una matanza ocurrida en febrero de este año. Según lo informado, OpenAI había bloqueado previamente una cuenta vinculada a la autora del ataque por conversaciones con contenido violento, pero no informó de ello a las autoridades. Lo inquietante del episodio no es una falla técnica, sino la existencia de una advertencia previa, tratada como un asunto interno, que una vez ocurrido el daño adquiere una relevancia completamente distinta.

La primera tentación frente a casos así es equivocarse para un lado o para el otro. O pensar que toda advertencia de riesgo debiera activar una respuesta estatal inmediata, o sostener que mientras no exista delito consumado nada de lo advertido tiene importancia jurídica. Ninguna de las dos posiciones resulta satisfactoria.

En una sociedad libre, la predicción de una conducta futura no puede confundirse con culpabilidad. La expresión de fantasías violentas o conversaciones inquietantes no equivale por sí sola a la predicción de un delito, ni puede transformarse sin más en fundamento de vigilancia o intervención preventiva. Pero tampoco parece razonable tratar como irrelevante una advertencia de ese tipo cuando quien la recibe decide no hacer nada más con ella.

Ahí aparece una zona nueva y especialmente incómoda para el derecho. Durante mucho tiempo, la responsabilidad operó sobre hechos ya ocurridos: una conducta, un daño, una imputación. La lógica predictiva introduce algo distinto: conocimiento anticipado, aunque sea probabilístico, sobre una posible fuente de daño. Ese conocimiento no puede convertirse en una licencia para sacrificar libertades individuales, pero tampoco puede ser completamente indiferente para quien lo administra.

El problema del caso OpenAI es precisamente ese. No se trata de una investigación penal ni de un deber legal de denuncia claramente configurado. Se trata, más bien, de una empresa privada que habría contado con información sugerente de un riesgo serio y que, según lo conocido, decidió no ir más allá de su propia respuesta interna. Eso no convierte automáticamente su conducta en ilícita. Pero sí obliga a formular preguntas que hasta hace poco parecían prematuras: ¿qué deberes nacen del conocimiento anticipado de un riesgo?, ¿qué estándares deben exigirse a quienes administran estas herramientas? y ¿qué consecuencias puede tener no haber hecho más?

No es casual que incluso dentro del propio mundo tecnológico hoy convivan impulsos muy distintos: mientras algunos ven en la IA una herramienta para ampliar seguridad, defensa y capacidad de acción, otros empiezan a restringir el acceso a ciertos modelos, precisamente por los riesgos que su poder puede entrañar. El derecho, mientras tanto, sigue sin resolver qué hacer cuando una plataforma privada detecta un peligro serio, pero no tiene, o no cree tener, un deber claro de actuar más allá de sus propios protocolos.

Por eso, la IA no elimina la responsabilidad; la redistribuye. La cuestión ya no es solo quién causa un daño, sino también quién lo advirtió, qué hizo con esa advertencia y si era razonable no hacer nada adicional. La carta de disculpas de Altman, en ese contexto, no debiera leerse solo como un gesto comunicacional. También puede entenderse como un indicio de algo más incómodo: que incluso para la propia empresa el caso no se agota en el plano reputacional, sino que asoma como una situación potencialmente relevante desde el punto de vista jurídico. Si una organización advirtió señales previas de un riesgo serio y optó por no hacer más que aplicar su protocolo interno, la discusión puede dejar de ser solo moral y transformarse, con el tiempo, en una discusión sobre deberes, omisiones y consecuencias patrimoniales.

Ese es, probablemente, el problema de fondo. No elegir entre indiferencia privada y prevención sin límites. Lo difícil será construir criterios capaces de reconocer relevancia jurídica al conocimiento anticipado sin convertir la predicción en una forma encubierta de condena previa.

Comments

Leave a Reply

Your email address will not be published. Required fields are marked *