La Inteligencia Artificial podría predecir tus crímenes (para detenerte antes de hacerlo)

¿Recuerdas Minority Report? Pues se va a convertir en realidad.

La policía quiere usar Inteligencia Artificial para detenerte antes de que hagas una tontería y creen que esa es la manera más eficiente de reducir el número de crímenes violentos que son cometidos cada año.

Corría el año 2002, Steven Spielberg, el maestro de la ciencia ficción, acababa de estrenar Minority Report, un thriller futurista (escrito por el autor de la novela que inspiró Blade Runner, Philip K. Dick) que se desarrollaba en una sociedad híper tecnológica en la que la unidad de policías usaba la Inteligencia Artificial (y a tres hermanos misteriosos) para combatir el crimen. En esta historia, los “acusados” eran encerrados en centros de detención antes de que pudieran hacer algo mal y nadie cuestionaba su culpabilidad o la posibilidad de cambiar de opinión en el último minuto, la tecnología ya los había acusado y, ante la ley, eran culpables. Pero todo cambia cuando un policía de la unidad termina siendo acusado y debe probar su inocencia, y que su “sistema” podía cometer errores, para evitar pasar el resto de sus días cumpliendo una condena por un crimen que nunca llegaría a cometer.

Y aunque Minority Report no pretende ser una historia real, parece que eso es justo lo que es y todo es gracias a los avances que la ciencia ha logrado con la Inteligencia Artificial y su capacidad para entender patrones de comportamiento y aprender de los humanos para descifrar como podrían reaccionar (como cuando te recomienda películas o música).

La policía de West Midlands está trabajando en un prototipo que usa los modelos de Inteligencia Artificial para detectar crímenes antes de que sucedan, y según New Scientist, la Policía Metropolitana de Londres, Great Manchester y cinco equipos más son parte del proyecto que pretende combinar Inteligencia Artificial y estadísticas para intentar determinar las posibilidades que tiene una persona de cometer un crimen violento – desde violencia con un una arma hasta esclavitud moderna -, y tienen planes para usarlo en todo Inglaterra como una herramienta de prevención y control de daños.

Pero, como esta no es una película de ciencia ficción, el sistema no va a ser usado para ir por ahí arrestando personas inocentes y metiéndolas a la cárcel antes de que hagan algo malo. La intención de la policía es descubrir patrones, factores de riesgo y posibles criminales (incluyendo personas con algún desorden mental o historias de violencia) para poder conectarlos con trabajadores sociales, psicólogos y especialistas en el área con el objetivo de ayudarlos a salir de una situación potencialmente ilegal y peligrosa.

El sistema no es perfecto y hay muchos críticos que dicen que las comunidades más marginadas y las minorías se van a ver más afectadas por este algoritmo. Las estadísticas dicen que las personas de raza negra, los migrantes y otras minorías tienden a ser señalados más veces que las personas blancas, y que esto podría convertirse en una herramienta para acosar y monitorear a comunidades vulnerables aun si siguen todas las reglas y no rompen ninguna ley.

Según Amnistía Internacional, miles de personas han sido “etiquetadas” como posibles criminales simplemente por la música que escuchan o lo que comparten en redes sociales. Además, el Oxford Internet Institute dice que esto puede aumentar el nivel de paranoia en la policía, llevarlos a actuar con más fuerza y evitar que puedan tomar una decisión objetiva y bien informada. Los resultados de la Inteligencia Artificial podrían ser tomados como una prueba de culpabilidad y formar la opinión de los oficiales incluso antes de que conozcan la situación a fondo o la razón para señalar a una persona en específico.

Supuestamente, esta es una herramienta para reducir la violencia y ayudar a quienes están en situaciones de riesgo, pero definitivamente atenta contra el derecho a la privacidad y los expertos creen que también podría terminar marcando a personas que no tenían planeado cometer ningún crimen y que ahora van a ser señaladas por la policía.

No hay duda de que, en un mundo perfecto (en el que todo funciona como debería), la idea no es mala. Definitivamente sería bueno identificar a las personas que tienen más posibilidades de ser violentas para poder ofrecerles la ayuda psicológica que necesitan antes de que sea tarde. Pero no vivimos en un mundo perfecto, las cosas no siempre salen como esperamos y el factor humano (que sigue siendo importante para el manejo de la Inteligencia Artificial) significa que, por lo menos por el momento, un sistema con Inteligencia Artificial no puede ser perfecto y, en las manos incorrectas, la información que arroja puede causar más daño que bien.

¿Quieres que la policía te acose porque amas las películas de gangsters? Probablemente no, la buena noticia es que lo de Londres es solo una prueba y, si sale mal, no van a continuar con el programa.

Solo no te sorprendas si en el futuro más y más países empiezan a pensar en hacer algo parecido.

#TrendyTech #CrimenesdelFuturo

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *