El software utilizado desde 1998 por el sistema judicial estadounidense para predecir la posibilidad de reincidencia de condenados, criticado por tener sesgos raciales, demostró ser menos eficiente que un grupo de humanos contratados para realizar el mismo trabajo, según un reciente estudio científico realizado en el condado de Broward, Florida.
Denominado «administrador de perfiles de delincuentes para sanciones alternativas» (Compas, por su sigla en inglés), este programa -que fue utilizado para evaluar a más de un millón de reclusos desde sus inicios- toma las decisiones al analizar 137 características personales.
El argumento de sus defensores es que es menos tendencioso que los jueces humanos.
Sin embargo, durante una prueba realizada en la Florida, Compas se enfrentó sin éxito a un 20 grupo de personas sin ningún entrenamiento legal reclutados en sitios web de Amazon Cash-for-jobs y Mechanical Turk, a los que se les dieron 50 breves descripciones de los acusados.
Los participantes lograron predecir los resultados correctos en el 67 por ciento de los casos, mientras que el software predijo los resultados correctos en un 65%.
El año pasado, el sitio estadounidense de investigaciones ProPublica alertó sobre la posibilidad de que Compas tenga sesgos raciales después de haber predicho incorrectamente una mayor tasa de reincidencia en los acusados de raza negra y una menor tasa de reincidencia en los acusados blancos.
«Demostramos que el software comercial que se usa para predecir la reincidencia no es más preciso ni justo que las predicciones de personas con poca o ninguna experiencia en justicia penal que respondieron a una encuesta online», afirmó la ingeniera de software de Dartmouth College, Julia Dressel.
Según informe el diario británico The Thelegraph, el concepto de «Robocop» está presente en ese país europeo ya que la Policía de West Midlands actualmente está probando su propio programa de inteligencia artificial, que procesa información criminal para resolver casos.