Algoritmo para predecir los delitos falla

Sin duda alguna la inteligencia artificial es algo que cada día está controlando mucho más nuestras vidas diarias sin que nos lleguemos a dar cuenta, ¿Pero hasta donde puede llegar su poder?

Algoritmo para predecir los delitos falla

Muchas son las aplicaciones que tiene algo tan poderoso pero a la vez peligroso como lo es la inteligencia artificial, desde salvarle la vida a una persona descubriendo cual era la enfermedad que tenía y que ningún médico había podido entender, hasta casi que decidir quién muere y quién no, al final todo depende de hasta donde nosotros queremos que su poder pueda llegar.

Comencemos con un poco de historia, en desde 1998 en los juzgados de Estados Unidos, se comenzó a utilizar un programa llamado COMPAS, que es un algoritmo con nociones básicas de inteligencia artificial que se encarga de revisar 137 parámetros distintos de un criminal para determinar sus posibilidades de volver a delinquir en el futuro.

No había sido hasta hoy, que se pusieron a revisar los registros de más de un millón de convictos, y falla más que tu tratando de levantarte al crush que tienes desde preescolar. O al menos, falla tanto como lo haría una persona sacada de cualquier hueco que sin ningún tipo de preparación ni idea de lo que está haciendo, la pusieran a ver quién va a ser maleante denuevo y quién no.

De hecho, ya hubo una vez en la que este programa COMPAS estuvo bajo el fuego de la opinión pública, una vez en la que se convirtió en el primer programa de computadora en volverse racista, ya que tenía un sesgo en el que tendía a equivocarse en contra de los ciudadanos negros, asegurando que la mayoría de ellos irían a reincidir como delicuentes en un futuro, cuando la realidad no era así. Mientras que con los ciudadanos blancos, decía que casi ninguno de ellos volvería a ser maleante, y la mayoría lo terminaba siendo denuevo.

Al final de todo, resultó que el programa y los humanos acertaron en un porcentaje bastante parecido, alrededor de aproximadamente el 65%, en una pregunta de que si un convicto reincidiría en los próximos dos años. E incluso, se acuerdan que les mencionamos originalmente que tomaba en cuenta 137 parámetros para hacer sus análisis, bueno se descubrió que sus predicciones con esos 137 parámetros son las mismas a que si solo se tuviese en cuenta dos de ellos, la edad y el número de delitos cometidos previamente, es decir que no servía para mucha cosa.

El dilema ético y moral de todo esto es que hasta donde la inteligencia artificial y la computación a estos niveles, ya que este tipo de información evidentemente afecta la vida de los exconvictos e incluso, les puede limitar sus posibilidades de reincersión en la sociedad, ya que se les puede complicar muchísimo conseguir un trabajo o cualquier otra oportunidad para poder rehacer sus vidas.


Comentarios