¡Absolutamente no! De hecho, ¡AI en su estado actual crearía un sistema de justicia que es mucho menos equitativo que nuestro sistema de justicia actual!
Muchas personas tienen la idea de que las construcciones de aprendizaje automático y de inteligencia artificial nos llevarán a una era en la que las creencias y los sentimientos personales serán reemplazados por construcciones que serían lógicas y no sentimentales. Pero esto solo servirá para acentuar nuestro actual sistema de justicia desigual.
“Pero yoseph! ¡Nuestro sistema de justicia es defectuoso porque las personas son racistas / tienen sentimientos hacia alguien / son ilógicas! ¿Cómo puede una máquina exacerbar este problema? ”
- ¿Qué tan inteligente tienes que ser para estudiar ciencias políticas?
- ¿Existe un sitio web que rastrea los logros legislativos de los miembros del Congreso?
- ¿Qué puedo hacer con un título en Ciencias Políticas?
- ¿Deberían los estudiantes participar en política?
- ¿En qué se diferencia la meritocracia de Singapur de la forma en que funcionan los gobiernos occidentales?
-probablemente.
Bueno, déjame explicarte. Verá, la mayoría de las IA se construyen utilizando técnicas de aprendizaje automático. Machine Learning implica, con razón, que una máquina tiene que aprender una tarea. ¿Cómo aprende una máquina una tarea? Su creador lo llena con una cantidad extrema de datos. ¿De dónde vienen estos datos? El mundo real. ¿Qué da forma al mundo real? Personas.
Entonces, realmente la máquina aprende de las personas. ¡Y las personas son racistas / tienen sentimientos hacia alguien / son ilógicas! ¡La máquina seguirá lógicamente la (no) lógica de las personas y acentuará los defectos!
Si entrena a la IA con datos sobre la aplicación de la ley actualmente, terminará con una IA que aplica la ley exactamente como se aplica ahora, o aplicará los datos de manera aún más desigual porque podría pesar algo como competir con más fuerza que otra cosa como los ingresos porque actualmente un mayor porcentaje de personas negras están siendo sentenciadas a prisión por más tiempo que las personas blancas. Si observa este sistema desde una perspectiva externa, sería lógico concluir que la raza juega un papel más importante en la justicia que el ingreso.
Usted ve que las computadoras simplemente aprenderán nuestros prejuicios, luego las amplificarán porque son computadoras y no creen ni pocas. No tomarán en cuenta cosas como el remordimiento o las circunstancias. Pueden considerar la evidencia desacreditada (como el análisis de marcas de mordida). Definitivamente pesarán diferentes factores, factores que pueden no hacer que algunos sean culpables, más altos que otros. La computadora puede llevar a alguien que es latino, pero estaba en una ciudad en el momento del crimen y encontrarlo culpable solo porque ser latino tiene un peso mayor que el de la persona cuando ocurrió el crimen.
Si no crees que esto no puede suceder, ¡ya está sucediendo! En 2016, Microsoft creó un bot de Twitter llamado Tay para conversar con usuarios en tiempo real [1]. En poco tiempo, Tay estaba escupiendo comentarios horriblemente racistas. ¡Microsoft tuvo que desconectar sus tweets racistas accidentalmente 16 horas después de lanzarlo! ¡Otro algoritmo tomó fotos y cosas asociadas como la limpieza y el trabajo doméstico para mujeres y deportes con hombres! [2] ¡Incluso hoy en día, las IA reconocen las caras blancas mucho mejor que las caras negras porque la IA probablemente fue entrenada en un conjunto de datos que contenía principalmente caras blancas! [3]
Nada de esto fue intencional. Si construyo una IA para identificar alimentos comestibles, la comida tradicional de Zimbabwe no se identificará como comestible, porque no habría pensado entrenarla con comida de Zimbabwe. Pero no obstante, la computadora aprendió mi sesgo personal. Es lo mismo a gran escala. Si entrenamos a la IA en un sistema que tiene prejuicios, intencionalmente o de otro modo, la IA se volverá prejuiciosa. Y, por supuesto, nuestro sistema judicial está predispuesto en este momento.
Notas al pie
[1] Aquí están los despotricadores racistas más locos del bot de Microsoft Twitter
[2] Resulta que los algoritmos son racistas
[3] ‘Una máscara blanca funcionó mejor’: por qué los algoritmos no son daltónicos