Lo más probable es que la respuesta sea sí. Qué tan malo depende de cuán conscientes nos volvamos de los peligros y, por lo tanto, qué regulaciones legales establezcamos para controlar las desventajas. Francamente, no soy optimista, limitaremos esto de manera efectiva.
Uno de los avances más notables en las técnicas de IA ha sido algo llamado Deep Learning . Se está aplicando con éxito en una amplia variedad de dominios, que van desde los automóviles que aprenden a conducir observando a los humanos hasta el comercio rentable de acciones mediante el examen de las transacciones anteriores. Está comenzando a producir resultados notablemente predictivos en campos tan diversos como la medicina y la aplicación de la ley, el desarrollo de productos farmacéuticos y la investigación social.
- Estudio bíblico: ¿Cómo afecta la fornicación los derechos de los demás?
- ¿Cómo se pueden conciliar los reclamos competitivos del relativismo cultural y los derechos humanos universales?
- ¿Estamos castigando al malo o al bueno al encarcelar a esos delincuentes durante muchos años y causar una pesada carga financiera a los contribuyentes inocentes?
- ¿Cómo abordan los diplomáticos occidentales los problemas con países donde la "cara" y el "honor" son muy valorados?
- ¿El esquema de Aadhaar viola nuestro derecho a la privacidad?
No te equivocas al pensar que estamos al borde de un salto evolutivo en IA, lo que significa que tu pregunta está muerta en el objetivo.
Eso sí, no me preocupo por Terminators artificialmente inteligentes o un Skynet en control de armas nucleares; Me gustaría pensar que no somos tan estúpidos. Más bien, el desafío es imaginar las formas en que la IA podría aplicarse de formas más mundanas y prosaicas, y comprender la complejidad de los resultados decididamente no relacionados con Hollywood.
Uno que me preocupa mucho se llama Análisis de datos predictivos, en el que los sofisticados motores de aprendizaje profundo se entrenan utilizando conjuntos de datos penales especiales, que incluso pueden incluir ADN, y luego se liberan en grandes cantidades de datos de consumidores sobre ciudadanos comunes. (He publicado sobre esto varias veces porque creo que es potencialmente una de las mayores amenazas que enfrentamos de la IA; aquí hay un blog detallado sobre el tema).
En la medida en que el análisis predictivo de datos dé frutos, o sea percibido como valioso incluso si no es efectivo, agregará aún más motivación a los beneficios ya convincentes de la recopilación de datos. Además, y aquí es donde se pone realmente aterrador, la inteligencia artificial podría dar lugar a abusos horribles contra los derechos humanos si alguna vez optamos por ” actuar antes que los hechos ” al asignar o incluso detener a las personas que el sistema predice que tienen un gran potencial de delitos graves, pero antes cualquier delito se comete, antes de que hagan algo malo en absoluto. Puedes leer El verdadero peligro de la IA para profundizar en eso.
En cuanto a los datos que ya se están recopilando, es asombroso: los agujeros negros digitales lo describen con considerable detalle. El análisis predictivo de datos también puede ser muy útil: ¿cuántas personas comprarán realmente un boleto para un evento deportivo o vuelo de avión en particular? ¿Una persona específica y específica comprará este jabón o champú? ¿Qué consejo podría dar un sistema de IA a un vendedor para cambiar las mentes de personas específicas y específicas?
La IA tiene el potencial de guiar una persuasión asombrosamente poderosa. Considere cómo podría ser aplicado al proceso político por candidatos bien financiados, por ejemplo.
Entonces sí, si no lo controlamos estrictamente, puede haber graves riesgos para la privacidad del consumidor y los derechos humanos.