Aumente la transparencia de ai mediante el modelado de decisiones de administración de decisiones de lux magi Sitios de intercambio de bitcoins

Algunos modelos de IA (predictores y análisis de aprendizaje automático) tienen una fuerte capacidad de predicción, pero son notoriamente deficientes al proporcionar cualquier justificación o fundamento para su producción. Decimos que son no interpretables u opacos. Esto significa que pueden ser entrenados para decirnos si, por ejemplo, es probable que alguien deje de pagar un préstamo, pero no puede explicar en un caso dado por qué es así.

Digamos que somos utilizando una red neuronal para determinar si es probable que un cliente incumpla con un préstamo. Después de que hemos enviado los datos del cliente (sus características) a la red neuronal y hemos logrado una predicción, es posible que deseemos saber por qué se realizó esta predicción (por ejemplo, el cliente puede preguntar razonablemente por qué se denegó el préstamo). Podríamos examinar los nodos internos de la red en busca de una justificación, pero la colección de pesos y estados de neuronas que veríamos no conlleva ninguna representación comercial significativa de la lógica del resultado. Esto se debe a que el significado de cada estado neuronal y el peso de los enlaces que los conectan son abstracciones matemáticas que no se relacionan con aspectos tangibles de la toma de decisiones humanas.

Lo mismo es cierto de muchos otros de alto rendimiento aprendizaje automático modelos. Por ejemplo, las clasificaciones producidas por las máquinas de vectores de soporte de kernel (kSVM), el vecino más cercano y los modelos de aumento de gradiente pueden ser muy precisos, pero ninguno de estos modelos puede explicar la razón de sus resultados. Pueden mostrar el límite de decisión (el límite entre una clase de resultado y el siguiente), pero como se trata de un hiperplano n-dimensional, es extremadamente difícil de visualizar o comprender. Esta falta de transparencia hace que sea difícil justificar el uso del aprendizaje automático para tomar decisiones que puedan afectar la vida de las personas y para las cuales se requiere una justificación lógica.

El uso de modelos de aprendizaje automático múltiple en grupos colaboradores (conjuntos) ha sido una práctica común durante muchas décadas. El objetivo del embolsado (una técnica de conjunto popular) es típicamente aumentar la precisión del modelo general entrenando muchos submodelos diferentes en los mismos datos, de modo que cada uno dependa de diferentes peculiaridades de esos datos. Esto es más bien como la idea de ‘la sabiduría de las multitudes’: uno obtiene resultados más precisos si hace la misma pregunta a muchas personas diferentes porque acepta su sabiduría colectiva sin tener en cuenta las idiosincrasias individuales. Un conjunto de aprendizaje automático los modelos colectivamente son menos propensos a sobreabastecer los datos de entrenamiento. Esta técnica se usa para hacer bosques aleatorios a partir de árboles de decisión. En uso, los mismos datos se aplican a muchos modelos y votan sobre el resultado.

Esta técnica se puede aplicar para resolver problemas de transparencia combinando un modelo opaco muy preciso con un modelo transparente. Modelos transparentes, como árboles de decisión generados por C5.0 de Quinlan, o conjuntos de reglas creados por algoritmos como RIPPER (Poda incremental repetida para producir reducción de errores) [1], son típicamente menos precisos que las alternativas opacas pero mucho más fáciles de interpretar. El rendimiento comparativamente bajo de estos modelos transparentes (en comparación con los opacos) no es un problema porque, en todo el conjunto de datos, la precisión de un conjunto suele ser mayor que la del mejor miembro, siempre que los miembros sean suficientemente diversos. A continuación se muestra un modelo de DMN que explica este enfoque.

Sin embargo, la ventaja real de este enfoque sobre los demás es que debido a que los modelos transparentes son árboles de decisión, reglas o modelos lineales, pueden ser representados estáticamente por un decisión Servicio. En otras palabras, el árbol de decisión o las reglas producidas por la analítica transparente se pueden representar directamente en DMN y poner a disposición de todos los interesados. Esto significa que Este enfoque no solo proporciona una explicación para cualquier resultado, sino también una comprensión (aunque sea una aproximación) de cómo se toma la decisión en general, independientemente de cualquier información de entrada específica. Usar conjuntos en la práctica

• Los resultados no concuerdan, en cuyo caso la explicación es inútil y el resultado posiblemente sea marginal. En un pequeño subconjunto de estos casos (cuando se usan técnicas como votación suave), el resultado del modelo transparente puede ser correcto, lo que hace que la explicación sea útil. Sin embargo, la confianza general en el resultado se reduce debido a la votación por partes.

Si la precisión de nuestro modelo opaco es del 99% y la de nuestro modelo transparente es del 90% (cifras obtenidas a partir de ejemplos reales), entonces la peor probabilidad de obtener un resultado preciso y una explicación plausible es del 89%. Tener una matriz paralela de modelos de decisión transparentes aumentaría esta precisión a costa de dificultar la comprensión de todo el modelo. Las explicaciones individuales mantendrían su transparencia.

banner