Investigación – instituto de investigación de inteligencia de máquinas: ¿qué está pasando con ethereum?

MIRI se centra en enfoques de IA que pueden hacerse transparentes (por ejemplo, algoritmos de decisión específicos, no algoritmos genéticos), para que los humanos puedan entender por qué los sistemas de AI se comportan como lo hacen. Por razones de seguridad, una ecuación matemática que define la inteligencia general es más deseable que un código impresionante pero mal entendido.

Gran parte de nuestra investigación, por lo tanto, está dirigida a poner los fundamentos teóricos en el trabajo de robustez de AI. Consideramos los ajustes en los que la decisión tradicional y la teoría de la probabilidad con frecuencia fracasan: los ajustes en los que el cálculo es costoso, no hay un límite claro entre el agente y el entorno, existen múltiples agentes o se admite el razonamiento autorreferencial. Impresión electrónica de inducción en arxiv: 1609.03543 [cs.AI].

Declaración en un determinado lenguaje formal de minería ethereum, y refina esas probabilidades con el tiempo. Demostramos que satisface una serie de desiderata intuitivos, que incluyen: (1) aprende a predecir patrones de verdad y falsedad en afirmaciones lógicas, a menudo mucho antes de tener los recursos para evaluar las afirmaciones, siempre que los patrones se puedan escribir en tiempo polinomial; (2) aprende a usar resúmenes estadísticos apropiados para predecir secuencias de afirmaciones cuyos valores de verdad aparecen pseudoaleatorios; y (3) aprende a tener creencias precisas sobre sus propias creencias actuales, de una manera que evita las paradojas estándar de la autorreferencia.

Estas propiedades y muchas otras se derivan de un criterio lógico de inducción y una tarjeta gráfica de minería, que está motivada por una serie de analogías de negociación de acciones. En términos generales, cada oración lógica associated está asociada con una acción que vale $ 1 por acción si φ es verdadera y nada de lo contrario, e interpretamos el estado de creencia de un razonador lógicamente incierto como un conjunto de precios de mercado, donde P n (φ ) = 50%

Significa que el día n, las acciones de pueden comprarse o venderse del razonador por 50 ¢. El criterio lógico de inducción de la solución de etanol dice (muy aproximadamente) que no debería haber ninguna estrategia de negociación computable de tiempo polinómico con tolerancia de riesgo finita que obtenga ganancias ilimitadas en ese mercado a lo largo del tiempo. Una solución formal al problema del grano de la verdad en la incertidumbre de la inteligencia artificial: actas de la 32ª conferencia (2016).

Un agente bayesiano que actúa en un entorno de múltiples agentes aprende a predecir las políticas de los otros agentes si su prior le asigna una probabilidad positiva (en otras palabras, su anterior contiene un grano de verdad). Encontrar una clase razonablemente grande de políticas que contengan las políticas óptimas de Bayes con respecto a esta clase se conoce como el grano del problema de la verdad. Solo se sabe que las clases pequeñas tienen un gran equilibrio entre la verdad y la literatura contiene varios resultados de imposibilidad relacionados.

En este documento, presentamos una solución formal y general para el problema completo de la verdad: construimos una clase de políticas que contiene todas las políticas computables así como también las políticas de Bayes para cada semicomputable inferior anterior a la clase. Cuando se desconoce el entorno, los agentes de Bayes-óptimo pueden no actuar de manera óptima, incluso asintóticamente. Sin embargo, los agentes basados ​​en el muestreo de Thompson convergen para reproducir equilibrios ε-nash en entornos de múltiples agentes computables desconocidos arbitrarios. Si bien estos resultados son puramente teóricos, mostramos que pueden ser muy aproximados arbitrariamente a la calculadora de ganancias. Teoría de la decisión funcional: una nueva teoría de la racionalidad instrumental eprint en arxiv: 1710.05060 [cs.AI].

Este artículo describe y motiva una nueva teoría de la decisión conocida como teoría de la decisión funcional (FDT), a diferencia de la teoría de la decisión causal y la teoría de la decisión evidencial. Los teóricos de la decisión funcional sostienen que el principio normativo para la acción es tratar la decisión de uno como el resultado de una función matemática fija que responde a la pregunta: “¿qué resultado de esta misma función produciría el mejor resultado?” Adherirse a este principio ofrece una serie de beneficios, incluida la capacidad de maximizar la riqueza en una serie de problemas tradicionales de teoría de decisiones y juegos con los que la CDT y la EDT tienen un bajo rendimiento. Usando una regla de decisión simple y coherente, los teóricos de la decisión funcional (por ejemplo) logran más utilidad que CDT en el problema de Newcomb, más utilidad que EDT en el problema del fumar ethereum o la lesión clásica de ethereum, y más utilidad que ambos en el problema del autoestopista de Parfit. En este artículo, definimos FDT, exploramos sus prescripciones en una serie de problemas de decisión diferentes, lo comparamos con CDT y EDT, y damos justificaciones filosóficas para FDT como una teoría normativa de la toma de decisiones. Reflexión de producción de pruebas para HOL en la demostración del teorema interactivo: 6ta conferencia internacional, ITP 2015, Nanjing, China, 24 a 27 de agosto de 2015, actas.

Presentamos un principio de reflexión de la forma “si ⌜?⌝ es demostrable, luego ?” implementado en el probador de teorema HOL4, asumiendo la existencia de un gran cardenal. Usamos la suposición de gran cardinal para construir un modelo de HOL dentro de HOL, y mostrar cómo asegurar que tenga el mismo significado tanto en el límite de mercado de et dentro como fuera de este modelo. La solidez de HOL implica que si ⌜?⌝ es demostrable, entonces es cierto en este modelo, y por lo tanto ? se mantiene. También mostramos cómo este principio de reflexión puede extenderse, asumiendo una jerarquía infinita de cardenales grandes, para implementar el polimorfismo modelo, una técnica diseñada para verificar sistemas con funcionalidad de auto-reemplazo.

El uso de datos de entrenamiento para enseñar a los sistemas avanzados de inteligencia artificial lo que valoramos parece más prometedor que tratar de codificar todo lo que nos importa a mano. Sin embargo, sabemos muy poco acerca de cómo discernir cuándo los datos de capacitación no son representativos del entorno futuro del agente, o cómo garantizar que el agente no solo aprenda sobre nuestros valores sino que los acepte como propios.

Además, los agentes racionales que persiguen algún objetivo tienen un incentivo para proteger su contenido de objetivo. No importa cuál sea su objetivo actual, es muy probable que se sirva mejor si el agente continúa promoviéndolo que si el agente cambia los objetivos. Esto sugiere que puede ser difícil mejorar la alineación de un agente con los intereses humanos a lo largo del tiempo, particularmente cuando el gráfico de valor de ethereum es lo suficientemente inteligente como para modelar y adaptarse a los objetivos de sus programadores. Hacer que los sistemas de aprendizaje de valor sean tolerantes a errores es probable que sea necesario para un aprendizaje en línea seguro. El problema del aprendizaje de valor presentado en el taller de ética para inteligencia artificial IJCAI 2016.

Una máquina superinteligente no actuaría automáticamente según lo previsto: actuará según lo programado, pero el ajuste entre las intenciones humanas y el código escrito podría ser deficiente. Discutimos métodos mediante los cuales se podría construir un sistema para aprender qué valorar. Destacamos los problemas abiertos específicos del aprendizaje de valor inductivo (a partir de los datos de entrenamiento etiquetados) y planteamos una serie de preguntas sobre la construcción de sistemas en los que la iglesia de la vida eterna modela las preferencias de sus operadores y actúa en consecuencia. La corrección presentada en el taller de ética e inteligencia artificial AAAI 2015.

A medida que los sistemas de inteligencia artificial aumentan en inteligencia y capacidad, algunas de sus opciones disponibles pueden permitirles resistir la intervención de sus programadores. Llamamos “corregible” a un sistema de AI si coopera con lo que sus creadores consideran una intervención correctiva, a pesar de los incentivos predeterminados para que los agentes racionales resistan los intentos de cerrarlos o modificar sus preferencias. Presentamos la noción de corrección y analizamos las funciones de utilidad que los cursos de et intentan hacer que un agente se apague de forma segura si se presiona un botón de apagado, mientras evitamos los incentivos para evitar que se presione el botón o que se presione el botón, y mientras asegurando la propagación del comportamiento de apagado cuando crea nuevos subsistemas o se auto modifica. Si bien algunas propuestas son interesantes, todavía no se ha demostrado que ninguna de ellas satisfaga todos nuestros deseos intuitivos, dejando este problema simple en la capacidad de corrección completamente abierto.

Además de nuestra investigación matemática, MIRI investiga importantes cuestiones estratégicas. ¿Qué podemos (y no podemos) predecir sobre el futuro de la IA? ¿Cómo podemos mejorar nuestra capacidad de pronóstico? ¿Qué intervenciones disponibles hoy parecen ser las más beneficiosas, dado lo poco que sabemos? La ética de la inteligencia artificial en el manual de inteligencia artificial de cambridge.

La posibilidad de crear máquinas pensantes plantea una serie de problemas éticos. Estas preguntas se refieren tanto a garantizar que tales máquinas como a la moneda de la etiopía no dañen a los seres humanos y otros seres moralmente relevantes, y al estado moral de las máquinas en sí. La primera sección analiza los problemas que pueden surgir en el futuro cercano de la IA. La segunda sección describe los desafíos para garantizar que la IA funcione de manera segura a medida que se acerca a los seres humanos en su inteligencia. La tercera sección describe cómo podemos evaluar si etereum billetera tutorial, y en qué circunstancias, ellos mismos tienen estatus moral. En la cuarta sección, consideramos cómo puede diferir de los humanos en ciertos aspectos básicos relevantes para nuestra evaluación ética de ellos. La sección final aborda los problemas de creación es más inteligente que humano y garantiza que utilicen su inteligencia avanzada para el bien y no para el mal. Formalización de los objetivos instrumentales convergentes presentados en el taller AAAI 2016 AI, ética y sociedad.

Omohundro ha argumentado que los sistemas de IA suficientemente avanzados de cualquier diseño tendrían, de manera predeterminada, incentivos para perseguir una serie de subobjetivos útiles desde el punto de vista instrumental, como adquirir más capacidad de cómputo y acumular muchos recursos. Omohundro se refiere a estos como “impulsos básicos de inteligencia artificial”, y él, junto con Bostrom y otros, ha argumentado que esto significa que se debe tener mucho cuidado al diseñar sistemas autónomos poderosos, porque incluso si tienen objetivos inofensivos, los efectos secundarios de perseguirlos Los objetivos pueden ser bastante dañinos para la física. Estos argumentos, aunque intuitivamente convincentes, son principalmente filosóficos. En este documento, proporcionamos modelos formales que demuestran la tesis de omohundro, lo que pone el peso matemático detrás de esas afirmaciones intuitivas. Inteligencia explosión microeconomía MIRI informe técnico 2013–1.

Identificamos la cuestión clave como los rendimientos de la reinversión cognitiva: la capacidad de invertir más potencia de cómputo, computadoras más rápidas o algoritmos cognitivos mejorados para producir trabajo cognitivo que produce cerebros más grandes, cerebros más rápidos o mejores diseños mentales. Muchos fenómenos han sido reclamados como evidencia de varias posiciones en este debate, desde el curso observado de la evolución de los homínidos hasta la ley de Moore y la competencia a lo largo del tiempo de los programas de ajedrez. Este documento explora los problemas que surgen cuando se trata de interpretar esta evidencia a la luz de la hipótesis de Good, y propone que el siguiente paso en el seguimiento de la carga de las aerolíneas etíopes es formalizar las curvas de retorno de inversión, para que cada posición pueda establecer formalmente qué modelos. Sostienen ser falsificados por observaciones históricas.

banner