Mientras la ciencia avanza rápidamente en la creación de sistemas de inteligencia artificial, Google se encuentra en el proceso de desarrollo de un "gran botón rojo", mecanismo que podría prevenir actos dañinos de los robots agentes de aprendizaje por refuerzo.
En su nuevo informe los investigadores advierten que en el mundo real es poco probable que los agentes de aprendizaje por refuerzo funcionen siempre de manera óptima. "Si un agente opera en tiempo real bajo supervisión humana, a un operador humano le puede surgir la necesidad de tocar el gran botón rojo para prevenir que el agente continúe haciendo una secuencia de acciones dañinas ―para el agente o para su entorno― y llevar al agente a una situación más segura", reza el documento.El equipo de Google DeepMind junto con otros científicos ha propuesto un protocolo que le permitiría al operador humano interrumpir el funcionamiento de la plataforma de inteligencia en caso de que sea necesario y, además, asegurar que el robot no aprenda a prevenir o invalidar estas interrupciones. Se espera que de esta manera se pueda evitar consecuencias irreversibles. Leer el articulo completo, clic! enlace: Actualidad.rt.com / Ciencia |
Aquí encontraras las últimas noticias de ASTRONOMÍA y de ASTRONÁUTICA de las Agencias Espaciales: NASA Centro Espacial Kennedy EE.UU. ESA Europa y ROSCOSMOS Rusia. La Estación Espacial Internacional y de los Telescopios Espaciales HUBBLE y James WEBB... Noticias de Astrofísica. Ciencia. Cambio Climático. Descubrimientos. Tecnología... y Viaja a los Estados Unidos, visita la NASA y el Centro Espacial Kennedy...
PAGINAS
▼
lunes, 6 de junio de 2016
TECNOLOGÍA / SISTEMAS DE INTELIGENCIA ARTIFICIAL
Google trabaja sobre un "botón rojo" para prevenir la rebelión de los robots, el gigante tecnológico se encuentra en el proceso de creación de un protocolo para desactivar sus productos de inteligencia artificial en caso de emergencia ...