En caso de hacer siempre lo que otras personas dicen que para hacer? Claramente no. Todos saben eso. Así que los robots del futuro deben siempre obedecer nuestras órdenes? A primera vista, se podría pensar que deberían, simplemente porque son máquinas y eso es lo que están diseñados para hacer. Pero luego pensar en todas las veces que no llevaría a cabo sin pensar las instrucciones de los demás – y poner robots en esas situaciones.
Basta con contemplar:
- Un robot encargado el cuidado de ancianos por un propietario olvidadizo para lavar la ropa sucia «,» a pesar de que la ropa que acababa de salir de la lavadora
- Un niño en edad preescolar que ordena al robot guardería para lanzar una pelota por la ventana
- Un estudiante al mando de su tutor robot para hacer todas las tareas en lugar de hacerlo a sí misma
- Un robot para el hogar instruido por su propietario ocupado y distraído para ejecutar la eliminación de la basura a pesar de que las cucharas y cuchillos están atrapados en ella.
Hay un montón de casos benignos donde los robots reciben comandos que idealmente no deben llevarse a cabo porque conducen a resultados no deseados. Pero no todos los casos que serán inocuos, incluso si sus comandos inicialmente parecen ser.
Considere un coche robot instrucciones para realizar copias de seguridad mientras el perro está durmiendo en el camino de entrada detrás de él, o un robot ayudante de cocina instrucciones para levantar un cuchillo y caminar hacia adelante cuando se coloca detrás de un chef humano. Los comandos son simples, pero los resultados son significativamente peores.
¿Cómo podemos los seres humanos evitar tales resultados nocivos de la obediencia robot? Si conduciendo por el perro no fuera posible, el coche tendría que negarse a conducir en absoluto. Y del mismo modo, si evitando apuñalar el chef no fuera posible, el robot tendría que dejar de caminar hacia adelante, ya sea o no recoger el cuchillo en el primer lugar.
En cualquiera de los casos, es esencial para ambas máquinas autónomas para detectar el daño potencial que sus acciones podrían causar y reaccionar a ella ya sea por tratar de evitarlo, o si el daño no se puede evitar, al negarse a llevar a cabo la instrucción humana.¿Cómo enseñamos a los robots cuando está bien decir que no?
¿Cómo pueden los robots de saber qué va a pasar después?
En nuestro laboratorio , hemos comenzado a desarrollar controles robóticos que hacen inferencias sencillas basadas en órdenes humanas. Estos determinarán si el robot debe llevarlas a cabo según las instrucciones o rechazarlos porque violan un principio ético que el robot está programado para obedecer.
Contar robots de cómo y cuándo – y por qué – a desobedecer es mucho más fácil decirlo que hacerlo. Averiguar qué daño o problemas pueden ser el resultado de una acción no es simplemente una cuestión de mirar los resultados directos. Una pelota lanzada por una ventana podría terminar en el patio, con ningún daño. Pero la bola podría terminar en una calle concurrida, para no ser visto de nuevo, o incluso causar un conductor a desviarse y accidente. Contexto hace toda la diferencia.
Es difícil para los robots de hoy para determinar cuándo está bien para lanzar una pelota – como a un niño jugando a la pelota – y cuando no lo es – como por la ventana o en la basura.Aún más difícil es si el niño está tratando de engañar al robot, pretendiendo jugar un juego de pelota, pero luego agachándose, dejando que la pelota desaparece por la ventana abierta.
Al explicar la moral y el derecho a los robots
La comprensión de los peligros que implica una cantidad significativa de conocimiento de fondo (incluyendo la posibilidad de que jugar a la pelota frente a una ventana abierta podría enviar la pelota a través de la ventana). Se requiere que el robot no sólo tener en cuenta resultados de la acción por sí mismos, sino también para contemplar las intenciones de los seres humanos que dan las instrucciones.
Para hacer frente a estas complicaciones de instrucciones humanos – benévolos o no – los robots tienen que ser capaces de razonar de forma explícita a través consecuencias de las acciones y comparar los resultados con los principios sociales y morales establecidas que prescriben lo que es y no es deseable o legal. Como se ha visto anteriormente, nuestro robot tiene una regla general que dice: «Si se le indica realizar una acción y es posible que la realización de la acción podría causar daños, a continuación, se le permite no llevarla a cabo.» Hacer que la relación entre las obligaciones y permisos explícitos permite al robot para razonar a través de las posibles consecuencias de una instrucción y si son aceptables.
En general, los robots no deben realizar acciones ilegales, ni deben realizar las acciones legales que no son deseables. Por lo tanto, se necesitan representaciones de leyes, normas morales e incluso la etiqueta con el fin de ser capaz de determinar si los resultados de una acción instruido, o incluso la propia acción, podría estar en violación de esos principios.
Mientras que nuestros programas están todavía muy lejos de lo que vamos a necesitar para permitir que los robots para manejar los ejemplos anteriores, nuestro sistema actual ya demuestra un punto esencial: los robots deben ser capaces de desobedecer a fin de obedecer.
https://theconversation.com/why-robots-need-to-be-able-to-say-no-55799
Wow; esto si que resulta paradójico… Humanos programando instrucciones logarítmicas a robots, para que USEN el SENTIDO COMÚN, perdido y en desuso, por los Humanos mismos.
Estamos creando a través de la I A… lo que ya no somos capaces de aplicar a nosotros mismos, como seres socialmente » organizados «. Creamos PROLONGACIONES utópicas de lo que ya solo DEFINIMOS como una teoría, sin ser capaces de llevarlas a la practica con sentido de sensatez; Para que nuestras creaciones las apliquen en nosotros.
Así de jodidas están las cosas con los Humanos de hoy…. Garcias M V, interesante articulo.
Son personas normales qescriben estos post? Wow;
Creo que el artículo tiene razón, dado que esto es algo imparable, se debe contemplar también este tema para evitar que nos dañen.