Google
Support independent publishing: buy this book on Lulu.

Saturday, January 31, 2009

MORAL MACHINES


Now that new robots invade our lives, homes and other activities, the possibility of harmful actions of these towards humans is real. If a robot that perform a surgical operation fails who must be morally sanctioned?: the medical manipulator or the robot?. In this case :the doctor, but there are other situations. Trains that derailed having on board 5 engineers or a drone fleet without pilots that kills human beings instead of other objectives. The proposal here is to develop better technologies and human control at distance. Asimov established 3 laws of Robotics based on ruled hierarchical relationships, to guide engineers and philosophers in the design of robots, appealing to traditional ethical theories, evolutionary strategies or establishings emotions in robots. It would be serious to endow the robots (unconscious machines) with a functional morality: "to regulate their behavior by the light of dangers that their actions can cause or, those generated by omitted duties.

Moral Machines (W. Wallach and C. Allen/Oxford/U/Press), pleads for autonomy of robots, with independence of direct human influence, sophisticated mechanisms of surveillance instead of extra moral education to the drivers. Are robots sufficiently autonomous to alert humans, in the case that their actions can damage to humans?. In the future robots will have smaller capacity to make moral decisions. It will be necessary to adapt the hierarchical morals of Asimov and the human moral that emphasizes the equality of all moral agents. Like dogs, robots vary in their ability to make moral judgments. Well trained dogs are different from other able of being distracted by cats. Although Moral Machines is an exact and informative book, it is premature to know how much it will be an influential book.
LA MORAL de los ROBOTS

Ahora que nuevos robots invaden nuestras vidas, casas y otras actividades, la posibilidad de acciones dañinas de estos para con los humanos es real. Si un robot que opera a una persona falla ¿a quien sancionar moralmente : al médico manipulador o, al robot?. En este caso al médico; pero hay otras situaciones. Trenes que descarrilaron con 5 ingenieros a bordo o una flotilla de dronas sin pilotos, que mata humanos en véz de objetivos distintos. La propuesta aquí es desarrollar mejores tecnologías y un control humano ampliado a distancia. Asimov estableció 3 leyes de la Robótica, basadas en relaciones jerárquicas, normadas por reglas para guiar a ingenieros y filósofos en el diseño de robots, recurriendo a teorías éticas tradicionales, estrategias evolutivas o implementando emociones en los robots. Seria pertinente dotar a los robots (maquinas inconscientes) de una moralidad funcional: "regular su conducta a la luz de los peligros que sus acciones pueden causar o, las generadas por deberes omitidos.

Moral Machines, (Wallach y Allen/Oxford/U/Press), aboga por la autonomía de robots, con independencia de influencia humana directa, mecanismos de vigilancia perfeccionados, en lugar de educación moral extra a los conductores. ¿Son los robots suficientemente autónomos, para alertar a humanos vigilantes, en el caso que sus acciones pudiesen dañar a humanos?. Es previsible que los robots del futuro tengan a pesar de todo, menor capacidad para tomar decisiones morales. Habrá que adecuar entonces tanto la moral jerárquica de Asimov, como la humana que enfatiza la igualdad de todos los agentes morales. De modo semejante a los perros, los robots varian en su habilidad para hacer juicios morales apropiados. Los perros bien entrenados son distintos de otros capaces de ser distraidos por gatos. Aunque Moral Machines es un libro exacto e informativo, es prematuro saber cuanto influenciará.

Labels: