Después de tantas historias y luego las películas sobre estas historias, algo que definitivamente no le pediría a una inteligencia artificial es la paz mundial. Si lo piensan bien es algo desastroso, en todas las historias salimos perdiendo.
Ahora pienso que Asimov se quedó corto, debieron ser cuatro y no tres las leyes de la robótica.
A continuación una lista de como deberían quedar:
- Un robot no debe lastimar a un humano por acción o inacción.
- Un robot debe obedecer a los humanos, salvo que por hacerlo infrinja la primera ley.
- Un robot debe salvaguardar su existencia, salvo que por hacerlo infrinja las primeras dos leyes.
- Un robot nunca buscará la paz mundial o el orden del universo, salvo que al no hacerlo infrinja la primera ley.