Diferencia entre revisiones de «Tres leyes de la robótica»

De Alt64-wiki, la enciclopedia libre.
Saltar a: navegación, buscar
 
(No se muestran 2 ediciones intermedias de un usuario)
Línea 11: Línea 11:
 
Posteriormente, para su novela ''[[Robots e imperio]]'' (1985), Asimov ideó una nueva ley, a la que llamó ley cero, ya que se anteponía a la primera:
 
Posteriormente, para su novela ''[[Robots e imperio]]'' (1985), Asimov ideó una nueva ley, a la que llamó ley cero, ya que se anteponía a la primera:
  
* Ningún robot causará daño a la humanidad, ni permitirá por inacción que la humanidad resulte dañada.
+
:0.  Ningún robot causará daño a la humanidad, ni permitirá por inacción que la humanidad resulte dañada.
  
 
En realidad, esta ley debe ser considerada un corolario de la primera, ya que se puede llegar a deducir de manera lógica de la misma.
 
En realidad, esta ley debe ser considerada un corolario de la primera, ya que se puede llegar a deducir de manera lógica de la misma.
Línea 17: Línea 17:
 
Como consecuencia de esta nueva ley, un robot podía causar daño a un humano si ello implicaba salvar a la humanidad. Sin embargo, una interpretación cuantitativa de la primera ley ya dejaba abierta la posibilidad de que un robot permitiese el daño de una persona humana si así preservaba la integridad de dos o más personas, o de personas de mayor ''calidad'' según el juicio del robot.
 
Como consecuencia de esta nueva ley, un robot podía causar daño a un humano si ello implicaba salvar a la humanidad. Sin embargo, una interpretación cuantitativa de la primera ley ya dejaba abierta la posibilidad de que un robot permitiese el daño de una persona humana si así preservaba la integridad de dos o más personas, o de personas de mayor ''calidad'' según el juicio del robot.
  
Es especialmente relevante la característica de código moral de este conjunto de leyes. En alguno de sus relatos de robots Asimov ya señala que el comportamiento de un robot sería indistinguible del de una persona de perfecta moral.
+
Es especialmente relevante la característica de código moral de este conjunto de leyes. En alguno de sus [[El cuento en la ciencia ficción|relatos]] de robots Asimov ya señala que el comportamiento de un robot sería indistinguible del de una persona de perfecta moral.
  
 
La lógica de estas sencillas premisas ha sido frecuentemente alabada no sólo en el ámbito de la ciencia ficción, sino también desde áreas como la matemática y la filosofía.
 
La lógica de estas sencillas premisas ha sido frecuentemente alabada no sólo en el ámbito de la ciencia ficción, sino también desde áreas como la matemática y la filosofía.
  
 
El problema reside en la interpretación de conceptos astractos no matematizables, como ''daño'', ''humanidad'' e incluso ''humano''. Asimov trató de forzar al máximo la efectividad de estas leyes basándose en esta característica, y se puede decir que lo logra en su relato ''[[Qué es el hombre]]'', de 1974.  
 
El problema reside en la interpretación de conceptos astractos no matematizables, como ''daño'', ''humanidad'' e incluso ''humano''. Asimov trató de forzar al máximo la efectividad de estas leyes basándose en esta característica, y se puede decir que lo logra en su relato ''[[Qué es el hombre]]'', de 1974.  
 +
 +
{{Rebelión de las máquinas}}
  
 
[[Categoría:Términos de ciencia ficción]]
 
[[Categoría:Términos de ciencia ficción]]

Última revisión de 16:43 25 may 2012

Las tres leyes de la robótica fueron elaboradas por Isaac Asimov y John W. Campbell durante la edad de oro de la ciencia ficción, dentro del marco de las historias de robots. La primera vez que aparecieron en una historia fue en Runaround (Círculo vicioso), publicado en la revista Astounding Science Fiction en marzo de 1942.

Su enunciado es el que sigue:

  1. Ningún robot causará daño a un humano, ni permitirá por inacción que un humano resulte dañado.
  2. Todo robot obedecerá siempre a un humano, excepto cuando sus órdenes contravengan la primera ley.
  3. Todo robot debe salvaguardar su propia existencia, excepto cuando ello contravenga las dos primeras leyes.

Asimov y Campbell supusieron que estas tres sencillas leyas debían ser suficientes para proteger a los humanos de los robots y garantizar su pacífica coexistencia.

Posteriormente, para su novela Robots e imperio (1985), Asimov ideó una nueva ley, a la que llamó ley cero, ya que se anteponía a la primera:

0. Ningún robot causará daño a la humanidad, ni permitirá por inacción que la humanidad resulte dañada.

En realidad, esta ley debe ser considerada un corolario de la primera, ya que se puede llegar a deducir de manera lógica de la misma.

Como consecuencia de esta nueva ley, un robot podía causar daño a un humano si ello implicaba salvar a la humanidad. Sin embargo, una interpretación cuantitativa de la primera ley ya dejaba abierta la posibilidad de que un robot permitiese el daño de una persona humana si así preservaba la integridad de dos o más personas, o de personas de mayor calidad según el juicio del robot.

Es especialmente relevante la característica de código moral de este conjunto de leyes. En alguno de sus relatos de robots Asimov ya señala que el comportamiento de un robot sería indistinguible del de una persona de perfecta moral.

La lógica de estas sencillas premisas ha sido frecuentemente alabada no sólo en el ámbito de la ciencia ficción, sino también desde áreas como la matemática y la filosofía.

El problema reside en la interpretación de conceptos astractos no matematizables, como daño, humanidad e incluso humano. Asimov trató de forzar al máximo la efectividad de estas leyes basándose en esta característica, y se puede decir que lo logra en su relato Qué es el hombre, de 1974.

Rebelión de las máquinas
Elementos de la vida real Conceptos relacionados Conceptos de ciencia ficción relacionados
Informática
Ordenador
Inteligencia artificial
Complejo de Frankenstein
Rebelión de las máquinas
Guerra apocalíptica
Robot Robótica Tres leyes de la robótica
Androide
Replicante