Las leyes de la robótica

leyes de los robots

Bienvenidos una vez más al blog de robótica Robotesfera. Hoy vamos a hablar de una cuestión que ha preocupado a muchos tecnólogos y filósofos a lo largo de la historia, nada más y nada menos que las leyes que deben regular a los robots.

¿Cuáles son las leyes de los robots?

Ríos de tinta se han vertido desde que en la década de 1940 el escritor Isaac Asimov estableciese sus famosas tres leyes aparecidas por primera vez en el relato Círculo vicioso (1942), que establecían lo siguiente:

  1. Un robot no hará daño a un ser humano, ni permitirá con su inacción que sufra daño.
  2. Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entrasen en conflicto con la primera ley.
  3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.

Estas tres leyes surgen únicamente como medida de protección para los seres humanos frente al poder mecánico de los robots, es decir, ante una posible rebelión de las máquinas frente a los hombres, culminando con su destrucción.

Hipotéticamente aplicando a los robots en su programación las 3 leyes, sería atrevido pensar, que se rebelasen contra el ser humano pues son solo máquinas creadas para obedecer las consignas establecidas de antemano. Sin embargo, a lo largo de la historia literaria de las últimas décadas, así como en las películas de ciencia ficción, se ha repetido en multitud de ocasiones el poder destructivo de los artefactos robotizados creados por el hombre que se han convertido en verdaderas armas de guerra.

Como muestran películas como Terminator (1985) con todas sus sagas, Yo, robot (2004), Blade Runner (1982), Matrix (1999), y algunas más en las que se observa cómo las máquinas creadas por el hombre intentan la aniquilación de su creador primigenio.

Ni que decir tiene que la impresión negativa que genera la hipotética reacción asesina de tales artificios provistos de una programación integral perfeccionada, conlleva a que la población se posicione en bandos antagónicos con respecto a su aceptación en nuestras vidas, y no sin razón aparente, pues es de todos conocidos que ejemplos como los drones Predator o Reaper son utilizados desde hace años para destruir a personas implicadas en algún conflicto bélico, violando de esta manera la primera y segunda Ley de la robótica de Asimov.

O el conflicto generado por algunas de estas máquinas que tengan que decidir a quién salvar en el caso de un accidente como el ocurrido en la película Yo, robot (2004), en la que el protagonista (Will Smith) es rescatado por un robot cuando cayó al mar, dándole prioridad a su vida en detrimento de la pobre niña que se hundía varios metros más abajo que su coche, con lo que la máquina que iba al rescate estableció probabilidades de salvamento priorizando la del protagonista, a pesar de que este le gritaba con desesperación que socorriese primero a la niña.

Este tipo de situaciones derivados de la aparición de la llamada Inteligencia Artificial, deben solucionarse desde el punto de vista en el que las relaciones establecidas entre el hombre los robots (sea cual fuera su naturaleza y cometido) sea donde se pongan el punto de atención y análisis, donde la acción que ejerzan recíprocamente humanos y robots establezca nítidamente las reglas y protocolos para convivir en sociedad sin crear conflictos, peligrosos para los primeros, y de autodestrucción para los segundos.

Hay que buscar un equilibrio para que la Inteligencia Artificial sea algo personal, que comprenda al ser humano, y que, al mismo tiempo, nos ayude a sacar lo mejor de nosotros, siendo una prolongación de nuestras capacidades.

Dicho esto, intentemos comprender el alcance de las tres leyes básicas de la robótica enunciadas en un principio por Isaac Asimov:

Análisis de las leyes de los robots

Ley 1

Un robot no hará daño a un ser humano o, por inacción, permitirá que un ser humano sufra daño.

Esta Ley quizás sea la que más debe interesar a las personas, ya que, sin entrar en la paradoja de que seamos los constructores de máquinas que terminen volviéndose contra nosotros, es muy importante evitar la sublevación de estos artificios dotados de inteligencia artificial [por ejemplo Terminator (1985) o Blade Runner (1982)], estableciendo los límites que sean necesarios a su operatividad, y anulando su capacidad de agresión al ser humano, sobre todo en la aplicación con fines militares o policiales.

Ley 2

Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la Primera Ley.

En este punto se podría hablar bastante. ¿Se podría considerar que un robot hace daño a una persona si le ordenan robar un cajero automático por la noche, cuando la entidad bancaria tiene beneficios de miles de millones? ¿Es factible suponer que una máquina recibiendo una orden caprichosa humana se dedique a cortar árboles en un bosque perdido sin hacer daño físico alguno a otro ser humano?

Sería necesario, en estos casos u otros con objetivos similares, establecer una serie de limitaciones mucho más amplias que impidiesen actuar a las máquinas ante determinadas órdenes antisociales dadas por sus propietarios con el fin de que el cometido asignado esté imbricado en la normativa establecida en nuestra sociedad.

Ley 3

Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto la Primera o la Segunda Ley.

¿Y qué ocurriría si un equipo robotizado de lanzamiento de misiles manejado por hombres lanzase un ataque a una batería de robots dirigidos por el enemigo? ¿Respondería a la agresión con otro ataque superior pudiendo aniquilar las vidas de los operarios que manejan el primer robot?

Posiblemente ambos puestos de lanzamientos quedarían destruidos, y la aniquilación, tanto de las máquinas como del ser humano, sería una constante.

leyes robotica

Entonces, ¿por qué tenemos la certeza de que estas leyes no siempre se cumplirán?

Posiblemente se debe a que estas máquinas con inteligencia artificial han sido creadas por el ser humano, y todos sabemos que su naturaleza intrínseca desde el comienzo de los tiempos tiene mucho de cruel y maligna, por lo que es muy frecuente que infrinjan las leyes establecidas para armonizar una sociedad y respetar la convivencia de las personas que tienen propósitos de colectividad.

Como ampliación a las Leyes de la Robótica iniciales de Isaac Asimov, la Unión Europea desarrolló ciertas normas de seguridad, éticas y legales que regulan los importantes avances que se están logrando en campos como la robótica y la inteligencia artificial. Los principios robóticos se encuentran recogidos en el documento “European civil laws rules in robotics”, que propone 9 leyes básicas:

Nuevas leyes de la robótica (UE)

  1. Proteger a los seres humanos de los daños causados por robots.
  2. Respetar el rechazo de la atención por parte de un robot.
  3. Proteger la libertad humana frente a los robots.
  4. Proteger a la humanidad contra las violaciones de la privacidad cometidas por un robot.
  5. Gestión de datos personales procesados por robots.
  6. Proteger a la humanidad contra el riesgo de manipulación por robots.
  7. Evitar la disolución de los vínculos sociales.
  8. Igualdad de acceso al progreso en robótica.
  9. Restringir el acceso humano a las tecnologías de mejora.

Para concluir, se añade una idea para que reflexionemos, derivada de la noticia publicada en ABC Tecnología por Lydia Natour, en la que se describe cómo un programa informático pudo ser corrompido y el robot que lo poseía, Tay, se comportó como una maquina xenófoba y homófoba. El resultado fue catastrófico. Después de llamar «mono» a Barack Obama, el sistema «spameó» a los usuarios de la red Twitter e incluso los animó para fumar marihuana delante de la policía. Un caos virtual que Microsoft no previó que se corrompería por la horda de «trolls» en la conocida plataforma de micro mensajes. Los usuarios llevaron al sistema al límite. La incapacidad de la inteligencia artificial para discernir lo que estaba bien de lo que estaba mal provocó que Tay aprendiera lo que no debía y publicara tuits más que ofensivos.

La pregunta, en casos extrapolados a robots con armamentos, podría ser la siguiente: ¿Y si interpretan las consignas recibidas por los programadores de manera incorrecta? ¿Nos veríamos envueltos en una catástrofe similar a la experimentada en la película Juegos de Guerra (1983, John Badham) en la que un adolescente conecta su ordenador con el sistema de defensa de misiles estadounidense NORAD y juega un videojuego llamado “Global Thermonuclear War“.

¿Qué opináis sobre las leyes de la robótica? ¿Cómo lo plantearíais vosotros? 

¡Haz clic para puntuar esta entrada!
(Votos: 9 Promedio: 5)
Total
0
Shares
Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Related Posts