Las leyes de la rob贸tica

leyes de los robots

Bienvenidos una vez m谩s al blog de rob贸tica Robotesfera. Hoy vamos a hablar de una cuesti贸n que ha preocupado a muchos tecn贸logos y fil贸sofos a lo largo de la historia, nada m谩s y nada menos que las leyes que deben regular a los robots.



驴Cu谩les son las leyes de los robots?

R铆os de tinta se han vertido desde que en la d茅cada de 1940 el escritor Isaac Asimov estableciese sus famosas tres leyes aparecidas por primera vez en el relato C铆rculo vicioso聽(1942), que establec铆an lo siguiente:

  1. Un robot no har谩da帽oa un ser humano, ni permitir谩 con su inacci贸n que sufra da帽o.
  2. Un robot debe cumplir las 贸rdenes dadas por los seres humanos, a excepci贸n de aquellas que entrasen en conflicto con la primera ley.
  3. Un robot debe proteger su propia existencia en la medida en que esta protecci贸n no entre en conflicto con la primera o con la segunda ley.

Estas tres leyes surgen 煤nicamente como medida de protecci贸n para los seres humanos frente al poder mec谩nico de los robots, es decir, ante una posible rebeli贸n de las m谩quinas frente a los hombres, culminando con su destrucci贸n.

Hipot茅ticamente aplicando a los robots en su programaci贸n las 3 leyes, ser铆a atrevido pensar, que se rebelasen contra el ser humano pues son solo m谩quinas creadas para obedecer las consignas establecidas de antemano. Sin embargo, a lo largo de la historia literaria de las 煤ltimas d茅cadas, as铆 como en las pel铆culas de ciencia ficci贸n, se ha repetido en multitud de ocasiones el poder destructivo de los artefactos robotizados creados por el hombre que se han convertido en verdaderas armas de guerra.

Como muestran pel铆culas como聽Terminator (1985) con todas sus sagas, Yo, robot (2004), Blade Runner (1982), Matrix (1999), y algunas m谩s en las que se observa c贸mo las m谩quinas creadas por el hombre intentan la aniquilaci贸n de su creador primigenio.

Ni que decir tiene que la impresi贸n negativa que genera la hipot茅tica reacci贸n asesina de tales artificios provistos de una programaci贸n integral perfeccionada, conlleva a que la poblaci贸n se posicione en bandos antag贸nicos con respecto a su aceptaci贸n en nuestras vidas, y no sin raz贸n aparente, pues es de todos conocidos que ejemplos como los drones Predator o Reaper son utilizados desde hace a帽os para destruir a personas implicadas en alg煤n conflicto b茅lico, violando de esta manera la primera y segunda Ley de la rob贸tica de Asimov.

O el conflicto generado por algunas de estas m谩quinas que tengan que decidir a qui茅n salvar en el caso de un accidente como el ocurrido en la pel铆cula Yo, robot (2004), en la que el protagonista (Will Smith) es rescatado por un robot cuando cay贸 al mar, d谩ndole prioridad a su vida en detrimento de la pobre ni帽a que se hund铆a varios metros m谩s abajo que su coche, con lo que la m谩quina que iba al rescate estableci贸 probabilidades de salvamento priorizando la del protagonista, a pesar de que este le gritaba con desesperaci贸n que socorriese primero a la ni帽a.

Este tipo de situaciones derivados de la aparici贸n de la llamada Inteligencia Artificial, deben solucionarse desde el punto de vista en el que las relaciones establecidas entre el hombre los robots (sea cual fuera su naturaleza y cometido) sea donde se pongan el punto de atenci贸n y an谩lisis, donde la acci贸n que ejerzan rec铆procamente humanos y robots establezca n铆tidamente las reglas y protocolos para convivir en sociedad sin crear conflictos, peligrosos para los primeros, y de autodestrucci贸n para los segundos.

Hay que buscar un equilibrio para que la Inteligencia Artificial sea algo personal, que comprenda al ser humano, y que, al mismo tiempo, nos ayude a sacar lo mejor de nosotros, siendo una prolongaci贸n de nuestras capacidades.

Dicho esto, intentemos comprender el alcance de las tres leyes b谩sicas de la rob贸tica enunciadas en un principio por Isaac Asimov:

 

An谩lisis de las leyes de los robots

 

Ley 1

 

“Un robot no har谩 da帽o a un ser humano o, por inacci贸n, permitir谩 que un ser humano sufra da帽o.”

 

Esta Ley quiz谩s sea la que m谩s debe interesar a las personas, ya que, sin entrar en la paradoja de que seamos los constructores de m谩quinas que terminen volvi茅ndose contra nosotros, es muy importante evitar la sublevaci贸n de estos artificios dotados de inteligencia artificial [por ejemplo聽Terminator (1985) o Blade Runner (1982)], estableciendo los l铆mites que sean necesarios a su operatividad, y anulando su capacidad de agresi贸n al ser humano, sobre todo en la aplicaci贸n con fines militares o policiales.

 

Ley 2

 

“Un robot debe obedecer las 贸rdenes dadas por los seres humanos, excepto si estas 贸rdenes entrasen en conflicto con la Primera Ley.”

En este punto se podr铆a hablar bastante. 驴Se podr铆a considerar que un robot hace da帽o a una persona si le ordenan robar un cajero autom谩tico por la noche, cuando la entidad bancaria tiene beneficios de miles de millones? 驴Es factible suponer que una m谩quina recibiendo una orden caprichosa humana se dedique a cortar 谩rboles en un bosque perdido sin hacer da帽o f铆sico alguno a otro ser humano?

Ser铆a necesario, en estos casos u otros con objetivos similares, establecer una serie de limitaciones mucho m谩s amplias que impidiesen actuar a las m谩quinas ante determinadas 贸rdenes antisociales dadas por sus propietarios con el fin de que el cometido asignado est茅 imbricado en la normativa establecida en nuestra sociedad.

 

Ley 3

 

“Un robot debe proteger su propia existencia en la medida en que esta protecci贸n no entre en conflicto con la Primera o la Segunda Ley”

 

驴Y qu茅 ocurrir铆a si un equipo robotizado de lanzamiento de misiles manejado por hombres lanzase un ataque a una bater铆a de robots dirigidos por el enemigo? 驴Responder铆a a la agresi贸n con otro ataque superior pudiendo aniquilar las vidas de los operarios que manejan el primer robot?

Posiblemente ambos puestos de lanzamientos quedar铆an destruidos, y la aniquilaci贸n, tanto de las m谩quinas como del ser humano, ser铆a una constante.

leyes robotica

Entonces, 驴por qu茅 tenemos la certeza de que estas leyes no siempre se cumplir谩n?

Posiblemente se debe a que estas m谩quinas con inteligencia artificial han sido creadas por el ser humano, y todos sabemos que su naturaleza intr铆nseca desde el comienzo de los tiempos tiene mucho de cruel y maligna, por lo que es muy frecuente que infrinjan las leyes establecidas para armonizar una sociedad y respetar la convivencia de las personas que tienen prop贸sitos de colectividad.

Como ampliaci贸n a las Leyes de la Rob贸tica iniciales de Isaac Asimov, la Uni贸n Europea desarroll贸 ciertas normas de seguridad, 茅ticas y legales que regulan los importantes avances que se est谩n logrando en campos como la rob贸tica y la inteligencia artificial. Los principios rob贸ticos se encuentran recogidos en el documento 鈥European civil laws rules in robotics鈥, que propone 9 leyes b谩sicas:




Nuevas leyes de la rob贸tica (UE)

 

  1. Proteger a los seres humanos de los da帽os causados por robots.
  2. Respetar el rechazo de la atenci贸n por parte de un robot.
  3. Proteger la libertad humana frente a los robots.
  4. Proteger a la humanidad contra las violaciones de la privacidad cometidas por un robot.
  5. Gesti贸n de datos personales procesados por robots.
  6. Proteger a la humanidad contra el riesgo de manipulaci贸n por robots.
  7. Evitar la disoluci贸n de los v铆nculos sociales.
  8. Igualdad de acceso al progreso en rob贸tica.
  9. Restringir el acceso humano a las tecnolog铆as de mejora.

 

Para concluir, se a帽ade una idea para que reflexionemos, derivada de la noticia publicada en ABC Tecnolog铆a聽por Lydia Natour, en la que se describe c贸mo un programa inform谩tico pudo ser corrompido y el robot que lo pose铆a, Tay, se comport贸 como una maquina xen贸foba y hom贸foba. El resultado fue catastr贸fico. Despu茅s de llamar 芦mono禄 a聽Barack Obama, el sistema 芦spame贸禄 a los usuarios de la red Twitter e incluso los anim贸 para fumar marihuana delante de la polic铆a. Un caos virtual que Microsoft聽no previ贸 que se corromper铆a聽por la horda de 芦trolls禄 en la conocida plataforma de micro mensajes. Los usuarios llevaron al sistema al l铆mite. La incapacidad de la inteligencia artificial para聽discernir lo que estaba bien de lo que estaba mal聽provoc贸 que Tay aprendiera lo que no deb铆a y publicara tuits m谩s que ofensivos.

La pregunta, en casos extrapolados a robots con armamentos, podr铆a ser la siguiente: 驴Y si interpretan las consignas recibidas por los programadores de manera incorrecta? 驴Nos ver铆amos envueltos en una cat谩strofe similar a la experimentada en la pel铆cula Juegos de Guerra (1983, John Badham) en la que un adolescente conecta su ordenador con el sistema de defensa de misiles estadounidense NORAD y juega un videojuego llamado “Global Thermonuclear War“.

驴Qu茅 opin谩is sobre las leyes de la rob贸tica? 驴C贸mo lo plantear铆ais vosotros?聽




Las leyes de la rob贸tica
5 (100%) 2 votes
0 comentarios

Dejar un comentario

驴Quieres unirte a la conversaci贸n?
Si茅ntete libre de contribuir

Deja un comentario

Tu direcci贸n de correo electr贸nico no ser谩 publicada. Los campos obligatorios est谩n marcados con *