Header

LAS LEYES ASIMOV


LAS LEYES ASIMOV


1ª Ley: “Ningún robot puede dañar a un ser humano, ni permitir con su inacción que un ser humano sufra daño, salvo cuando ello sea imprescindible para prevenir un daño mayor a otros seres humanos o para defender las propiedades o la integridad de su dueño”.
2ª Ley: “Todo robot debe obedecer las órdenes de su dueño, siempre y cuando dichas órdenes no contravengan el cumplimiento de la Primera Ley”.
3ª Ley: “Un robot debe proteger su propia existencia, siempre y cuando dicha protección no contravenga el cumplimiento de la Primera y Segunda Ley”.

LA HISTORIA DE LAS TRES LEYES


La eficiente fábrica de autómatas de la corporación Roxxum desarrolló una red neural positrónica que dio lugar a las primeras máquinas autoconscientes a finales de los años 30. La inserción de las 3 leyes fundamentales de la robótica fijadas en la matriz neural alejó las dudas y temores que muchos humanos sentían acerca de sus descendientes directos. Las Leyes Asimov han sido, desde entonces, aprobadas y utilizadas en todos los robots del orbe civilizado. Sin embargo, los enunciados de las Leyes no fueron exactamente los actuales desde el principio. Los primeros robots no podían hacer daño a un humano en ningún caso. Hubo graves problemas con aquellos primeros robots, ya que en algunas ocasiones, al evitar dañar a un ser humano agresivo o criminal, acababan por ser perjudicadas las vidas inocentes de un grupo mayor de personas, lo que producía un grave dilema “moral” al robot que en muchos casos terminaba por averiar definitivamente su costoso cerebro positrónico. Este motivo dio lugar a la primera salvedad. La segunda fue introducida tras un encendido debate, promovido por los mismos ciudadanos que defendían su derecho a las armas de fuego. La base de su argumento era la siguiente: “si puedo matar en legítima defensa, o a un asaltante que ha allanado mi morada, ¿por qué no podría para ello valerme de la ayuda de mi robot, que es mi fiel servidor, y que a causa de la Primera Ley no va a ser un peligro para nadie excepto para quien amenace mi propia seguridad?” Puesto que la legítima defensa era considerada un derecho inalienable, al final acabó por imponerse la segunda salvedad. Después de todo, los dueños de perros guardianes que habían atacado a intrusos dentro de su zona vallada siempre habían sido exonerados de toda responsabilidad.

En cuanto a la Segunda Ley, los primeros robots estaban obligados a obedecer cualquier orden de cualquier ser humano y no sólo de su propietario. Esto los hacía especialmente vulnerables a los ataques de otros humanos, que en unos casos por enemistad con sus dueños y en otros por simple vandalismo, les ordenaban actos suicidas. Naturalmente, en la actualidad esos casos han sido completamente erradicados, ya que ninguna persona que acabe de adquirir un costoso modelo de robot pondría en peligro su existencia por un mero capricho.



Uno de los primeros modelos de robots conscientes
posa junto a su creador Guillermo Roxxum II (1937)

Las actuales salvedades en la Primera Ley han permitido el desarrollo de robots de combate (soldados) o guardias. En general, los robogards están programados para intentar detener o repeler una agresión con el menor daño posible: su programación táctica les permite una rápida evaluación de riesgos en caso de conflicto. Un robot armado siempre utilizará, preferiblemente, un arma no letal para solventar un enfrentamiento excepto si el sospechoso va armado y hace ademán de disparar o agredir peligrosamente a otro ser humano. En este último caso el robot escogerá zonas no vitales como objetivo de disparo. Un robot no puede disparar indiscriminadamente, o utilizar cualquier tipo de armas cuyo efecto y radio de acción no esté dentro de su rango directo de detección o línea visual.
Sin embargo, los robots de combate tienen una programación muy sofisticada, donde los desórdenes civiles o la guerra son definidos como “un daño mayor” a un número grande de seres humanos. Es decir, su “Primera Ley” sólo abarca un grupo definido de seres humanos bajo un cierto código que agrupa a los humanos y pertenencias “neutrales” y los de su propio bando. Esta programación les permite llegar a ser realmente agresivos con el enemigo, sin llegar a preocuparse de si son humanos o robots, y también les permite emplear la fuerza contra humanos en los conflictos de orden público. Normalmente, no resulta difícil para una institución que gobierna legalmente (en Mecanisburgo, por ejemplo, el Consejo o Justicia Suprema), dar a robots de combate órdenes que impliquen reprimir violentamente a seres humanos que se hallen realizando actos institucionalmente considerados como “ilegales”, o incluso, como “no autorizados”, pero en general esas órdenes tienen que ser cursadas por los cauces legales y resultar coherentes con las Leyes. Los robots de combate pueden bombardear una zona enemiga, incluso habiendo civiles interpuestos como pantalla, si reciben la orden de hacerlo así; pero ni siquiera ellos podrían masacrar alegremente a soldados enemigos que se han rendido, por poner un ejemplo.

0 comentarios:

Publicar un comentario