LAS LEYES ASIMOV
1ª
Ley: “Ningún robot puede dañar a un ser humano, ni permitir con
su inacción que un ser humano sufra daño, salvo cuando ello sea
imprescindible para prevenir un daño mayor a otros seres humanos o
para defender las propiedades o la integridad de su dueño”.
2ª
Ley: “Todo robot debe obedecer las órdenes de su dueño, siempre y
cuando dichas órdenes no contravengan el cumplimiento de la Primera
Ley”.
3ª
Ley: “Un robot debe proteger su propia existencia, siempre y cuando
dicha protección no contravenga el cumplimiento de la Primera y
Segunda Ley”.
LA HISTORIA DE LAS TRES LEYES
La
eficiente fábrica de autómatas de la corporación Roxxum desarrolló
una red neural positrónica que dio lugar a las primeras máquinas
autoconscientes a finales de los años 30. La inserción de las 3
leyes fundamentales de la robótica fijadas en la matriz neural alejó
las dudas y temores que muchos humanos sentían acerca de sus
descendientes directos. Las Leyes Asimov han sido, desde entonces,
aprobadas y utilizadas en todos los robots del orbe civilizado. Sin
embargo, los enunciados de las Leyes no fueron exactamente los
actuales desde el principio. Los primeros robots no podían hacer
daño a un humano en ningún caso. Hubo graves problemas con aquellos
primeros robots, ya que en algunas ocasiones, al evitar dañar a un
ser humano agresivo o criminal, acababan por ser perjudicadas las
vidas inocentes de un grupo mayor de personas, lo que producía un
grave dilema “moral” al robot que en muchos casos terminaba por
averiar definitivamente su costoso cerebro positrónico. Este motivo
dio lugar a la primera salvedad. La segunda fue introducida tras un
encendido debate, promovido por los mismos ciudadanos que defendían
su derecho a las armas de fuego. La base de su argumento era la
siguiente: “si puedo matar en legítima defensa, o a un asaltante
que ha allanado mi morada, ¿por qué no podría para ello valerme de
la ayuda de mi robot, que es mi fiel servidor, y que a causa de la
Primera Ley no va a ser un peligro para nadie excepto para quien
amenace mi propia seguridad?” Puesto que la legítima defensa era
considerada un derecho inalienable, al final acabó por imponerse la
segunda salvedad. Después de todo, los dueños de perros guardianes
que habían atacado a intrusos dentro de su zona vallada siempre
habían sido exonerados de toda responsabilidad.
En
cuanto a la Segunda Ley, los primeros robots estaban obligados a
obedecer cualquier orden de cualquier ser humano y no sólo de su
propietario. Esto los hacía especialmente vulnerables a los ataques
de otros humanos, que en unos casos por enemistad con sus dueños y
en otros por simple vandalismo, les ordenaban actos suicidas.
Naturalmente, en la actualidad esos casos han sido completamente
erradicados, ya que ninguna persona que acabe de adquirir un costoso
modelo de robot pondría en peligro su existencia por un mero
capricho.
Uno de los primeros modelos de robots conscientes
posa junto a su creador Guillermo Roxxum II (1937)
posa junto a su creador Guillermo Roxxum II (1937)
Las
actuales salvedades en la Primera Ley han permitido el desarrollo de
robots de combate (soldados) o guardias. En general, los robogards
están programados para intentar detener o repeler una agresión con
el menor daño posible: su programación táctica les permite una
rápida evaluación de riesgos en caso de conflicto. Un robot armado
siempre utilizará, preferiblemente, un arma no letal para solventar
un enfrentamiento excepto si el sospechoso va armado y hace ademán
de disparar o agredir peligrosamente a otro ser humano. En este
último caso el robot escogerá zonas no vitales como objetivo de
disparo. Un robot no puede disparar indiscriminadamente, o utilizar
cualquier tipo de armas cuyo efecto y radio de acción no esté
dentro de su rango directo de detección o línea visual.
Sin
embargo, los robots de combate tienen una programación muy
sofisticada, donde los desórdenes civiles o la guerra son definidos
como “un daño mayor” a un número grande de seres humanos. Es
decir, su “Primera Ley” sólo abarca un grupo definido de seres
humanos bajo un cierto código que agrupa a los humanos y
pertenencias “neutrales” y los de su propio bando. Esta
programación les permite llegar a ser realmente agresivos con el
enemigo, sin llegar a preocuparse de si son humanos o robots, y
también les permite emplear la fuerza contra humanos en los
conflictos de orden público. Normalmente, no resulta difícil para
una institución que gobierna legalmente (en Mecanisburgo, por
ejemplo, el Consejo o Justicia Suprema), dar a robots de combate
órdenes que impliquen reprimir violentamente a seres humanos que se
hallen realizando actos institucionalmente considerados como
“ilegales”, o incluso, como “no autorizados”, pero en general
esas órdenes tienen que ser cursadas por los cauces legales y
resultar coherentes con las Leyes. Los robots de combate pueden
bombardear una zona enemiga, incluso habiendo civiles interpuestos
como pantalla, si reciben la orden de hacerlo así; pero ni siquiera
ellos podrían masacrar alegremente a soldados enemigos que se han
rendido, por poner un ejemplo.
0 comentarios:
Publicar un comentario