jueves, 27 de enero de 2011

Robots asesinos.. mas que simple ficcion

En el universo conocido existen muchas leyes, desde las leyes de la física tales como la gravedad, hasta leyes que el gobierno impone como pagar los impuestos.
También existen leyes morales que aplican a todos los seres humanos, tales como el no robar o el no matar.
Actualmente muchas leyes o normas morales no se respetan, inclusive las 3 leyes de la robótica.
¿Cómo?
¿No las conocen?
Pues aquí se las presento:
1.- Un robot no puede hacer daño a un ser humano o, por su inacción, permitir que un ser humano sufra daño.
2.-Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entran en conflicto con la primera.
3.- Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o segunda ley.
Estas tres leyes fueron escritas por un escritor y bioquímico soviético llamado Isaac Asimov.
Este cuate fue quien escribió “Yo, Robot” (si, la película del 2004 protagonizada por Will Smith) me dirán… ¿Qué tiene todo esto de interesante? Pues bien, déjenme decirles que esta novela (y por ende, las leyes también) fueron escritas en 1950.
Así es amigo lector, este escritor fue lo que muchos consideran un verdadero visionario, el fue a quien se le atribuye las palabras “positrónico”, “psicohistoria” y “robótica” en el idioma ingles.
¿Por qué escribo esto?
Pues porque es un tema muy interesante, pero la principal razón es porque me dejaron en la escuela a la que voy (la gloriosa pero no muy reconocida voca 3) realizar un ensayo acerca de las 3 leyes de la robótica pero aplicado a un tema en concreto, es decir, si esas leyes se aplican o no en la actualidad.
¿El objetivo de esto?
Pues que obviamente no construyamos robots asesinos que se vuelvan contra los humanos como ha sucedido en Matrix, Terminator e inclusive en los comics tenemos el ejemplos de los robots caza mutantes conocidos como los Sentinels.
En fin…. Muchos seguirán con la duda:
¿Si te dejaron esto para tu escuela, entonces porque lo presentas con nosotros?
Una razón es porque el profe quiere que le demos “publicidad y reconocimiento” a la escuela, así que…. Si esta leyendo esto profe, LA VOCA 3 RIFA!!!!!!!!!!!!!!
Segunda, porque no tengo la más remota idea de cómo escribir un ensayo y escribo esto para, ya saben, que me sirva de apoyo y cuando haga el ensayo bueno tomar muchas ideas de esta entrada.

¿Qué es un robot?
Lo que yo entiendo por “robot” es cualquier inteligencia artificial que es capaz de tomar decisiones.
Es decir, que robot puede aplicarse no solo a una maquina, sino también a un programa informático, como lo son los virus.

Los robots simplemente son maquinas que se les dio “inteligencia artificial”.
Y actualmente estas leyes son vistas únicamente como leyes morales.

Un ejemplo:
El profesor de inteligencia artificial y robótica en la Universidad de Sheffield Noel Sharkey, dijo creer que la reducción de costes pronto podría convertir a los robots en una opción realista de los grupos extremistas.
Aproximadamente mas de 4,000 robots están desplegados en Irak por las tropas norteamericanas, por lo que este reconocido profesor indica de forma muy acertada, que dados los precios (relativamente hablando) bajos para la construcción de estos (unos 332 euros) no faltara mucho tiempo para que el terrorismo y los grupos extremistas comiencen a usar estas mismas tácticas.

También tenemos la opinión de Ronald C. Arkin, un experto en robótica, quien asegura que lo mejor que podría pasarte en el campo de batalla es enfrentarte a un robot.
¿Cómo?
Ronald asume que el comportamiento ético de una máquina será mejor que el de un humano, agobiado por el calor, la ira o el ánimo de venganza.
En general, la tecnología actual solo permite la creación de máquinas que son poco más sofisticadas que un coche o avión radio controlado (y armado hasta los dientes), que solo dispara si el humano que lo controla lo decide. De hecho, la mayoría de las sondas robóticas, detectores de minas y dispositivos de vigilancia son ya comunes en el campo de batalla, pero son controlados por humanos. Muchos de los artefactos en Irak y Afganistán son operados desde un comando en Nevada.

El uso de robots permite efectuar misiones complejas sin arriesgar vidas humanas (del bando propio, claro). Pero podría ser que no fuesen un enemigo tan malo, después de todo.
Ronald Arkin es un ingeniero en computación perteneciente al Georgia Tech, que se gana la vida desarrollando el software que utilizan sus robots de combate del ejército norteamericano. Arkin asegura que “los robots inteligentes podrían tener un mejor comportamiento ético en el campo de batalla del que actualmente poseen los humanos". Para el experto, los robots están exentos de todos los sentimientos humanos que, a menudo, son responsables de muchas atrocidades y horrores que se producen en el campo de batalla por los sentimientos incontrolables de los soldados. En el medio de una batalla, la mayoría de los soldados, profesionales y mercenarios de todo tipo, están sometidos a sentimientos tales como el temor, la ira o el deseo de venganza, y a menudo exhiben comportamientos que violan las convenciones de Ginebra o las reglas de combate.
La tecnología para construir robots autónomos letales es barata
Arkin habla de robots que ya no es necesario controlarlos, sino que serian capaces de tomar decisiones por si mismos, ahora serian controlados por un ordenador de a bordo (podríamos llamarle…su cerebro) que les permita la toma de decisiones por sí mismos. Ronald y sus colegas señalan que la tecnología para construir robots autónomos letales es barata cuando se la compara, por ejemplo, con el costo de un moderno avión de combate tribulado por algún valiente y astuto piloto. De esta manera, como hemos visto, se perderían menos vidas en combate y se cometerían menos torturas, ya que las maquinas, al estar “programadas” con las leyes de combate no se saldrían de sus parámetros.
Cada día se realiza algún avance en este campo de la robótica, y la aparición de estos androides en el campo de batalla es solo cuestión de tiempo.

Noel Sharkey, un especialista en computación de la Universidad de Sheffield (Gran Bretaña) coincide con Arkin. Sin ir más lejos, el año pasado escribió en una revista especializada que "no se trata de ciencia ficción estilo Terminator, sino de una triste realidad". Sharkey dice que algunos países, como Corea del Sur e Israel, ya están desplegando guardias fronterizos robotizados. De hecho, parece que hubiese una carrera para ver cuál país es el primero en desarrollar un robot de combate que sea capaz de tomar sus propias decisiones respecto de cuándo, cómo, dónde y a quién atacar.

Ahora bien: ¿en que se basa Arkin para asegurar que es mejor tener ser atacado por una maquina sin sentimientos que por un soldado humano? Todos tenemos muy presentes las imágenes en que los robots asesinos de Terminator, Matriz o los Sentinels no se detienen ante nada y matan sin piedad a quien se les ponga enfrente, sin importar si son o no su blanco. De hecho, en la primera película el robot toma una guía telefónica y se dispone a matar a todas las “Sarah Connor” que figuran en ella. ¿Es ese un comportamiento ético, mejor que el de un asesino humano?
Por supuesto que no.

La ética sería parte del programa del robot de combate
El secreto está en el software
Randy Zachery, titular de la Dirección de Ciencia Informática de la Oficina de Investigación del Ejército, que financia el trabajo de Arkin, dice que se espera demostrar cómo los soldados humanos pueden usar e interactuar con sistemas robóticos autónomos (es decir…. Con verdadera “Inteligencia Artificial”) y cómo podría desarrollarse un software lo suficientemente avanzado como para "permitir que sistemas autónomos operen dentro de los límites impuestos por el combatiente". Es decir, que la ética de la que habla Arkin sería parte del programa del robot de combate.

En un informe que entregó al ejército el año pasado, Arkin explica que los robots deberían ser diseñados sin el equivalente cibernético del “instinto de supervivencia” humano, lo que les evitaría las tendencias a sentir algo parecido al temor. Como se sabe, muchas veces en los humanos el miedo hace que cometan actos que son, como mínimo, peligrosos. “Pueden ser construidos sin [el equivalente de la] ira ni la imprudencia”, agregó. Antes de ser llevados a un campo de batalla real, tendrían que ser programados con reglas que le indiquen de forma clara y sin ambigüedades cuándo es aceptable efectuar disparos y cómo distinguir a civiles, heridos o a alguien que se está rindiendo.

Si todo esto se hace como indica el especialista, los robots serian unos combatientes éticos, que respetarían las reglas de combate. Por un lado, es bueno saber que quien está del otro lado del fusil no va a torturarte ni violar a tus mujeres, pero tampoco resulta una idea demasiado atractiva tener que enfrentarte con algo metálico (seguramente bien blindado) que no puedes matar.
Entonces, dentro de unos años, es posible que las guerras ya haya soldados, sino maquinas de combate capaces de tomar decisiones, saber a quien matar, y muy numerosas.
Pero a pesar de los profesionales citados antes… ¿en verdad es correcto fabricar este tipo de robots?
Un poco de "ética" no le quita lo de "asesino".

A pesar de que afirman que serán controlados y que lo de Terminator es pura ciencia ficción…recordemos que así comenzaron antes de que todo saliera mal.
Y no me refiero solo a que las maquinas tomen conciencia (que es muy diferente a tomar decisiones) y decidan acabar con los humanos.
El principal problema radica en los seres humanos que controlan este ejército metálico.
Al tener a su disposición a estos nuevos soldados, ¿Que les impediría conquistar naciones como si fueran un cuchillo caliente sobre mantequilla?
¿Cuál es la diferencia entre crear robots asesinos supuestamente “éticos” con crear una bomba atómica?
Por mas “éticos” que sean están hechos para matar, ese es su propósito, y si esta reforma se concreta en pocos años….¿No se podría aplicar también a policías, bomberos, etc.…?

Además, ¿hasta dónde es seguro confiar en la programación de un robot asesino? ¿Cuánto tardaría DARPA (o la agencia que esté a cargo) en modificar ese comportamiento, si eso les representa la ventaja necesaria para ganar una guerra? Todos sabemos los manejos que se hacen a lo largo de una guerra, y “retocar” unas líneas de código en el software de un robot puede ser menos complicado que convencer a millones de personas de la existencia de “armas de destrucción masiva”, por citar un ejemplo.

Por más que intentemos justificarlos o disfrazarlos de “combatientes éticos”, estas máquinas seguirán siendo aquello que siempre fueron: robots diseñados para matar gente.

No hay comentarios: