lunes, 15 de diciembre de 2008

Confiar la ética a los robots

Parece ciencia ficción, pero no lo es. Un informático del Instituto de Tecnología de Georgia, Ronald Arkin, que diseña software para robots en el campo de batalla y que ha sido contratado por el Ejército de EEUU, defiende la teoría de que "los robots inteligentes pueden comportarse de una manera más ética en el campo de batalla que los seres humanos en la actualidad". Según este investigador, en el fragor de la guerra, hasta los soldados mejor entrenados pueden actuar de formas que violen la Convención de Ginebra o las normas de combate en el campo de batalla, con lo cual estas maquinitas podrían hacerlo mucho mejor. O sea, que en el amor y en la guerra no todo vale como suele decirse.

Actualmente, ya se utilizan de forma habitual en los conflictos internacionales los aviones espía, los detectores de minas y los sensores robóticos, aunque todos ellos los controla el ser humano. Pero Arkin da un paso más y habla de robots de verdad que funcionan por sí solos. Él y otros investigadores creen que se debe abrir el debate en la sociedad cuanto antes para conocer si esta tecnología es algo de lo que la humanidad quiere hacer uso o no. Según ellos, el proceso para fabricar robots autónomos con capacidad letal no es muy caro, e incluso aseguran que Corea del Sur e Israel ya están desplegando robots armados como guardias fronterizos.

Arkin cree que algunas de las posibles ventajas de los combatientes robóticos autónomos es que se pueden diseñar sin instinto de supervivencia y, por tanto, sin tendencia a huir por miedo. Además, se pueden fabricar de modo que no sientan ira o temeridad, y hacerlos invulnerables a lo que él denomina "el problema psicológico del cumplimiento de las expectativas".

Parece ser que el objetivo de la investigación de Arkin es dotar al campo de batalla de una ética que ahora mismo carece por culpa de la propia esencia del ser humano, su vulnerabilidad y sus ideas preconcebidas. Así, su informe se basó en una encuesta realizada en 2006 por las autoridades sanitarias del Ejército, que revelaba que menos de la mitad de los soldados y marines destinados en Irak afirmaban que a los no combatientes se les debía tratar con dignidad y respeto, y que el 17% aseguraba que a todos los civiles se los debía tratar como insurrectos.

La presencia de robots en conflictos armados podría salvar la vida de los soldados en operaciones contra francotiradores, en inmersiones en viviendas de supuestos terroristas o en otras misiones peligrosas. Pero antes habría que programarlos con normas e instrucciones sobre a quién disparar, cuándo es aceptable hacer fuego y cómo distinguir las tropas enemigas atacantes de los civiles, los heridos o alguien que esté intentando rendirse. Y ahí es donde está la madre del cordero, porque, de momento, los robots no tienen capacidad para comprender el significado de las normas, evaluar las situaciones de riesgo tanto para los humanos como para ellos mismos o resolver los conflictos que se podrían dar entre dichas normas.

La palabra 'robot' viene del checo 'robota', que significa "servidumbre", "trabajo forzado" o "esclavitud". Los robots son usados hoy en día en nuestra sociedad para llevar a cabo tareas sucias, peligrosas, difíciles o repetitivas para los humanos. También son empleados para la limpieza de residuos tóxicos, exploración espacial, minería, búsqueda y rescate de personas y localización de minas terrestres. Pero todo el control lo lleva un ser humano. Cruzar la delgada línea que separa la utilización de un robot para estos menesteres 'incómodos' para los hombres y crear unas máquinas que se manejen por sí solas, con total independencia de la mano del hombre, podría ser peligroso.

De hecho, muchas películas, como Yo robot, plantean este dilema y el temor a que las máquinas puedan rebelarse contra sus creadores. Para contrarrestar un supuesto "complejo de Frankenstein", Isaacc Asimov escribió un conjunto de normas, las tres leyes de la robótica, que la mayoría de los robots de sus novelas están diseñados para cumplir:

1. Un robot no debe dañar a un ser humano o, por su inacción, dejar que un ser humano sufra daño.
2. Un robot debe obedecer las órdenes que le son dadas por un ser humano, excepto si estas órdenes entran en conflicto con la Primera Ley.
3. Un robot debe proteger su propia existencia, hasta donde esta protección no entre en conflicto con la Primera o la Segunda Ley.

De momento, las simulaciones del campo de batalla de Arkin se desarrollan en pantallas de ordenador. Los pilotos robot cuentan con la información que podría tener un piloto humano, como mapas con la ubicación de templos, edificios de apartamentos, colegios y otros centros de vida civil. Se les enseña dónde están exactamente las tropas enemigas, el material bélico y los blancos prioritarios. Y se les dan las normas de combate. Así, en uno de estos simulacros, un piloto robot sobrevuela un pequeño comenterio. El piloto descubre un carro de combate a la entrada del cementerio, es decir, un posible objetivo. Pero también hay un grupo de civiles presentes, así que el piloto decide seguir adelante y no tarda en encontrar otro blindado, que está solo en un campo. El piloto dispara, el objetivo queda destruido.

En principio, creo que dotar a los robots con una serie de normas no presenta ningún problema, a fin de cuentas, son máquinas creadas por el hombre para su servicio. El problema aparece a la hora de dotarlas de capacidad de deducción, una cualidad intrínsecamente humana, que les permitiría distinguir cuáles son todas las situaciones que abarcan dichas leyes: es decir, saber en determinadas situaciones si una persona está corriendo peligro o no, y deducir cuál es la fuente del daño. Además, si este objetivo se lograra y conllevara la consecución de otras metas, ¿no estaríamos los humanos, mucho más imperfectos, en serio peligro de extinción?


4 comentarios:

Anónimo dijo...

El ser humano es y será la máquina más perfecta del Universo siempre. Un robot puede reunir una serie de perfecciones, pero todas ellas serán copias del ser humano. Nuestra mente no tiene barreras, tal como se demuestra día a día.

Anónimo dijo...

Buen post. Creo que el ingenio del ser humano va muy por delante de su capacidad para prever y digerir las transformaciones sociales. Es decir, creo que primero inventamos y luego reflexionamos sobre las múltiples repercusiones de lo que inventamos. Pero, ¿cómo van a afectar a todos los habitantes de este planeta todos estos avances de los próximos 50-100 años?

Anónimo dijo...

A "soy leyenda": Según el 90% de los estudios o artículos de personas, que según la sociedad, están "muy cualificadas" para hablar sobre este tema, la capacidad para digerir las transformaciones y avances sociales son escasas, y la repercusión nefasta. Sin embargo yo pienso que habrá un momento en que se encontrará el equilibrio, porque caminamos hacía la perfección, aunque cueste creerlo.

Anónimo dijo...

Cierto, way, llevamos siglos y siglos de transformaciones en todos los terrenos y siempre a mejor. El avance de hoy es el retraso de mañana, así que dentro de 100 años dirán: "¡Pero cómo podían vivir así en el 2008!".