• En el marco de la Convención sobre Determinadas Armas Convencionales
  • Los expertos discuten si se puede enseñar derecho humanitario a las máquinas


El miedo a que las máquinas dominen a los seres humanos quedó plasmado en obras de ficción como los relatos de Yo Robot o la saga Terminator mucho antes de que la tecnología permitiese que esas distopías se hiciesen realidad. Pero ahora que la computación se ha hecho mayor, y con centenares de drones armados hasta los dientes zumbando en el cielo, parece haber llegado el momento de que los gobiernos se pregunten: 

¿hasta dónde dejaremos llegar a los robots?

Naciones Unidas se ha puesto manos a la obra, y esta semana un grupo de expertos celebra en Ginebra (Suiza) una serie de reuniones informales en las que se realizará una primera aproximación a los denominados "sistemas de armamento autónomos letales".

Bajo este calificativo se engloban tanto los aviones teledirigidos que Estados Unidos utiliza para bombardear bases terroristas en Asia Central, y que cada vez gozan de mayor grado de autonomía, como otros ingenios aún por desarrollar pero que previsiblemente se harán realidad pronto, como los robots soldado con forma humanoide.

El trabajo del grupo, que se reúne en el marco de la Convención sobre Determinadas Armas Convencionales, podría ser la base para que en el futuro se incluya en ese texto de legislación internacional (suscrito por 117 estados) un protocolo específico que impida o regule el uso de robots en acciones armadas, junto a otras armas ya prohíbidas, como las minas antipersona o las armas láser cegadoras.

¿Robots que saben de leyes?

En las reuniones se tratarán los "sistemas autónomos" desde múltiples puntos de vista, incluyendo los éticos, tal y como señala el diario The Wall Street Journal. Hoy miércoles, los asistentes debaten así sobre cuestiones como "¿cuál es la relación entre humanos y robots?" o "¿cuáles son las implicaciones (de su uso) para el principio de humanidad?" (ver PDF).

En particular, el panel de expertos trata de dilucidar si los robots podrían ser capaces de ajustarse a la conocida como "Cláusula Martens", expuesta por primera vez en 1899 y que es la base de todo el derecho humanitario al marcar límites, siquiera mínimos, a los países beligerantes.

Se discute así si una máquina podría ser programada para -por ejemplo- no asesinar a soldadados desarmados o para que evite acribillar a población civil que no forma parte del conflicto (algo especialmente peliagudo en los cada vez más frecuentes conflictos urbanos).

Los trabajos del comité sentarán las bases de futuras discusiones sobre el tema en el marco de la convención, y previsiblemente dividirán a los firmantes en dos bandos.

Los que aceptan sin condiciones -y los que no- la primera ley de la robótica, enunciada en términos muy simples por Isaac Asimov: "un robot no puede hacer daño a un ser humano o, por omisión, permitir que sufra daño".


0 comentarios: