Ética para robots de guerra
El filósofo Patrick Lin ha hecho un artículo sobre las implicaciones éticas de los robots de guerra, los presentes y los que llegarán pronto, a partir de una presentación que dio en In-Q-Tel, el brazo de capital-riesgo de la CIA. Entre los temas que menciona está el de que los robots podrían trabajar sin cegarse por la pasión. Así un robot podría controlar el estado de un torturado mejor que un médico humano sujeto al juramento hipocrático. O vigilar a prisioneros sin caer en las humillaciones de Abu Ghraib. Los pilotos remotos de un avión de combate, ¿están menos implicados que los pilotos dentro del avión o quizá más por observar su objetivo durante horas? Si un robot conoce mejor la situación que su jefe remoto, ¿debería rechazar las órdenes?
Un enemigo que lucha mediante robots puede ser considerado cobarde. Y un arma demasiado efectiva podría vulnerar el derecho internacional humanitario. ¿Son los cyborgs legalmente armas biológicas (prohibidas)? Si un robot semiautónomo provoca daños no deseados, ¿es culpa del piloto, el fabricante, el robot, el programador? ¿Tienen los robots marinos que socorrer a los náufragos como los buques tripulados? Las respuestas a todas estas preguntas pueden llevar a un ejército a contar con la ventaja de la justificación moral. ¿Tienes tú estas respuestas?