Alors ça c'est passionnant comme question!
J'extrapole.
Les robots peuvent-ils avoir une morale?
Peut-on apprendre à un robot à faire la différence entre le "bien" et le "mal"? Et peut-on lui donner un libre-arbitre? A savoir une capacité à choisir au sein d'un problème donnée, l'action à entreprendre pour rester "juste".
Si c'est possible, cela pourrait développer une supra-conscience humaine... Des robots plus vertueux que des humains car "désintéressés". A priori, un robot cela n'a pas de "désirs personnels" pouvant interférer dans des choix moraux.
Et si oui, si un robot peut "choisir", il peut donc faire le "mauvais choix", en ce cas sera-t-il considéré comme responsable de ses actes et pourra-t-il être jugé? Ou bien, le mauvais choix sera-t-il imputé à une déficience technique, donnant donc aux robots une immunité, tout comme la déficience mentale? (Oui, je caricature, la déficience mentale, c'est plus compliqué, c'était pour l'exemple.)
Et si, aucun robot n'est doté de ces capacités de réflexions personnelles...
Comment situer l'humanité par rapport à des robots créés pour tuer?
D'un point de vue strict, c'est immonde. Déjà que la guerre ce n'était pas une partie de plaisir humains contre humains mais si cela devient humains contre robots... Sans parler des inégalités des moyens matériels des armées, les pays riches pourront déclarer des guerres sans perdre un seul de leurs hommes... Que penser d'un pays mis à genoux par une armée de robots? Est-ce encore une "guerre" ou bien une "extermination" pure et simple?
Le transhumanisme ne peut-il advenir qu'en songeant à un désarmement total?
J'aurais tendance à voter pour!