Delegaci ONZ spotykają się, aby omówić możliwe przepisy dotyczące autonomicznych robotów-zabójców - ale Rosja ich nie ma i nie chce mieć. Jak donosi donosi The Telegraph, rosyjski delegat reprezentujący kraj, który już opracował i rozmieścił roboty wojskowe w rzeczywistych konfliktach, pozostał niezłomny przy tym, że globalna społeczność nie potrzebuje żadnych nowych zasad ani przepisów regulujących korzystanie z zabójczych robotów.

Arctic

Stawia to Rosję przeciwko większości reszty społeczności międzynarodowej, która wzywa do ustanowienia zasad, które utrzymają ludzi w gestii decyzji o otwarciu ognia, podkreślając główne niepokoje i etyczne zagadki związane z autonomiczną bronią. Argumentem Rosji jest to, że algorytmy sztucznej inteligencji napędzające zabójcze roboty są już wystarczająco zaawansowane, aby odróżnić przyjaciela i cywila od wroga, a zatem nie ma potrzeby obciążania autonomicznych maszyn niepotrzebnymi regulacjami. "Wysoki poziom autonomii tej broni pozwala działać w dynamicznej sytuacji konfliktowej i w różnych środowiskach, przy jednoczesnym zachowaniu odpowiedniego poziomu selektywności i precyzji", powiedział rosyjski delegat, według The Telegraph.

Rosja z pewnością nie jest to jedyny kraj rozwijający autonomiczne roboty wojskowe - USA, Chiny i Wielka Brytania robią to samo. Inne narody zdawały się jednoczyć przeciwko Rosji, wzywając do wprowadzenia większej liczby zabezpieczeń, aby upewnić się, że usterkowy lub słabo rozwinięty robot nie strzeli do cywila lub w inny sposób nie spowoduje innej tragedii. "Ludzie muszą stosować zasady międzynarodowego prawa humanitarnego podczas przeprowadzania ataków (...)", powiedział w radiu BBC Neil Davison, doradca Międzynarodowego Komitetu Czerwonego Krzyża.